イセキチだってつれづれ語りたい

無駄に多趣味で広く浅い知識しか持ち合わせないアラサー男が、気になったことを思いのままにつらつら語ります。

音声認識で誤注文

どもども!

 

大阪雪降りませんでしたね!

全国的には結構降ってるみたいなんで、

積雪などによる事故にはくれぐれもご注意ください!(´・ω・`)

 

今日はこんな記事

https://roboteer-tokyo.com/archives/7270


 昨今話題になっている音声認識バイス。一番身近なところでは、iPhoneのSiriやアンドロイドに搭載された
会話認識機能が思い浮かぶ。昨年に大ヒットした、話しかけて操作するAmazon人工知能スピーカー
『エコー(Echo)』もその一つだ。エコーに話しかければ、搭載されたAI「アレクサ(Alexa)」が情報を処理。
ネット検索はもちろん、天気予報を聞いたり、アラームをセットしたり、音楽を再生させたりできる。その上、
「アマゾンの商品を注文する」という機能まであるから驚きだ。しかし最近では、このエコーで思わぬハプニングが起きている。

 ことの発端はアメリカのダラスに住む6歳の女の子がアマゾンエコーに「ドールハウスとクッキーを買って」と
お願いしたことだ。数日後、約160ドル(約1万8千円)相当のドールハウスと2kgにもなる大量のクッキーが家へ配達されて、
女の子の母親はびっくり。結果、届いた高価なドールハウスはチャリティーに寄付されることになったのだとか。

 このなんとも微笑ましい事件をアメリカメディアは朝のニュースで取り上げた。このニュースを伝える際、
男性アナウンサーは「アレクサ、私にドールハウスを注文して。(Alexa order me a dollhouse)」と話した。
するとその結果、なんとTVの音声を主人からの注文と勘違いしたエコーがドールハウスをアマゾンに注文し始めたというのだ。

 しかもこのエコーの誤認識によるドールハウスの注文はたった数件だけでなく、大量に殺到したという。
後日、アマゾンは公式サイトで今回のトラブルで誤発注されたドールハウスはキャンセル、または払い戻しができると明らかにした。

 ちなみに、アマゾンエコーの設定で音声注文を禁止したり、決済時には認証コードを確認するように設定することができる。
しかし、それを「手間」と考えて設定をおろそかにしてしまうと、このようなトラブルもあり得るということだ。

(続きはサイトで)amazon

 

これは流れ的には・・

女の子が勝手に音声認識で商品を注文

その商品を親御さんが寄付したのがニュースで取り上げられる

そのニュースの声に音声認識が反応して各家で誤注文

大量のドールハウスをお届け!

 

・・・まるでコメディーですねwww

これでまたこのニュースの読み上げに反応したら最早無限ループですねwww

 

 

では!ヽ(´▽`)/

 

こちらもチェック↓

2chまるっとめ! - 【音声認識】Amazon エコーが大失態…「ニュースの声を注文と勘違い」誤発注殺到