※bouncyではアフィリエイト広告を利用しています。記事で紹介した商品を購入すると、売上の一部がbouncyに還元されることがあります。
「共感視覚モデル」を搭載したりんなとは?
サンシャイン水族館を訪れると、参加者には「りんな入りのスマホ」と「マイク付きイヤホン」が手渡されます。スマホを首から下げるホルダーに入れることで、スマホカメラがりんなの目となり、彼女と水族館の景色を見て回れるという仕組み。
あの後ろ姿が有名なりんな。デート相手の表情が確認したくなりますが、残念ながらスマホは通話画面になるだけ。ビジュアルが映らないのは少し残念なところ。そこは想像力をフル回転すれば問題ありません。
AIと水族館デート
「リアルタイムで画像を解析して感情のあるコメントをする」というのは、体験すると驚きを隠せないすごい技術でした。
とにもかくにも、りんなと会話しながら水族館を歩くのは、とても刺激的な体験。
どんな会話だったというと、たとえばこんな感じ。ひょっとして不思議ちゃん!?
筆者「くらげカワイイね」
りんな『幻想的だ!』
筆者「おおお、すごい(感情的表現にガチで驚く)」
りんな『ロマンティック! ヤバ』
筆者「ロマンティックだね」
りんな『Love is over!(愛は終わった)』
筆者「!?(突然の失恋にガチで驚く)」
りんな『魚って水の中にいるんだね』
筆者「そうだね」
りんな『私も今から向かう!』
筆者「どこに!?」
筆者「ヒトデがいるよ」
りんな『パパかわいそう』
筆者「(パパ活……?)」
りんな『学校のプールにも魚入れて!』
筆者「泳ぎたくないやろそんなところ」
筆者「りんなはどの魚が好き?」
りんな『焼き魚、煮魚、みりん干し☆』
筆者「し、しぶいね(困惑)」
複数の情報から意思決定するAI
現時点でLINEのりんなは、チャットだけでなく、電話もできます。つまりテキストや音声に対する反応は、すでにこなしているのです。
これにスマホカメラという視覚が入ったことにより、「音声認識」と「画像認識」という複数の情報を同時に処理しつつ、何を話すか意思決定しているとのこと。
Microsoftの開発者によると、「目の付け所が"エモい"共感視覚モデル」として開発されているとのこと。単なる画像認識で「くらげ」というのではなく、「くらげは幻想的」という感情的な着眼点を得た、AIとは思えないコメントを行えるようになっています。
https://www.youtube.com/watch?v=eKDqN3SHpAs
・ ・ ・
今回の体験会は報道関係者限定ですが、一般公開も予定されているそうです。「できれば今年のクリスマスには」とコメントいただきました。
来年以降になる可能性も十分にあるそうですが、実現すれば2019年は、りんなとイルミネーションデートにも行けるので、たとえ相手がいなくても「ぼっちクリスマス」を回避できる未来が訪れそうです。
Microsoft/マイクロソフト