人間の表情を分析・分類する子ども型ロボット「CB2」

段々と人間に似せたロボットの「似せている度合い」が上がって来ていて、「所詮機械だから・・・」が「機械でありながら・・・」に変わる閾値が近づいてきている、と思わせるような作品が出てきている気がします。 これなんか、その一つのような気が。 写真を見ると全然人間らしい外見ではないのに非常に人間的に見えてしまうのは、目元のせいなんでしょうかね。 

尤も開発元である大阪大学浅田教授は、センサー等を通じて、対人的な感情の収集と判断の為に作っているとかで、マン・マシン・インタフェースのマシン=>マンの表現の部分に注力したものでは無いように読み取れるのだけれど。 こちらの状況を精密に読み取ることが出来るからこそ、あちら(ロボット)も人間っぽい表情を出せるのかしらん? 上目遣いでこちらを眺めている写真なんか、かなり人間くさいように思えるんですけれど。


=== AFPの記事から引用開始 ===

人間の表情を分析・分類する阪大の子ども型ロボット「CB2」
髪の毛のない、子どものような外見をした身長130センチ、体重33キロのロボットが、椅子に腰掛け、呼吸に合わせて肩を上下させている。その黒い目は、部屋の中のあらゆる動きを追っている。ロボットではあるが、周囲に注意を払っているように振る舞っている。

 この人型ロボット「CB2」(Child-robot with Biomimetic Bodyの略)のシリコン製の柔らかい皮膚の下にはデータ収集用のプロセッサが埋め込まれている。収集されたデータは、記録・評価されて、社会生活を学習できるように設計されている。まるで赤ちゃんがお母さんとの関係性の中で身につけていくように、ロボットは人と接したり相手の表情を観察しながら、ソーシャルスキルを徐々に発達させていくという。

 開発を指揮した大阪大学(Osaka University)の浅田稔(Minoru Asada)教授は、「乳児および幼児の頭には非常に限られたプログラムしかないが、学びのための余白はある」と話す。

 研究チームは、このロボットに母親のさまざまな表情を観察する赤ちゃんのような感情を持たせ、そうした表現を「幸せ」「悲しい」といった基本的なカテゴリーに分けることを目指している。具体的には、アイカメラで情動表現を記録・記憶し、あらかじめクラスターに分類しておく。実際の感情表現データと照合することで、どの感情表現クラスターに識別されるか判断することが可能になる。

 ロボットは、皮膚の下にある197個のフィルム状の圧力センサーにより、頭をなでられるといったヒューマン・タッチを認識することもできる。

=== AFPの記事から引用終了 ===


先日、女性型ロボットで非常に迫真の出来のが話題になっておりましたが、そういう方向性と、目線や雰囲気で人間に錯覚させる方向性と、両方有り得るんじゃないだろうか? どちらかと言えば、後者の方が好きだけれど、両方が合体したら最強だろうな。(どういう意味で誰に対して?) いずれにせよ、こういうものは現物を見ないと何とも言えないから、早くその機会に恵まれますように。


メーカー
大阪大学
人名
浅田稔
住所
〒565-0871 吹田市山田丘2-1