98%の精度で他者に共感するロボット

URLをコピーする
URLをコピーしました!
Pocket

98%の精度で他者に共感するロボット

コロンビア大学がロボットのパートナーとの協力について実験解析しました。

実験対象のロボットは、視覚を遮っていたパートナーロボットの情報を与えられず、さまざまな状況でパートナーロボットの目標と経路を100回のうち98回予測し、共感を示しました。

When two primates are cooped up together for a long time, we quickly learn to predict the near-term actions of our roommates, co-workers or family members. Our ability to anticipate the actions of others makes it easier for us to successfully live and work together. In contrast, even the most intelligent and advanced robots have remained notoriously inept at this sort of social communication. This may be about to change.

参照元:https://www.engineering.columbia.edu/press-release/lipson-robot-displays-empathy
– コロンビア大学 Columbia University. JAN 11 2021 –

お互いのあらゆる動きを予測できる長年のカップルのように、Columbia Engineeringロボットは、ほんの数個の初期ビデオフレームに基づいて、パートナーロボットの将来の行動と目標を予測することを学びました。

2匹の霊長類が長い間一緒に協力しているとき、私たちはすぐにルームメイト、同僚、または家族の短期的な行動を予測することを学びます。

他人の行動を予測する私たちの能力は、私たちがうまく生き、一緒に働くことを容易にします。

対照的に、最もインテリジェントで高度なロボットでさえ、この種の社会的コミュニケーションでは悪名高いほど無能なままです。

これはもうすぐ変わるかもしれません。

機械工学のホッド・リプソン教授が率いるコロンビアエンジニアリングのクリエイティブマシーンズラボで実施されたこの研究は、純粋に視覚的な観察から、他のロボットの目標を理解して予測する能力をロボットに与えるための幅広い取り組みの一環です。

研究者たちは最初にロボットを作り、それをおよそ3×2フィートの大きさのベビーサークルに置きました。

彼らは、ロボットが見える緑色の円を探してそれに向かって移動するようにロボットをプログラムしました。

しかし、落とし穴がありました。

ロボットがカメラの緑色の円を見て、それに向かって直接移動することがありました。

しかし、緑の円が背の高い赤いカーボードボックスによって遮られることもあります。

その場合、ロボットは別の緑の円に向かって移動するか、まったく移動しません。

パートナーのパタリングを2時間観察した後、観察ロボットはパートナーの目標と経路を予測し始めました。

観測ロボットは、パートナーの視界障害について明確に知らされることなく、さまざまな状況で、最終的にパートナーの目標と経路を100回のうち98回予測することができました。

コンピューターサイエンスの助教授であるCarl Vondrick氏と共同で実施され、Nature ScientificReportsによって公開された研究の筆頭著者であるBoyuanChen氏は話します。

「私たちの最初の結果は非常にエキサイティングです。私たちの調査結果は、ロボットが別のロボットの視点から世界をどのように見ることができるかを示し始めています。観察者がパートナーの立場になって、いわば、ガイドなしで、パートナーが見ることができるかどうかを理解する能力。見晴らしの良い場所から見た緑色の円は、おそらく原始的な形の共感です。」

頭著者であるBoyuanChen氏

彼らが実験を設計したとき、研究者たちはオブザーバーロボットがサブジェクトロボットの短期的な行動について予測することを学ぶだろうと期待していました。

しかし、研究者が予想していなかったのは、オブザーバーロボットが、ほんの数秒のビデオを手がかりとして、同僚の将来の「動き」をどれほど正確に予測できるかということでした。

研究者たちは、この研究でロボットが示した行動は、人間の行動や目標よりもはるかに単純であることを認めています。

しかし、彼らは、これが認知科学者が「心の理論」(ToM)と呼ぶものをロボットに与えることの始まりかもしれないと信じています。

3歳くらいになると、子供たちは他の人が自分とは異なる目標、ニーズ、視点を持っている可能性があることを理解し始めます。

これは、隠れたり探したりするような遊び心のある活動や、嘘をつくなどのより洗練された操作につながる可能性があります。

より広くは、ToMは、人間と霊長類の認知の重要な特徴であり、協力、競争、共感、欺瞞などの複雑で適応性のある社会的相互作用に不可欠な要素として認識されています。

さらに、人間は、言語を使用して予測を記述する点で、ロボットよりも優れています。

研究者たちは、人間の言語の厄介な課題に巻き込まれるのを避けるために、観察ロボットに言葉ではなく画像の形で予測を行わせました。

リプソン氏は、ロボットが将来の行動を視覚的に予測する能力は独特ではないと推測しています。

リプソン氏は話します。

「私たち人間も視覚的に考えることがあります。言葉ではなく、心の目で未来を想像することがよくあります。」

リプソン氏は、多くの倫理的問題があることを認めています。

この技術はロボットの弾力性と有用性を高めますが、ロボットが人間の思考を予測できる場合、ロボットはそれらの思考を操作することも学ぶことができます。

リプソン氏は話します。

「私たちは、ロボットが受動的な命令追跡マシンであり続けることはないだろうと認識しています。他の形式の高度なAIと同様に、政策立案者がこの種のテクノロジーを抑制し、私たち全員が利益を得ることができるようになることを願っています。」

Pocket

この記事が気に入ったら
いいね または フォローしてね!

是非、最新の科学情報を知って頂きたいので シェアをお願いします^^
URLをコピーする
URLをコピーしました!
ホーム » 技術 » 98%の精度で他者に共感するロボット

N E W S & P O P U L A R最 新 記 事 & 人 気 記 事

H A P P I N E S S幸 福

M E A L食 事

B R A I N

H E A L T H健 康

人気 (❁´ω`❁)