社会の準備はできている??「AIによる倫理的意思決定」

URLをコピーする
URLをコピーしました!
Pocket

社会の準備はできている??「AIによる倫理的意思決定」

AIの発達に伴い、倫理的な意思決定もAIにさせる場面も出てきています。その場合、社会である我々の準備はできているのでしょうか?

However, when the subjects were asked their explicit opinion on whether a driver should be allowed to make ethical decisions on the road, the subjects had a stronger opinion against AI-operated cars.

参照元:https://www.hiroshima-u.ac.jp/en/news/71302
– 広島大学 Hiroshima University. May 6, 2022 –


テクノロジーの加速度的な進化に伴い、人工知能(AI)が意思決定プロセスで果たす役割は大きくなっている。人間は、情報を処理し、特定の行動を推奨し、さらには自分の代わりに行動してくれるアルゴリズムへの依存度を高めています。

ある研究チームは、AIによる意思決定の導入に対して人間がどのような反応を示すかを調査しました。

具体的には、自律走行車と人間の相互作用を研究することで、「社会はAIの倫理的意思決定に対する準備ができているのか」という問いを探ったのです。

研究チームは2022年5月6日、研究成果を「Journal of Behavioral and Experimental Economics」に発表しました。

2つの実験のうち最初の実験では、研究者は529人の人間に、運転手が直面しそうな倫理的ジレンマを提示しました。

研究者たちが作成したシナリオでは、車の運転手は、ある集団と別の集団のどちらに車をぶつけるか決めなければならなかった–衝突は避けられなかったのです。

衝突は避けられませんが、その衝突は一方のグループには大きな被害を与えるが、もう一方のグループの命を救うことができます。

運転手が人間である場合と、AIである場合の、運転手の判断を被験者が評価する必要がありました。

この最初の実験は、AIによる倫理的な意思決定に対して人々が持つかもしれないバイアスを測定するために行われました。

2回目の実験では、563人の人間が研究者の質問に答えました。

研究者たちは、AIの倫理的判断をめぐる議論が社会的・政治的議論の一部となった後、人々がどのように反応するかを判断しました。

この実験では、2つのシナリオが用意されました。ひとつは、自律走行車に倫理的判断をさせることをすでに決定している仮想の政府を想定したものです。

もう1つは、自律走行車に倫理的判断をさせるかどうかを被験者に「投票」させるシナリオです。

どちらの場合も、被験者は技術による判断に賛成するか反対するかを選択することができました。

この2つ目の実験は、AIを社会に導入する際の2つの選択肢の効果を検証するために行われました。

研究者らは、被験者に人間とAIドライバーのどちらかの倫理的判断を評価するよう求めたところ、どちらかに決定的な好みがあるわけではないことを確認しました。

しかし、被験者に「運転手に道路上での倫理的判断をさせるべきか」という明確な意見を求めたところ、被験者はAIが運転する自動車に対してより強い意見を持つようになりました。

研究者は、この2つの結果の食い違いは、2つの要素の組み合わせによって引き起こされると考えています。

1つ目の要素は、個々の人々が社会全体としてAIの倫理的判断を望んでいないと考えているため、この件に関する意見を求められたときに、その信念にプラスの重みを与えていることです。

広島大学大学院人文社会科学研究科のヨハン・カロ・バーネット助教授は話します。

バーネット助教授:実際、参加者に自分の回答と社会の回答を明確に分けて尋ねると、AIと人間のドライバーに対する許容度の差は消えてしまいます。

2つ目の要素は、この新しい技術を社会に導入する際、議論を許すと国によって結果が分かれるということです。

バーネット助教授:人々が政府を信頼し、強力な政治制度がある地域では、情報と意思決定権によって、被験者がAIの倫理的判断を評価する方法が改善されます。一方、人々が政府を信頼しておらず、政治制度が弱い地域では、意思決定能力が、被験者がAIの倫理的判断をどのように評価するかを悪化させます。

広島大学大学院人文社会科学研究科教授で、平和と持続可能性に関する教育研究ネットワークの金子真治氏は話します。

金子真治氏:我々は、AIの倫理的な意思決定に対する社会的な恐怖があることを発見しました。しかし、この恐怖の源は、個人に内在するものではありません。実際、このAIへの拒絶反応は、個人が社会の意見だと信じているところから来ています。

つまり、明示的に問われない場合、人々はAIの倫理的意思決定に対して偏見を示すことはありません。

しかし、明示的に問われると、人々はAIに対して嫌悪感を示します。

さらに、このテーマに関する議論や情報が加えられたところでは、AIの受け入れは先進国で改善し、発展途上国で悪化します。

研究者は、この新技術に対する拒否反応は、社会の意見に対する個人の信念を取り入れたことが主な原因であり、他の機械やロボットにおいても適用される可能性があると考えています。

金子真治氏:したがって、個人の嗜好をどのように1つの社会的嗜好に集約するかが重要になります。しかも、この作業は、今回の結果が示唆するように、国によって異なることも必要でしょう。

Pocket

この記事が気に入ったら
いいね または フォローしてね!

是非、最新の科学情報を知って頂きたいので シェアをお願いします^^
URLをコピーする
URLをコピーしました!
ホーム » 技術 » 社会の準備はできている??「AIによる倫理的意思決定」

N E W S & P O P U L A R最 新 記 事 & 人 気 記 事

H A P P I N E S S幸 福

M E A L食 事

B R A I N

H E A L T H健 康

人気 (❁´ω`❁)

J O B仕 事

T E C H N O L O G Y技 術