私たちの社会は AI に意思決定を任せる準備ができているでしょうか?

私たちの社会は AI に意思決定を任せる準備ができているでしょうか?

テクノロジーの急速な発展に伴い、人工知能 (AI) は意思決定プロセスにおいてますます重要な役割を果たしています。人間は、情報の処理、特定の行動の推奨、さらには人間に代わって行動を起こすために、アルゴリズムにますます依存するようになっています。

しかし、AI が本当に意思決定、特に主観的、道徳的、倫理的な意思決定において私たちを支援したり、さらには私たちの代わりになったりすることが許されるなら、あなたはそれを受け入れられるでしょうか?

最近、広島大学の研究チームは、人工知能による意思決定の導入に対して人間がどのように反応するかを調査しました。具体的には、自動運転車と人間のやりとりを研究することで、「社会はAIによる倫理的意思決定の準備ができているか?」という疑問を探りました。

研究チームは2022年5月6日に研究結果を「Journal of Behavioral and Experimental Economics」誌に発表した。

最初の実験では、研究者らは529人の被験者に、運転手が直面する可能性のある倫理的なジレンマを提示した。研究者らが作成したシナリオでは、車の運転手は車をある集団に衝突させるか、別の集団に衝突させるかを決定する必要があり、衝突は避けられない。つまり、事故は、あるグループの人々に重傷を負わせるが、別のグループの人々の命を救うことになる。

実験の被験者は、車の運転手(人間または人工知能のいずれか)が下した決定を評価する必要があった。これにより、研究者たちは、AI による倫理的意思決定に関して人々が持つ可能性のある偏見を測定することを目指しています。

2 回目の実験では、AI が社会に浸透したときに人々が AI に関する倫理的決定にどのように反応するかを判断するために、563 人の被験者が研究者の質問に答えました。

この実験では、2つの状況があります。 1つは、自動運転車に道徳的判断を下すことを許可することを決定した架空の政府に関するもので、もう1つは、自動運転車に道徳的判断を下すことを許可するかどうかについて被験者が「投票」できるというものでした。どちらの場合も、被験者はテクノロジーによって下された決定を支持するか反対するかを選択できます。

2 番目の実験は、AI を社会に導入する 2 つの代替方法の効果をテストするために設計されました。

研究者らは、被験者に人間またはAIドライバーの倫理的決定を評価するよう依頼したところ、どちらに対しても明確な好みは見られなかったことを観察した。しかし、AIが道路上で倫理的な判断を下すことを許可されるべきかどうかについて被験者に明確な意見を尋ねたところ、被験者はAI駆動の自動車についてより強い意見を示した。

研究者たちは、2つの結果の違いは2つの要因の組み合わせによるものだと考えている。

第一の要素は、社会全体として AI が倫理的な判断を下すことを望んでいないと多くの人が信じているため、この問題についての意見を尋ねられたときに、自分自身の考えに影響されるということです。 「

実際、参加者に自分の回答を社会の回答と明確に区​​別するよう求めたところ、AIと人間のドライバーの違いは消えた。 「広島大学大学院人文社会科学研究科の助教、ヨハン・カロ・バーネット氏はこう語った。

2 番目の要素は、この新しいテクノロジーを社会に導入する際に、この関連トピックについての議論を許可した場合の結果であり、これは国によって異なります。 「人々が政府を信頼し、政府機関が強い地域では、情報と意思決定力が、被験者がAIの倫理的決定を評価する方法に役立ちます。対照的に、人々が政府を信頼せず、機関が弱い地域では、意思決定力が被験者がAIの倫理的決定を評価する方法を悪化させます」とカロ・バーネット氏は述べた。 「

社会は AI による倫理的意思決定に対して不安を抱いていることがわかりました。しかし、この恐怖の原因は個人に固有のものではありません。実際、AI に対するこの拒絶は、個人が社会の観点として認識しているものから生じています。広島大学大学院人文社会科学研究科の金子真治教授はこう語った。

図 | 平均すると、人々は AI ドライバーの倫理的判断を人間のドライバーと同等に評価しました。しかし人々はAIが道路上で道徳的な判断を下すことを望んでいない

したがって、明示的に尋ねられない限り、人々は AI の倫理的意思決定に対して偏見の兆候を示しません。しかし、明確に尋ねてみると、人々は AI を嫌うと答えました。さらに、このテーマに関する議論や情報が増えるにつれて、先進国では AI の受容が高まり、発展途上国では悪化しました。

研究者たちは、社会の意見に関する個人的な信念が主な原因で新しい技術を拒絶する傾向は、他の機械やロボットにも当てはまる可能性が高いと考えている。 「したがって、個人の好みがどのように集約されて社会的な好みになるかを判断することが重要です。さらに、私たちの研究結果が示唆するように、そのような結論は国によっても異なるはずです」と金子氏は言う。​

<<:  電子鼻のウイスキー識別精度は96%にも達する。ネットユーザー:茅台酒にも作ってみよう

>>:  CMU は、日常の家具の操作方法を正確に学習する新しい器用なロボットアルゴリズムを公開しました

ブログ    
ブログ    

推薦する

「人工太陽」が正確に放電します! DeepMind、AI制御の核融合で新たなブレークスルーを達成

AI制御の核融合はもうすぐ実現します。ディープマインドは3年間の秘密の研究開発を経て、昨年、AIを使...

...

Java プログラミング スキル - データ構造とアルゴリズム「多方向検索ツリー」

[[391530]]二分木問題の分析バイナリツリーは動作効率が高いですが、問題点もあります。次のバ...

デューク大学は、低品質のモザイクを数秒で高解像度の画像に変換するAIアルゴリズムを提案

高画質を追求する時代において、低画質に対する許容度はますます低くなっています。 Zhihuで「低解像...

ルカンのリーダーシップの下、自己監督に賭けるMeta AI

自己教師学習は本当に AGI への重要なステップなのでしょうか? Metaの主任AI科学者であるヤン...

モノのインターネットのためのデータ分析とモデリング

ビッグデータ(BIGDATA)と人工知能(AI)の発展に伴い、モノのインターネット(IOT)はAIO...

顔認識機能付きマスクでiPhoneのロックを解除できる、ネットユーザー「大丈夫、必要ない」

[[315444]]この記事はLeiphone.comから転載したものです。転載する場合は、Lei...

自動運転車における LiDAR とカメラセンサーの融合

センサーフュージョンは、自動運転車の重要な技術の 1 つです。これは、すべての自動運転車のエンジニア...

...

アリババ、AI研究所、清華大学が共同でAIに認知能力を与える新しいAIモデルを発表

1月12日、アリババ、AI研究所、清華大学などの共同研究チームが、新たな超大規模認知事前トレーニング...

テンセントの高性能グラフコンピューティングフレームワークPlatoとそのアルゴリズムの応用

[[318509]]プラトンについてテンセントの高性能グラフコンピューティングフレームワークPlat...

機械学習をサポートする 8 つのデータ ウェアハウス

[[399333]] [51CTO.com クイック翻訳]非常に大きなデータセットの場合、理想的な状...

OpenAI のセキュリティ脆弱性が明らかに: ChatGPT の制限は一般的でない言語を使用することで簡単に回避可能

10月12日、ブラウン大学のコンピューターサイエンス研究者は、OpenAIのGPT-4セキュリティ設...

モデルが 10 倍大きくなると、パフォーマンスは何倍向上しますか? Googleの研究者が調査を実施

ディープラーニング モデルが大きくなるにつれて、あらゆる種類のハイパーパラメータ調整を行うのは非常に...