share

更新日 

  • 有識者インタビュー

AIの判断で人は幸せになれるのか──倫理的AI判断の研究者に聞く「AI×倫理」に潜むリスク

「AI」と聞くと、少し難しく感じる人もいるかもしれません。けれども、AIはすでに私たちの日常のさまざまな分野で活用されています。

そこで今回は「AI x 倫理」に注目。AIの判断が人間の倫理的選択に及ぼす影響について研究している立正大学所属の山本仁志教授に、こんな質問をぶつけてみました。 

──「AIに判断をまかせたほうが、人間は幸福になれるのではないですか?」

いまや生成AIは、単なる情報収集ツールを超え、人生相談や重要な意思決定の“アドバイザー”として活用されるようになっています。

しかしながら、AIの判断に頼りきりになることに、何のリスクもないと言えるのでしょうか。本稿は、AIが高性能に進化したがゆえに生じる懸念に光を当てます。

将棋AIが変えた価値観──「AIは怖い」から「当たり前」へ

──AIと倫理・道徳の関係を研究するようになった背景を教えてください。

山本仁志教授(以下、山本):AIと倫理・道徳の関係を研究するようになった背景には、10年以上前に将棋AIがプロ棋士に勝利した出来事があります。

当時、敗れたプロ棋士は激しく非難されました。これは、一般の人々のなかにAIへの拒否感や恐怖心のような感情があったからだと考えています。

けれども、そんな感情はほんの数年で受容へと変わっていき、将棋AIがプロ棋士より強いことを、いまでは多くの人が当たり前のように受け入れています。つまり、AIに対する私たちの価値観や前提は、時代とともに変わっていくのです。

倫理や道徳が関わるAIの問題もまた、AIに対する価値観によって“問題そのもののかたち”が変わってしまう可能性があります。

だからこそ、そうした変化を正しく理解できなければ、社会の分断を招くことにもなりかねません。このような関心から、私はAIが倫理や道徳に与える影響を研究するようになりました。

──生成AIの台頭によって、何らかのリスクや懸念が生じる可能性はあるのでしょうか?

山本:生成AIを含む現在のAIは、ユーザーの要求や指示を実行するための“手段”にすぎず、いわば「道具的AI」と呼べるものです。こうした道具的AIは、ユーザーの利益を最大化するように設計されています。

しかしその一方で、個人の利益を追求するAIが増えれば増えるほど、やがて個人間の利害がぶつかり合う──つまり、利益同士の衝突が生じてきます。

こうしたAIによる利害の対立をどう調整するか。そのための社会的な仕組みや合意形成の枠組みが、これからますます必要になってくると考えています。

──AIによる利害の衝突について、具体的な事例を挙げていただけますか?

山本:環境問題がその一例として参考になるかもしれません。この問題では、個々人が自らの幸福や利便性を追求した結果として、資源が浪費され、人類全体の生活環境が悪化してきました。

AIによる利害の衝突も、これと似た構造を持っていると考えられます。

道具的AIが個人の利益を最優先に動くようになると、そうした動きが集積することで、社会全体の利益や調和が損なわれる事態が生じる可能性があるのです。

AIとの比較が映し出す、人間の意思決定の正体

──最近では、AIがおすすめする情報によって、非常に偏った意見を持ってしまう「エコーチェンバー」が問題になっています。エコーチェンバーが先鋭化すると、ある種の陰謀論に陥り、他人への攻撃を引き起こすこともあります。こうした現象は、AIによる利害の衝突の一種と考えられるのでしょうか。

山本:おっしゃる通りです。自分にとって心地よい意見ばかり聞くようになってしまうエコーチェンバーは、生成AIの登場によってさらに先鋭化しつつあるように感じます。

この現象は、まさにAIによる利害の衝突の一例であり、道具的AIが抱える弱点を浮き彫りにしていると言えるでしょう。

AIを活用して自分の考えを強化することが、結果的に社会全体の寛容性や包摂性を損なう──こうしたエコーチェンバー現象に対しては、偏った意見同士の衝突を緩和するための、何らかの調整機能を社会に実装していくことが求められます。

──山本教授の最近の発言の中に、「アルゴリズム嫌悪とアルゴリズム礼賛の対立(※)」という言葉があります。先ほどの将棋AIの事例では、世間の態度がアルゴリズム嫌悪からアルゴリズム礼賛へと変化したとも言えるでしょう。今後、社会はアルゴリズム嫌悪とアルゴリズム礼賛のどちらの方向へ進むとお考えですか?

(※)アルゴリズム嫌悪とアルゴリズム礼賛の対立については、カードローンの窓口合同会社の公式サイトが公開した記事を参照してください。この記事では、山本教授が、アルゴリズム嫌悪を「AIの判断を信用できない」「人間の判断の方が優れている」「AIは冷たい」などと避けたくなる心理、アルゴリズム礼賛を「AIの判断は正しい」「人間より優れているはず」と無条件に受け入れたくなる心理と説明しています。

山本:個々の事例によって方向性は異なりますが、あえて社会全体の風潮として捉えるなら、アルゴリズム礼賛の方向に進む可能性があると思います。

そのように考える理由として、私が最近発表した「間接互恵性的文脈におけるAIの判断」に関する実験があります。

この実験では、職場に評判の悪い人物がいて、その人物から「コンサートに行きたいので勤務シフトを代わってほしい」と頼まれる、という場面を想定しました。

この状況で、その人物に協力することが良いことか悪いことかを実験参加者に尋ねたところ、「どちらとも言えない」という回答が最も多くなったのです。

しかし、このシーンでAIが「良い」と判断し、逆に人間が「悪い」と判断したという条件を加えると、多くの人がAIの判断を受け入れる結果となりました。

この実験結果は、アルゴリズム礼賛が表れた事例とも言えるでしょう。

この結果については、人間の判断には復讐心のような動機が潜んでいる一方で、AIにはそのような負の感情がない、と人々が考えた可能性もあると解釈できます。

──先ほどのお話にあった間接互恵性に関する実験では、AIの判断という条件を加えることで、これまで見えていなかった人間の判断プロセスが浮かび上がってくる、という理解でよろしいでしょうか?

山本:はい、その理解で概ね正しいと思います。 意思決定に関して言えば、高度なAIが登場する以前には、人間の判断と比較できる対象が存在しませんでした。

しかし、高度なAIが誕生したことで、初めて人間の判断を相対化し、比較できるようになったのは、科学的に非常に興味深いことだと思います。

ただ、AIとの比較によって人間の意思決定プロセスの解明が進むことで、これまで見えなかった人間の後ろ暗い側面が明らかになる、といった少し恐ろしい可能性もあるかもしれません。

AIに決めさせる社会は本当に幸せか?エコーチェンバーから抜け出すためのヒント

──社会全体にアルゴリズム礼賛の風潮が広がると、あらゆる意思決定をAIに任せた方が万事うまくいく、と考える人や立場が現れると思われます。こうした“意思決定のAIへの丸投げ”によって生じるリスクや懸念はあるのでしょうか?

山本:AIに過度に依存することによって生じるリスクの一つが、先ほどもお話しした「AIによる利害の衝突」です。現状の道具的AIは、あくまでユーザーの利益を最大化するようにしか動作しないからです。

──道具的AIによって生じる利害の衝突を回避するためには、AIに対する何らかの規制が必要だと思われます。AI規制について、どのようにお考えでしょうか?

山本:AI規制を考える上で、ユーザー個人にある種の我慢を強いるだけでは効果は薄いと思います。

環境問題を見ればわかりますが、一人ひとりが我慢すれば解決するはずですが、現実には人々は必ず抜け道を探してしまうものです。AI規制においても、同じことが言えるでしょう。

AI規制では、ユーザーが利用するAI同士の利害を調整するような、メタレベルの仕組みを整えることが望ましいと考えています。こうしたメタレベルのAI調整機能の研究が、今後ますます重要になるでしょう。

また、ひとつのAIに依存しないことも大切です。AIにも多様性が必要なのです。たとえば、ChatGPTが非常に優秀だからといって、それだけしか使わない社会は健全とは言えません。

──エコーチェンバーがAIによる利害の衝突の一例だというお話でしたが、エコーチェンバーに陥らないためには、AIとどのように付き合っていけばいいのでしょうか?

山本:AIは、ユーザーが求める答えを与えてくれます。

しかし、まさにその「求めていたものを与え続けてくれる」ことが、エコーチェンバーに陥る原因になってしまうのです。

こうした状況で大切なのは、人間同士の対話です。

人間は不完全で、必ずしも自分が求めている答えを返してくれるとは限らず、時には煩わしく感じることもあります。それでも、生きている人間同士の対話には、AIでは決して得られない何かがあるのではないでしょうか。

AIが高度に進化した今だからこそ、逆説的ですが、不完全な存在である人間との対話が改めて評価される時代が来るかもしれません。

記事執筆:吉本幸記 編集:中田順子