そろそろ、人工知能の真実を話そう

そんなキャッチ―なタイトルの本が、5月26日に出版されました。著者は哲学者であり、パリ第六大学コンピュータ・サイエンス教授でもあるジャン=ガブリエル・ガナシア氏です。
書籍の発売に合わせて来日した同氏は、AIフォーラムに登壇し、「AIの進歩×倫理問題」というテーマで討論を行いました。今回はその模様をレポートします。

事故が起きたら誰を犠牲にすべきか

AIの進歩に伴って、社会や産業は大きく変化しています。その中で、我々はどのような倫理観や価値観を持って、AI時代を生きればいいのか。あるいはビジネスを行うべきなのか。今回のフォーラムでは、ガナシア氏をはじめとする識者たちが、そんな避けられない命題について議論を行いました。

 

AI時代の倫理観とは、具体的にどういうことなのでしょう。フォーラムの冒頭では、ガナシア氏とともに登壇したローランス・ドヴィレー教授が、自動運転を例に挙げて説明しました。

 

ドヴィレー氏「自動運転の車に、若いドライバーが乗っていたとします。すると前方に、交通ルールを無視した二人の子供が飛び出してきました。道路の反対側には、高齢者が歩いています。こんなとき、自動車に組み込まれたAIはどう判断すればいいのでしょうか?」

子供やお年寄りを避け、ドライバーが犠牲になるべきか。交通マナーを守らなかったのが悪いのだから、子供たちを犠牲にするのか。失われる寿命の総年数を少なくするため、高齢者を犠牲にするのか。

 

将来的に必ず起こるこういった場面に備え、企業はどうシステム設計すべきか、人間はどのような行動をすべきか、倫理的な考察がまだまだ欠けているとドヴィレー氏は話します。

AIが人に代わって意思決定を求める

その意見に、ガナシア氏も「倫理問題は適用が難しいが、国際レベルで議論を重ねる必要がある」と同意。そして、フランスで懸念されているという、フィルターバブル問題(※)について言及します。

 

※検索エンジンのアルゴリズムによって、検索時に表示される内容が、ユーザーの嗜好によって変化する。そのため、ユーザーは一般的な情報と切り離され、偏った情報にばかり触れることになる

 

ガナシア氏「GAFA(グーグル、アマゾン、フェイスブック、アップル)といった大企業がサービスを通じて、収集したデータをAIに学習させ、ユーザーの情報操作をするのではないかと懸念されています。ユーザーは欲しいデータだけを見るようになり、視界が狭くなってしまうのでは

 

インターネットの世界では、AIによるリコメンドシステムが当たり前のように普及しています。例えばアマゾンでは、ユーザーの閲覧・購買・検索履歴などから、お勧めの商品が表示されます。グーグルの検索エンジンでも、データをもとに、パーソナライズされた検索結果が表示されます。例えば「猫」と検索したとき、Aさんには可愛らしい動画集、Bさんには猫の飼い方やしつけ方、Cさんには猫の殺処分問題という風に、関心や興味がある内容が表示されるのです。またネット上に表示される広告も、効果を最大化させるために、一人ひとりの嗜好に合ったものが表示されます。

 

もちろんユーザーにとっても、不要な情報より、有用な内容の方がありがたいはずです。しかし行き過ぎると、新しい価値観や可能性に出会うことなく、決められた範囲内でしか選択ができなくなります。偏った情報が、不自由さを生み出すことになるのです。また、グローバル化が進む中で、”多様性”という最も重要な価値観も遮断されてしまいます。

 

ガナシア氏「予測ツールに組み込まれているアルゴリズムが、人間に代わって意思決定を求ようになっている。ここに倫理的問題があります。重要なのはそのことに理解を深め、テクノロジーに支配されないことです」

AI時代に備える4つのポイント

その後もフォーラムでは、「人工知能×倫理」をテーマに、登壇者たちによってさまざまな意見が交わされました。いくつか紹介します。

 

東京大学教授・西垣通氏「大きなポイントは”コンピュータも間違える”ということ。パターン認識や機械翻訳など、統計的に確率の高い答えを出しているだけ。しかし一部の人は、AIは決して間違えないという信念がある。だから言うことを聞かねばならない、ということが起こり得る懸念があります

 

人工知能と人間社会に関する懇談会座長・原山優子「高齢化社会の日本において、いかに人間の質を保つ環境を担保できるか。(人間が行っていることを)AIが部分的に代替して対応する必要がある。(脅威論などの)対立軸ではなく、賢くAIを使うために、何を考え注意するかルールをつくるべき」

 

そしてこれからの時代、倫理観を持ってAIと共存するために、社会が備えるべき4つのポイントが挙がりました。

 

・倫理とは何か市民に教育し、全員が責任を持ってロボットを使う
・問題が発生した場合、警告するシステムをロボットに組み込む
・ITシステムを使い、その警告システムがきちんと機能するか常に検証する
・ルール違反があった場合の法整備を行う

 

* * *

 

著書『そろそろ、人工知能の真実を話そう』では、シンギュラリティ(※)を全否定しているガナシア氏。同時に過熱するAIブームの中で、信ぴょう性の低い情報に踊らされる人々に警鐘を鳴らしています。

 

AIとは、人間の暮らしを豊かにすべきために生まれたもの。そんな原点に立ち返り、盲目的に脅威論を信じるのではなく、AIといかに共存していくか議論していこう。そんな未来を見据えたメッセージが、強く感じられました。

今後、「AI×倫理」に関する議論は、国家レベル、そして国際レベルで行われていくはずです。そのときに、今回のフォーラムは、重要な道しるべとなるでしょう。

 

※技術的特異点。AIが発達し、全人類の知恵を超えること。その先に、人間では予測がつかない世界が訪れるのでは、と議論されている。

ライター: 肥沼 和之

大学中退後、大手広告代理店へ入社。その後、フリーライターとしての活動を経て、2014年に株式会社月に吠えるを設立。編集プロダクションとして、主にビジネス系やノンフィクションの記事制作を行っている。
著書に「究極の愛について語るときに僕たちの語ること(青月社)」
フリーライターとして稼いでいく方法、教えます。(実務教育出版)」