AI・ロボット社会とAI・ロボット企業の倫理

ABOUTこの記事をかいた人

岡本 慎平

岡本 慎平

広島大学大学院文学研究科助教
1986年生まれ。広島大学大学院文学研究科博士課程後期修了、博士(文学)
著訳書として D・アーミテイジ『思想のグローバルヒストリー』(共訳、法政大学出版局、2015年)、『少子超高齢者会の「幸福」と「正義」』(共著、日本看護協会出版会、2016年)他。

1. はじめに

 

前回の記事では、AIに倫理を実装するための試みをいくつか紹介した。

こうした問題圏が、倫理学理論とAIが交差する最先端の領域の一つであることは理解いただけたことだろう。しかしロボット倫理学において、開発される「AIの側の倫理」以上に喫緊かつ重要な問題がある。それはもちろんAIを用いる「人間の側の倫理」である。

その大半が未だ構想段階にとどまる「道徳的なAI」とは異なり、AIを実際に活用したビジネスは既に広範囲で実践されており、そこでは従来のわれわれの倫理観だけでは対応が難しい様々な問題が生じている。そして発生した――あるいは懸念される――新たな問題に応じて、法的規制や倫理綱領の策定などの対策が世界各地で断続的におこなわれている。

しかし、そうした規制は十全であるとは言い難い状況にある。テクノロジーの進歩に関しては予測を立てることが難しく、そのため、どうしても対応が事後的にならざるをえないからだ。

本稿では、現時点においてロボットやAIの利用に関して懸念されている問題をいくつか紹介していきたい。

ただし、それでも懸念されている事柄は非常に多岐にわたるため、本稿ではそのなかでも論点を三つに絞りたい。ビッグデータに伴うプライバシーと自己決定の問題、バイアスと公平性の問題、そしてロボットの社会的配備にともなう問題を、それぞれ順に扱うことにしよう。

 

2. ビッグデータとプライバシー

 

第一の問題は、AIによるデータの収集とその活用に関するものである。

現在われわれがインターネットでSNSや検索エンジンを利用するとき、基本的にそれらのサービスは無料で利用できているように思われるかもしれない。しかし厳密にいえば「無料」ではあっても「無償」ではない。

われわれはそれらのサービスを利用する際、実際には対価を支払っている。つまり、われわれはSNSへの投稿内容や検索ワードという形で、様々なデータをその企業に提供しているのである。

そして現代のAIの大幅な進歩は、基本的にこれらのオンライン上における人々のやりとりから収集された膨大なデータの集合、所謂「ビッグデータ」を統計的に分析する機械学習に負っている。

こうしたビッグデータの収集と活用に伴う倫理的懸念は、ここ十年ほどの情報倫理学における一大トピックだった。というのも、ビッグデータ以前の時代に念頭に置かれていた「プライバシーの権利」が、この状況において大幅な改訂を余儀なくされるからである。

「プライバシーの権利」は実際には多種多様な権利の集合だが、その基本的なアイディアは「自分自身に関する情報を自分でコントロールする権利」である。例えば住所氏名や商品の購入履歴のような個人情報や、他人に知られたくない秘密など、これらの情報を誰に伝えるか、そして伝える場合にはどのような目的での利用を許諾するかを、自己決定できることが望ましい情報コントロールのあり方だとされてきた。

ところが、スマートフォンなどの普及に伴い、人々の活動の大半がデジタル情報として通信されるこの時代には、既に「自己情報のコントロール」という意味でのプライバシーは現状に即さないものになっている。

というのも、われわれの社会的活動のほぼすべてがインターネットを介しており、もちろんわれわれの行動は位置情報や検索履歴として収集され、結果として実際にわれわれはその情報を自分でコントロールできているとは言い難くなっているからだ。

それらのうちどの情報がどの程度に収集され、そして何のために活用されているのかを把握できているユーザーは、まったくいないとは言わないが極めて少ないだろう。加えてGoogleやAppleやAmazonなど、もはや社会的インフラと言っても過言ではないこうした企業への情報提供を拒絶することは、日常生活をおくるうえでほとんど不可能に近い。

もちろんビッグデータの倫理問題は、「プライバシー」の意味や社会におけるその位置づけの再考を促すとはいえ、これ自体ではそれほど重要な倫理問題だとは思われない。実際、収集されたデータが容易に「個人」へと紐付けされないようにするため、データの匿名化やセキュリティ保護は入念におこなわれている。

法規制についても、個人情報保護とビッグデータ活用のどちらを重視するのかについては国によって差があるとしても、データの活用の実情にあわせて規制の修正は繰り返されている。つまり、ビッグデータとプライバシーに関する倫理的懸念は既に問題化され、ある程度対応も進んでいるということだ。

なによりオンラインでの様々な活動の利点を考えると、われわれのほとんどは、個人情報のコントロールを死守するどころかむしろ喜んで対価として差し出すことだろう。少なくとも私自身はそうである。

私見では、真の問題はその先にある。

企業はデータを単に収集するだけでなく、それを様々なアルゴリズムを駆使して加工し、商品価値のある情報を作り出す。例えばオンライン通販サイトは、特定の個人の購入履歴を参照し、類似する傾向をもった顧客のデータと比較することで、その個人が好んで購入する可能性が高い商品を推奨する。

検索エンジンは、これまでの検索履歴を参照することで、最も求めている情報に近いウェブサイトを優先的に検索結果に表示する。もちろんこれらはたいへん便利なサービスだが、同じ技術が悪用されれば非常に恐ろしいことになるだろう。なにせターゲッティングのためのAIは、われわれがどんなものを好み、どんなものを避けようとする傾向をもつのかをわれわれ自身以上に知っているのだ。

例えば、AIによって詐欺に引っかかりやすい人を探し出すことができれば、その人に向けてあえて悪質な商品を勧めることができてしまう。あるいは政治家がAIを利用し、有権者に向けて特定の投票行動を促すように誘導する広告を打つこともありえない話ではない。

もちろんこれらは極端な架空の例に過ぎないが、われわれ自身は自発的に行動しているつもりになっていても、実際には誰かに誘導されているということは既に十分ありえることである。こうした誘導は、直接的に人々の行動をコントロールする「強制」ではなく、人々の周囲の環境を操作することで彼らが特定の行動を「自発的に」おこなうように仕向ける間接的な仕方で――行動経済学の言葉で言えば「ナッジ」として――進行していくため、自己決定と誘導の結果の境界線は融解していく。

いずれにせよ、「自分の行動を自分の意思でコントロールする自律的な個人」を理想とする近代的個人モデルには限界が来ているといえるかもしれない。

さらに、ビッグデータの悪用がもっと大きな社会的変化に繋がる可能性もある。

例えば画像や音声をきわめて自然に加工する「ディープフェイク」の技術がより巧妙になれば、捏造と本物の質的な違いが消え去り、これまで映像や音声記録が持っていた証拠としての価値が大きく損なわれる。

現在、映像や音声記録は人為的な加工が困難な証拠であり、多くの事件で真実を映したものとして扱われている。しかし、ディープフェイクにより当人が喋っていない発言を語らせたり、本当はその場にいなかった人物を映像に合成したりすることが不可能でなくなるなら、これらの映像や音声はほとんど証拠能力を持たなくなるだろう。

たとえ捏造されたスキャンダルであっても、事の真偽よりも話題性や「面白さ」により情報が拡散するSNSでは致命的な炎上となりうる。今は単なるジョークアプリにとどまっているこれらの技術が、冗談では済まなくなる日が来ないことを祈りたい。

 

3. バイアスと公平性

 

 

第二の問題は、AIのアルゴリズムに付随するバイアスとその有害な影響についてのものだ。

AIは、人々のオンラインの活動から収集されたデータを用いて学習することで、それらのデータから一定のパターンを抽出する。しかし、AIは抽出されたパターンが適切かどうかを判断しない。あくまで、入力されたデータから発見される限りでのパターンを出力するだけである。そのため、学習の元になるデータに不適切なバイアスがかかっていれば、出力される結果も当然バイアスによって歪んだものとなる。あるいは、データそのものが適切なものであっても、アルゴリズムの設計に問題があればバイアスのかかった結果は出てくる。

例えば、かつてAmazonの人事部門で用いられていたAIに発覚した欠陥がその最も有名な事例である。

同社では、過去に採用された人材の履歴書のデータを参照して志望者の履歴書を審査するAIを運用することで、面接担当者の好みに左右されない「客観的」な評価に基づいて最適な人材を見つけ出そうとしていた。

ところが、それまでに採用された技術者の多くが男性であったというバイアスがAIに反映されてしまい、その結果、いつのまにか志望者が「女性」であるというだけで評価を下げるという性差別的なアルゴリズムが出来上がってしまっていたという。

他にも警察が犯罪の発生件数を元にしたアルゴリズムにより特定地域における捜査や巡回の回数を増やした結果、その地域における犯罪検挙数が増加し、それを元にしてさらに重点的な捜査が行われる……という連鎖によって差別的な対応に繋がるという例もある。

これは、例えばある地域における黒人は犯罪をおこなう可能性が高いという見込みで黒人を重点的に捜査すると、当然ながらその地域における黒人の検挙数が増加するという人種差別と何も変わらない。もちろんAmazonの人事の場合でも黒人への捜査の場合でも、元になったデータ自体は正しいのだろう。

だが、そのようなアルゴリズムから導出された分析結果は、結局のところ偏見を強化し貧困を固定化してしまうことになる。

さらに深層学習のプロセスが非常に複雑であるため、専門家ですら、なぜAIがそのような結果を出力したのか理解できないことがあるという。理由が分からないにもかかわらず、「AIがそのような予測を立てた」というだけでその予測を信頼することは、上記のような差別的な対応を「客観的事実」という美名の下に正当化することになりかねない。

このように、AIの「ブラックボックス化」ないし「不透明化」に伴う弊害は、AIの悪用と並んで重大な倫理的懸念を生んでいる。AIの立てた予測を鵜呑みにするのではなく、AIが適切な予測を立てているかどうかを検証する仕組みがなければこの問題を解決することはできない。

そのため、現在ではそのようなブラックボックス化を回避し、システム全体のプロセスを検証できるような仕組みが「透明なAI」や「説明可能なAI」と呼ばれ、その研究が進められている。しかし、AIは人間では困難な推論を人間に代わっておこなうために作られるにもかかわらず、その結果をわざわざ人間が再度検査しなければならないのだとすれば本末転倒である。

だからこそ、AI自身が差別と公平の違いを理解し、それに配慮して結果を調整する仕組み――すなわち前回の記事で論じた「道徳的な判断をおこなうAI」が要請される。道徳的なAIは単なる哲学的に興味深い思考実験ではなく、その背景にはこのような実務的な問題が控えていると考えるべきだろう。

もちろん、ある出力が差別的であるのか公平であるのかは、文脈や社会的状況によって大きく左右される問題である。そのため、その区別や道徳的配慮をアルゴリズムへと落とし込むには、そもそもどのような変数を考慮に含めなければならないのかを考えるところから始めなければならず、極めて困難な道であることは間違いないだろう。

 

4. AI・ロボットの労働

 

第三の問題は、AIや、身体を持ったロボット機器の活用に伴って生じる問題である。

例えば高齢化社会の進行により、今後高齢者の介護をおこなうための人材が大幅に不足することはほぼ確実となっている。そのため、現在は人間がおこなっている介護業務の多くの部分を、ロボット機器で代替する試みが始まっている。

もちろんロボットによる介護であっても、それが実際に被介護者のクオリティ・オブ・ライフ(QOL)を向上させるのであれば、非常にありがたい技術である。しかし、こうした試みが進められる一方で、介護のような倫理的配慮や人間的交流が求められる仕事を機械によっておこなう風潮が強まれば、結果的に高齢者の世話をロボット任せにするだけになってしまう、という批判も根強い。

つまり、介護には人間にしかできない業務が多数含まれているのだから、それをロボットで代替すると結果として高齢者へのケアが欠如した非人間的な扱いに繋がってしまう、という批判である。

もちろん、介護におけるロボット機器の使用を全面的に拒絶したところで、対案がなければロボット任せの介護よりもいっそう劣悪な状況が訪れるだけである。また、現在開発されている介護用のロボット機器は、「人間にしかできない業務」をロボット任せにするようなものではない。

例えばコミュニケーションロボットは、あくまで人間同士のコミュニケーションを促進するための媒介として期待されているのであり、人間の代わりを務めることが目指されているわけではない。移動・移乗や入浴などの力仕事をおこなうロボットや、高齢者の徘徊を察知するための見守りロボットなど、これらは介護士が「人間がおこなうべき業務」に注力できるように、彼らをサポートする重要な機器として位置づけるべきものだろう。そのため、現状では先述のような懸念は杞憂であると言っていいだろうと考えている。

しかし、それがいつまでも杞憂のままであるとは言い切れない。

介護に限らず、現時点ですら、かつて「人間にしかできない」と思われていた仕事の多くがAIやロボットによって代替されつつある。それを考えると、今現在「人間にしかできない」と思われている仕事が未来永劫そうであると断言することはできないだろうし、AIの活用によって消滅するだろう職業のリストについては様々な予測が立てられている。

大まかに言えば、現場での作業が必要な肉体労働をロボットに代替させるのはコストの面で考えにくいものの(人間のように行動できるロボットを開発し配備するぐらいならそもそも人間を雇ったほうが早い)、AIによってホワイトカラーの事務作業のかなりの部分が自動化されるのではないかと予想されている。そしてこの予想から、いかにAIやロボットが素晴らしい成果を上げ、その内容が倫理的にも申し分ないものだとしても、労働者の失業や富の分配の偏りなどを誘発する可能性は多分に残されている。こうした懸念もまた、AIやロボットの活用によって生じる倫理問題の一つだと言える。

ただ、失業対策を理由にしてAIの開発を差し止めたり、配備を禁止したりすることができるとは思えないし、それが倫理的に適切な配慮であるとも思わない。社会の変化そのものに逆行しようとしても、それにかかる労力に比して成功する見込みが高いとは思えないからだ。

むしろ私としては、産業構造の変化そのものを押し留めようとするのではなく、なるべくその変化をゆるやかに、個々人の負担を軽減しながら進めるにはどのような政策が必要なのかを考えるべきだと思っている。だからこそこの問題は、企業の倫理というよりもむしろもっと広範囲の社会の問題として捉えるべきものだろう。

 

5. さらなる検討のために

 

ここまでロボットやAIを使っていく際に、人間が考えていかなければならない倫理問題をいくつか検討した。

ただし最初に断ったとおり、本稿の内容は網羅的ではない。さらなる事例や論点を含む資料として、本稿の執筆においても大いに参考になった二つを紹介しておきたい。

一つは、アルゴリズムの乱用によって実際におこった混乱を論じたことでベストセラーとなった、キャシー・オニールの『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』である。彼女は本書でAIの利用がアメリカ社会で実際にさまざまな被害を引き起こしていることを例示して、有害なアルゴリズムを「数学破壊兵器(Weapon of Math Destruction)」と名付けている(これは同書の英語原題でもある)。これはもちろん核兵器のような「大量破壊兵器(Weapon of “Mass” Destruction)」とかけたダジャレだが、AIの潜在的なリスクが核兵器に匹敵するものであることを示唆している。

もう一つは、大手オンライン哲学辞典である『スタンフォード哲学辞典(Stanford Encyclopedia of Philosophy)』にごく最近立てられた項目(2020年4月30日)の「人工知能とロボット工学の倫理」である。AIやロボットを運用する側の倫理についても、AIに実装する倫理についても、様々な研究が整理されており非常に有益である。

 

 


参考文献

オニール、キャシー(久保尚子訳)『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』、インターシフト、2018年

Müller, Vincent C. “Ethics of Artificial Intelligence and Robotics” in Stanford Encyclopedia of Philosophy. https://plato.stanford.edu/entries/ethics-ai/

ABOUTこの記事をかいた人

岡本 慎平

岡本 慎平

広島大学大学院文学研究科助教
1986年生まれ。広島大学大学院文学研究科博士課程後期修了、博士(文学)
著訳書として D・アーミテイジ『思想のグローバルヒストリー』(共訳、法政大学出版局、2015年)、『少子超高齢者会の「幸福」と「正義」』(共著、日本看護協会出版会、2016年)他。