人工知能と人間のよりよい共生のために

ABOUTこの記事をかいた人

久木田 水生

久木田 水生

2005年、京都大学大学院文学研究科で博士号(文学)を取得。2014年より名古屋大学大学院情報科学研究科准教授。2017年より名古屋大学大学院情報学研究科准教授。専門は情報の哲学、技術哲学、人文情報学など。翻訳書にアンディー・クラーク『生まれながらのサイボーグ』(共訳、春秋社、2015年)、ウェンデル・ウォラック&コリン・アレン『ロボットに倫理を教える』(共訳、名古屋大学出版会、2019年)、著書に『ロボットからの倫理学入門』(共著、名古屋大学出版会、2017年)、『人工知能と人間・社会』(共著、勁草書房、2020年)などがある。

1.はじめに

 

2019年末、東京大学に所属する人工知能研究者、大澤昇平のツイートが物議を醸した(2020年3月現在は東京大学を懲戒解雇されている)。彼はある国に言及して、その国籍を持つ人間は能力が低いので自分の経営する会社では雇わないと発言し、そのことを差別的だと批判されると、彼はこう答えた。(以下「HR Tech (AI)」とはAIなどで人材登用や人事評価を支援する技術)

既にHR Tech (AI)の領域では、採用時に人物属性を考慮した自動選考を行なっており、インプットには人種や国籍だけでなく性別や年齢が含まれる。私のことをレイシストと「なんかそれっぽい名前」でレッテル貼りしたからといって、これらの属性とパフォーマンスの因果関係が突然無に帰すわけではない。(https://twitter.com/ohsaworks/status/1197017322185052161 現在は削除されている)

 

当然、このツイートも激しい批判を浴びた。大学の所属部局も大澤昇平を非難する声明を出した。それでも彼は方々からの非難に対して攻撃的に反論し続けた。それから半月ほど後に突然、謝罪のツイートを投稿し、そこで次のように述べた。

 

一連のツイートの中で当職が言及した、特定国籍の人々の能力に関する当社の判断は、限られたデータにAIが適合しすぎた結果である「過学習」によるものです。(https://twitter.com/Ohsaworks/status/1200987889284218880)

 

要するに差別をしたのは人工知能だという弁明である。

この問題を受けてだろうか、人工知能学会 倫理委員会、日本ソフトウェア科学会 機械学習工学研究会、電子情報通信学会 情報論的学習理論と機械学習研究会の三団体が共同で「機械学習と公平性に関する声明」を公開した。その中では「機械学習は道具にすぎず人間の意思決定を補助するものである」と主張されている。要するに差別をするのは機械ではなく人間だということである。この点を強調することは重要だ。機械学習システムのアウトプットをどう解釈しどう利用するかは、それを利用する人間次第である。従って機械学習を利用する人間は機械学習の利点と弱点、その特性を理解していなければならない。

機械学習はデータから大まかなパターンを読み取るものである。データに誤りや偏りがあればそのパターンは必ずしも現実を正確に反映したものにはならない。また仮にデータが現実の忠実なサンプルだったとしても、機械学習が読み取るのが大まかなパターンである以上、そのパターンに当てはまらない例外は存在する。人間や社会のような複雑な対象の振る舞いに適用される時は特にそうである。そのような例外をどう扱うかということは機械学習が応用される場面に応じて考えなければならない。例えば裁判や人事のような場面で使うことが法的、慣習的、倫理的に妥当なのか。機械学習を利用する人間はその限界と、それが応用されている領域において尊重されている価値との適合性を理解した上で、慎重に使わなければならない。もしも機械学習を利用した結果、問題が生じたのであれば、その責は機械ではなく、機械学習を設計した人間、あるいは機械学習を利用した人間に帰せられなければならない。

しかし私は機械学習がただの「道具」に過ぎないと過度に強調することにもある種の危うさを感じる。機械学習は現在、社会の様々な場面で活用され、そして莫大な利益を生んでいる。これからもその活用はどんどん広がっていくだろう。その長期的で広範囲の影響は計り知れない。すでに気掛かりな変化は進行している。

この問題は人工知能だけではなく、技術と人間、あるいは技術と社会の関係一般に関して重要な問題を含んでいる。それは技術が単なる道具である以上に、社会や人間を良くも悪くも根底から変容させる可能性を持つものだという問題である。そこで本稿では人工知能以外の技術の例を参照しながら、技術と社会の関係についてのより一般的な議論を検討する。それから人工知能と人間の関わりについて考察し、人工知能がどのように社会を変える可能性があるかを論じる。特にここでは、人工知能が「リスク分析文化」とでも呼ぶべき風潮を蔓延させる可能性とその懸念される弊害について論じる

 

2.「銃は人を殺さない」のか?

 

全米ライフル協会の人間が好んで用いるスローガンに「銃は人を殺さない、人が人を殺す」というものがある。彼らはこれを銃の規制強化を訴える人々に対抗して掲げている。確かに使う人間が誰もいなければ銃によって殺される人もいないという意味では、この言葉は自明な真理だろう。だがアメリカでは銃によって毎年1万人以上の人間が殺されており、意図しない事故による死亡も数百件起こっている。もしも銃がこれほど簡単に手に入る状況でなければ犠牲者の多くは死ななくても済んだ、ということもまた事実だ。ほとんどの人間は素手で、あるいは鈍器や刃物でも、人間を殺すことはできない。しかし銃はどんな非力な人間でも潜在的な殺人者に変えてしまう。

アメリカでは現在およそ5000万世帯に銃が置かれており、4億丁近い銃が民間人の手にある。この状況で、すべての銃の厳重な管理が望めるはずがない。より多くの銃が家庭に置かれれば、事故だけではなく、衝動的な自殺や殺人も増える。銃を持つ人間が多ければ多いほど、銃による事故や事件(銃が存在しなければ起こらなかっただろう事故や事件)の発生件数が増える(Michael Siegel, Craig S. Ross and Charles King III, “The Relationship Between Gun Ownership and Firearm Homicide Rates in the United States, 1981-2010”,  American Journal of Public Health, Vol. 103, 2013, pp. 2098-2105 ) 。多くの人々が銃を持っていることは社会をより危険な場所にする。この意味で「銃が人を殺さない」という主張は間違っている。

これに対して銃規制の強化に反対する人々は、正当防衛のために銃を所持する権利を強調する。彼らにとっては、銃の所持率と銃による殺人事件の発生率の間に有意な相関があったとしても、そのような統計は意味をなさない。なぜなら合法的な銃の所持・使用によって未然に防がれた暴力は統計には現れないからであり、そして何より、統計上の数字がどうであろうと、銃を持って自分や家族の生命を守ることは、合衆国憲法修正第二条によって保障され誰にも奪うことのできない権利だからだ。

ともかく銃はアメリカ社会に深く根を下ろして、それが社会に大きな危害を与えているにもかかわらず、取り除かれることがない。銃を廃止しないアメリカが合理的でないと主張したいのではない。アメリカ社会における銃の例で示したかったのは、テクノロジーは人間がもつ心理や情動、社会の制度や慣習の「癖」と相まって、人間の幸福や繁栄に必ずしも結びつかないにも関わらず使われ続けることがありうる、ということである。そうして使われ続けるテクノロジーは、生活様式や社会の構造を形作る力があるのみならず、リスクについての人々の認知を方向づけ、価値観や社会の規範をも変容させる。

何もアメリカの銃の例を出すまでもない。日本における2018年の交通事故死者はおよそ3500人、負傷者は52万人である。これほど危険なテクノロジーであるにもかかわらず、テレビでは自動車が楽しく素晴らしいものとして宣伝され、自動車産業は日本の経済の重要な柱と見なされ、自動車のオーナーは自分の所有する自動車を誇らしげに見せびらかす。自動車は既に社会に受け入れられ、人々はそれに大きな価値を感じているがゆえに自動車のリスクは過少に評価されているのだろう。

 

 

3.テクノロジーと人間の共生

 

生態系の中で一つの生物は他の多くの生物と相互作用をしながら共生している。二つの生物種は捕食と被食の関係にあることもあれば、栄養や生息地をめぐる競合関係にあることもある。利益を与え合うこともあれば、一方が他方を利用することもある。捕食被食の関係であっても、捕食者は被食者の個体数を適切な範囲に保つことで利益を与えていると言える場合もある。一言で共生と言ってもその様態は様々であり、複雑だ。もちろん人間も他の様々な生物と様々な仕方で相互作用をしている。

人間と家畜の関係はどのように考えられるだろうか。一見すると人間は家畜を飼うことで利益を得ている一方、家畜は利用されているだけのように思われる。しかし個体数という観点で言えば、牛や豚は、人間を別にすれば地球上で最も繁栄している哺乳類だ。人間は家畜を捕食者から守り、家畜に餌を与え、そして家畜の繁殖を助けている。その意味では人間はこれらの動物に利益を与えている。従って人間と家畜は「相利的な関係」、すなわち互いに利益を与え合う関係に立っていると言うことが可能である。しかし牛や豚は人間に飼われることを喜んでいるかと言えば、それは別問題だろう。人間は自らの利益のために家畜に対して極めて残酷な仕打ちをしている(デビッド・A・ナイバート、『動物・人間・暴虐史——“飼い貶し”の大罪、世界紛争と資本主義』、井上太一訳、新評論、2016年)。

歴史学者のユヴァル・ノア・ハラリに従えば、同じことが農耕を始めたばかりの人間と栽培植物の関係にも言えるかもしれない。ただしここで悲惨な境遇に置かれているのは人間の方である。ハラリは『サピエンス全史』(柴田裕之訳、河出書房新社、2016年)の中で、農耕牧畜の始まりは当時の人々を必ずしも幸せにしなかった、と述べている。食料を得るための労働は狩猟採集を行なっていた時よりも過酷で、長い時間を必要とするものになった。農業によって得られる食物の種類は限られており、人々は主に穀物に依存するようになったため、栄養状態は悪化した。時折は飢饉で多くの餓死者が出た。家畜化した動物から麻疹、天然痘、マラリア、インフルエンザなどの伝染病が人間の社会にもたらされた。農業は社会の大規模化、階層化を促し、そのことは支配する人間と支配され搾取される人間を生み出した。総じて農業の始まりは人々に快よりも多くの苦痛をもたらした。それゆえ農業革命は「史上最大の詐欺」(『サピエンス全史』、上巻、p.107)であり、「私達が小麦を栽培化したのではなく、小麦が私達を家畜化したのだ」(同上、p.109)とハラリは述べる。

人間は農業を始めたことで、単位面積当たりで得られる食料が増え、より多くの人口を養うことが可能になった。このことは遺伝子の観点からは歓迎するべきことである。遺伝子はできるだけ多くの複製を次世代に残すことを唯一の目的としており、その「乗り物」である人間の幸せや苦痛には関心を持たない。

人間の遺伝子と作物の遺伝子は、協力し合って互いの複製をより効率的に増加させることができた。それは蜜蜂と植物が互いに利益を与えているのと同様である。しかし人間と作物の協働には、もう一つ重要なアクターが存在している。それは栽培植物の育て方についての知識である。蜜蜂は教えられなくても花に蜜を採りに行くようになる。花は教えられなくても蜜を作るようになる。それらはすべてそれぞれの遺伝子にコード化されて、学習をしなくても発現する特徴、振る舞いである。しかし人間は教えられなければ作物を育てるようにはならない。作物を育てるために必要なノウハウが社会の中で世代から世代へと継承させられており、そのおかげでその社会の人間は農業を継続して営むことができる。そしてまた、その知識は栽培植物の種とともに他の地域、社会へと伝播し、拡散することもある。

進化生物学者のリチャード・ドーキンスは、このように人間集団において伝播し共有される情報、アイディア、知識を「ミーム」と呼んだ(リチャード・ドーキンス、『利己的な遺伝子<増補新装版>』、日高敏隆、岸由二、羽田節子、垂水雄二訳、紀伊国屋書店、2006年)。テクノロジー、科学、宗教、芸術、生活様式、習慣、価値観などなどの文化的存在物は全てミーム、あるいはミームに基づいて作られたものである。ドーキンスはミームも遺伝子と同様の、複製、継承、変異、選択の過程を経て進化すると考える。遺伝子がDNAという分子に基盤を持つのに対して、ミームは言葉などを媒体として伝わる。しかしそのプロセスの根底にある原理は等しい。

通常、ミームは人間の役に立つことで選択され、それゆえ生き残る。しかし中には必ずしも人間の役に立たない(あるいは益よりも害の方が大きい)にもかかわらず、選択されて生き残っているミームもある。そのようなミームは人間の生理的あるいは心理的な癖、脆弱性を巧みに利用し、そこに付け込んでいる。例えば煙草、酒、麻薬などは人間の生理に直接的に作用し、人間に強い快楽の体験を与える。しかしその快楽は大きな代償を伴い、そして私たちはそのことを知っている。にもかかわらず人間はその快楽を手放すことができず、それゆえにこれらの製品を生み出すためのミームが生き残っている。

小麦が人口を増やしたいという人間の願望に乗じて、巧みに人間を利用してきたように、ある種のテクノロジーは人間の心理や情動、あるいは社会的構造の脆弱性に付け込んで人間の社会に蔓延している。

 

4.リスク分析文化

 

以上において、テクノロジーが、人間の心理や生理の癖、「脆弱性」に付け込むことによって、必ずしも人間の幸福や繁栄に貢献することなしに蔓延しうること、そしてテクノロジーは社会の在り方や人間の考え方や価値観さえも変化させる可能性があることを論じた。本節では人工知能について、同じことが起こる可能性——あるいはそれが起こりつつある兆候——を検討する。

一言で「人工知能」と言っても、それが指すものは多様である。そこで本稿ではビッグデータに基づいて機械学習を行い、人間の属性や行動を推測・予測する人工知能に焦点を当てようと思う。以下で人工知能という場合には基本的にはこのようなシステムを指すことにする。

現在の人工知能について考える際には、私たちが置かれている情報環境と込みで考えなければならない。私たちは現在、常にインターネットに接続されたデバイスを持ち歩き、その上で機能するアプリケーションを様々な場面で使っている。それらのデータはインターネットを介してアプリやデバイスを作った企業によって収集されている。いつどこで何を買ったか、どこからどこに移動したか、どんな写真を撮り、どんなテキストをソーシャル・メディアに投稿したか、何に対して「いいね!」という評価を付けたか、などなど。

社会学者のデイヴィッド・ライアンは、人間の行動データが様々な方法で収集され、さらには人々が進んで自分や周りの人間の情報を提供する風潮を「監視文化」と呼んでいる(デイヴィッド・ライアン、『監視文化の誕生――社会に監視される時代から、ひとびとが進んで監視する時代へ』、田畑暁生訳、青土社、2019年)。人工知能はこの風潮をさらに進めて、「リスク分析文化」と呼ぶべきものを促進する。なぜなら人工知能は収集されたデータに基づいて予測を行い、より安全な行為、より少ない損害とより多くの利益が見込める行為を選択するための材料を提供するからだ。

意思決定において、ある選択をした時にどのような帰結がどのくらいの確率で起こり、そのことがどのような利益と損害を引き起こすかを見積もることを「確率論的リスク分析」あるいは単に「リスク分析」という。リスク分析においては、ある事象が生じる確率を推定することが必要である。しかし人間のような複雑で個体差の大きい対象に関して、その振る舞いを正確に予想することは難しい。ビッグデータと人工知能はこの状況を一変させた。巨大IT企業は収集した膨大なデータから機械学習を用いて、従来よりはるかに正確に、ユーザーの属性や選好、将来の行動についての予測モデルを作ることができるようになった。このことは企業に大きな利益をもたらす。いつどこでどのような需要が生じるかを事前に知ることができれば、企業はそれだけ効率的なアクションを起こすことができる。収集できるデータの種類と量が増えれば、それだけ予測できることも増え、予測の精度も高まる。そのため現在、Google、Amazon、Facebookなどの巨大IT企業はユーザーのデータを収集し、そこからより精度の高い予測モデルを立てることに熱心である。

このような情報に興味を持つのはインターネット上でビジネスを行なうIT企業だけではない。保険会社は契約者の健康上の見通しを、警察は市民が犯罪(再犯)を行なう確率を、政治家は誰が誰に投票する見込みが高いかを、入国管理局は誰がテロリスト予備軍であるかを知りたい。どの企業も誰が良い社員になりそうか、あるいは誰が内定を辞退する可能性が高いかを知りたい。観光地のレストランは明日どれだけの客が見込めるかを知りたい。どんな人間でも、自分と相性が良いのが誰か、信頼できる仲間や配偶者になる可能性が高いのは誰かを知りたい。

他者とは多義的な存在である。人間は社会的な生物であって、他者との協力なしで生きていくことはほとんどの人間にとって不可能だろう。それゆえに社会的に孤立した状況に置かれることは不安を引き起こす一方、他者との良好な関係は安心感、満足感を与える。しかしながら他者は常に協力者であるとは限らない。それは限られた資源やニッチをめぐって争う競合相手かもしれないし、こちらの資源やニッチを強奪、搾取することを狙っているのかもしれない。あるいは協力する意思があっても、求められる能力を持たず、結果的に協力が達成されないかもしれない。それゆえに私たちは未知の他者と相対する時、様々な情報を手掛かりにして、相手が信頼できる人間かどうかを見極めようとする。それは決して楽なタスクではない。

もしあらかじめ他者が自分にとって脅威となるのかどうかが分かれば、これほど都合の良いことは無い。私たちは安全に他者と良好な関係を築くことができる。それを可能にする(ように思える)のがビッグデータと人工知能である。このテクノロジーによって私たちは今までよりはるかに正確に、特定の他者が自分たちにどれだけの利益あるいは損害を与える可能性があるかを、前もって見積もることができるようになった。入国させてから、釈放してから、雇用してから、結婚してから、「こんなはずじゃなかった」と後悔しなくても済む。私たちは人間関係の構築において、よりリスクの少ない選択をすることができる。

将来の不確実性は人間にとって大きな脅威である。それゆえに人間の心理は不確実性を減らしてくれる情報を求めるようにできている。他者という存在のアンビバレンス、そして将来のリスクについての情報を切望する人間心理にとって、人工知能は非常に魅力的なテクノロジーだ。それは「誰と付き合うべきであり、誰と付き合うべきでないか」という、人間にとって重大で避けることのできない難問に対して簡単な「解」を与えてくれるように思えるからだ。その魅力が非常に大きいために、私たちは「人工知能が正解を教えてくれます」という宣伝文句をついつい信じたくなってしまう。

しかし人工知能は本当のところは解ではない。一つには人工知能の判断が、それを売り込む側の宣伝文句とは反対に、客観的でも公平でもないということである。人工知能の予測は、そのアルゴリズムを作った人間の先入観や、学習の材料になったデータの偏りが反映される。そしてその結果としてビッグデータと人工知能は、それを使う人々が気づかない間に、社会に既に存在する不公平な構造を保存、強化してしまうという効果を持つ(キャシー・オニール、『あなたを支配し、社会を破壊する、AI・ビックデータの罠』、久保尚子訳、インターシフト、2018年)。

人工知能が解にはならないもう一つの理由は、人工知能を使ってリスク評価をすることが、ひょっとしたら成立するかもしれない良好な人間関係を不可能にしてしまうということである。次節でこの点について述べよう。

 

5.リスク分析の落とし穴

 

行動経済学などの実験で用いられる「信頼ゲーム」というゲームがある。複数のプレイヤーがはじめに一定の金額を渡される。そこからランダムに選ばれたプレーヤー(甲としよう。)が,やはりランダムに選ばれた別なプレーヤー(乙としよう。)に手持ちの金額からいくらか「投資」するように指示される(投資しなくてもよい)。甲は投資額を決定し、乙は甲が投資した金額の3倍を手に入れる。乙は甲に対していくらかの「返礼」をすることができる(しなくてもよい)。甲は乙が返礼をしないだろうと思えば投資をしないし、いくらか返礼をしてくれるだろうと期待すれば投資をする。従って甲の投資は乙に対する信頼の度合いを表している。

さてこのゲームにおいては各プレイヤーはどのように行動するのが合理的だろうか。まず乙の立場から考えてみよう。純粋に自己の利益を考えた場合、乙は投資されても一切、返礼をしないのが合理的である。甲の立場ではどうだろうか。もしも乙が純粋に利己的に振る舞い、返礼を返さないだろうと考えているなら、一切、投資をしないのが合理的である。従ってこのゲームの合理的な解は、甲は投資せず、両者とも最初に持っていた金額をそのまま手に入れる、という結果であるはずだ。

しかしながら実際にこのゲームに参加した人間のほとんどはそのようには行動しない。甲の立場になった人のほとんどが何らかの金額を乙に投資し、乙の立場になった人間のほとんどが何らかの金額を乙に返礼として提供する。そして結果として投資が行われないときより両者ともに得をすることになる。

神経経済学という研究手法を提唱しているポール・J・ザックは「信頼ゲーム」を用いた興味深い実験を行っている(ポール・J・ザック、『経済は競争では繁栄しない――信頼ホルモン「オキシトシン」が解き明かす愛と共感の神経経済学』、柴田裕之訳、ダイヤモンド社、2013年)。ザックは乙の側のプレイヤーが投資を受けた時、その場で乙の血液を採取して調べた。すると多くの場合、血中のオキシトシンの濃度が上昇していること、そして血中オキシトシン濃度の上昇と返礼する意思の間に相関があることなどが分かった。また条件を変えて甲の投資額が本人の意思ではなくランダムに決定される、そしてそのことを乙が知っている状況で実験を行ったところ、投資を受け取った時の乙の血中オキシトシン濃度は上昇しなかった。

オキシトシンは共感や信頼、寛容さなどと関連していると考えられているホルモンである。ザックの実験が示唆することは、私たちは他者から信頼をされていると思うと、その他者に対して共感を抱くようにできているということである。社会的生物である人間にとって、他者と協力関係を構築することは不可欠の課題である。そのため人間の心理や生理には信頼関係の構築を可能にする仕組みが備わっている。個人差、文化差もあり、その時々の状況や気分に左右されるものの、基本的には人間の心はデフォルトで他者を信頼するように、そして他者からの信頼に応えて誠実に行動するようにできている。他者への信頼は人間の本能のようなものだ。

しかしこのような信頼と協力のメカニズムはいつでも誰にでも発揮されるわけではない。人間は常に他者に協力をしようとしているわけではなく、ともすれば相手の労力に乗じて、少ないコストで多くの利益を得たいという欲求も持っている。もちろんこのような欲求もまた、個人差、文化差、そして時々の状況や気分に左右される。しかし確かなことは、人間は相手を個人的に知れば知るほど、裏切ったり傷つけたり搾取したりすることが困難になるということである。面と向かっての会話、握手などの社交的な身体的触れ合い、ともに行なう音楽活動やスポーツ、ソーシャルメディアでの良好なやり取りなどが人と人の間の信頼と協力関係の構築に役立つ。

逆にこのような直接的な接触が無い状態では、私たちの信頼メカニズムは発動しにくい。その場合は私たちは様々なデータをもとに相手が信頼できるかどうかを判断しようとするだろう。しかしそのようなデータに基づく冷静な判断は信頼関係の構築にとって不都合かもしれない。近年の心理学における研究では、人間を利他的な行動、協力的な行動に導くのは直観的な、感情に基づく意思決定であり、熟考の上での意思決定は利己的になる傾向がある、ということが示唆されている(Chen-Bo Zhong, “The ethical dangers of deliberative decision making”, Administrative Science Quarterly, Vol. 56, No. 1, 2011, pp.1-25)。

つまり他者との社会的関係を構築する際に、相手と直接的な接触をせずデータに基づいてリスク分析をすることから始めることは、本当であれば築けたかもしれない良好な信頼関係、協力関係を不可能にすることがありうる、ということである。人間は他者から信頼や好意を寄せられれば、相手にも信頼や好意を返して、相手の信頼に答えようと努力する。そしてしばしばそのことがその人間を本当に信頼できる人間にする。このように信頼や期待というのは自己成就的予言のような効果を持つ。私たちは人間関係を構築する際に、一見「非合理的」な(確たる根拠のない)直感に従った「跳躍」を行なうのだが、しかし実際にはそれこそが信頼関係の構築を可能にする鍵だということができる。ある人間が信頼できるかどうかは、その人物のある時点における客観的なデータから測れるものではない。それは個人的な関係の歴史の中で動的に発展していくものである。

わたしはこのことが、人工知能が社会に蔓延することの重大な問題の一つであると考えている。上述したように人工知能は人間を対象としたリスク分析のための画期的なツールである。現代の社会に生きる人間は、様々なデバイスを通じて取得されたデータとそこから推測される様々な属性の集まりによって分類され、リスク分析の対象とされている。今後ますますこの風潮は高まるだろう。人工知能によるリスク分析は短期的なソリューションとしては「最適」である――すなわち最もリスクの少ない意思決定を可能にする――ように思われるかもしれない(人工知能による差別の問題は別にして)。そのことはしかし長期的には社会にとって大きなコストとなる可能性がある。というのもそれは人々の間に構築することが可能だったかもしれない豊かな信頼や協力関係を阻害し、人々の能力や人格の発展の機会を奪うことになるかもしれないからだ。しかしながらこのコストははっきりと目に見えるものではない。脅威となる他者を誤って受け入れてしまうことのリスクを低減させることができるという明確なメリットを目の前にぶら下げられたら、人々はそこに飛びつくだろう。

 

6.おわりに

 

本稿では、人工知能の「リスク分析」ツールとしての特徴に焦点を当て、それが社会にもたらす負の影響について考察した。人間同士の信頼や協力関係の構築の際には、しばしばある種の直感的な「跳躍」、すなわち確たる根拠のない信頼や期待が必要である。それは自己成就的予言のように働いて、実際に信頼関係を構築するための基盤となる。一方で、人工知能によるリスク分析はそのような根拠のない信頼や期待を持つことを困難にする。

人工知能は短期的には、個々の状況において「最適」なソリューションを提供するように思われるかもしれないが、そのことは長期的な社会的コストを伴う。このコストははっきりと目に見えるものではないかもしれないが、かなり重大なのではないかと私は危惧している。

ABOUTこの記事をかいた人

久木田 水生

久木田 水生

2005年、京都大学大学院文学研究科で博士号(文学)を取得。2014年より名古屋大学大学院情報科学研究科准教授。2017年より名古屋大学大学院情報学研究科准教授。専門は情報の哲学、技術哲学、人文情報学など。翻訳書にアンディー・クラーク『生まれながらのサイボーグ』(共訳、春秋社、2015年)、ウェンデル・ウォラック&コリン・アレン『ロボットに倫理を教える』(共訳、名古屋大学出版会、2019年)、著書に『ロボットからの倫理学入門』(共著、名古屋大学出版会、2017年)、『人工知能と人間・社会』(共著、勁草書房、2020年)などがある。