ロボットの「倫理」とは?

人の手を離れて自律的に動作するロボットが我々の社会の中でさまざまな役割を担うようになったなら、そうしたロボットにも「倫理」が実装されるべきだとする考えは、アイザック・アシモフのロボット三原則に言及するまでもなく古くから存在する。ロボットが人間と同等の「行為者」とみなされるか否かにかかわらず、人々の福利がロボットの動作の影響を受けることになるなら、ロボットの動作には何らかの安全策が必要だからだ。

そこまではよい。問題は、ロボットに実装されるべき「倫理」とはいったいいかなるものであり、そしてどうやってそれを実装すればよいのか、という点である。これに関して専門家の意見は一致していると言い難い状況にある。そこでこの小論では、この問題に関する二冊の成書における議論を、批判的に検討してみようと思う。

一冊目は、ウェンデル・ウォラックとコリン・アレンによるMoral Machines: Teaching Robots Right from Wrong. Oxford University Press 2009(岡本慎平・久木田水生訳『ロボットに倫理を教える:モラル・マシーン』名古屋大学出版会、2019年)だ。同書の原書の刊行は今から約十年前になるが、倫理学・工学の両面からこの問いに対するアプローチを集約したものとして現在でも貴重な一冊である。

 

ロボットに倫理を教える

倫理学のなかでも「規範倫理学」と呼ばれる分野において、我々の行動の倫理的正当化がどのようになされるべきかという問題には様々な答え方が提唱されてきた。例えば、行為の是非はその結果によって判定すべきだとする功利主義、動機や普遍化可能性によるべきだとするカント的義務論、そして個々の行為ではなく行為者の性格や人柄を重視するべきだとするアリストテレス的徳倫理。他にも様々な理論が、行為の正当化根拠について提唱されている。

これらの各理論を人工知能に実装しようとする試みは1990年代末より様々な研究者によって散発的におこなわれてきた。しかし「倫理学理論をどのように実装するべきか」という問いに入る前に、そもそも「どの理論を採用すべきか」という問題に決着がつかないままであった。人間が採用すべき倫理学理論に関して意見の一致が見られない以上、ましてや人工知能が採用すべき倫理学理論に意見の一致が見られると期待するべくもない。

この問いに対するウォラックとアレンの答えは次のようなものだ。

 

特定の価値観、行動、ライフスタイルにまつわる道徳性に関する観点の幅広さを考えると、おそらく、誰の道徳が、あるいはどんな道徳がAIに実装されるべきかという問題に単一の答えは存在しない。人々がそれぞれ異なった道徳的基準をもっているように、すべての計算的システムが同じ行動規範に従わなければならない理由はない。(邦訳107頁)

 

その上で彼らが選んだアプローチは、「どの理論がもっとも望ましいか?」という倫理学者の間でほとんど意見の一致が見られない視点ではなく、「どの倫理学理論がもっともAIに実装しやすいか」というもっと限定的な視点をとることだった。言い換えれば、難問を解決するのではなく、回避するのである。

こうした観点からの倫理学理論が評価された結果、ウォラックとアレンはアリストテレス的徳倫理が最も人工知能に適した倫理学理論とみなす。しかし彼らが各理論を比較する際に採ったアプローチは、同書刊行直後より様々な批判を受けることになった。たとえばRyan Tonkensは、ウォラックらが実装するべき理論を選定した際のアプローチは「工学的な実装の容易さ」しか考えておらず、それでは本当に望ましい人工知能の倫理には到達し得ないと論じている。とはいえウォラックらの研究以降、問題の回避ではなく解決を目指すにはどうすればよいのかを直接扱った研究は依然として見られないままだった。

 

ロボット倫理のアルゴリズム

そんな中、この困難な道をあえて進んだ注目すべき研究書が刊行された。それが、Derek LebenのEthics for Robots: How to Design a Moral Algorism, Palgrave, 2018.である。

同書の内容は大きく三つに分かれている。まず、様々な倫理学理論を比較考量するための下準備がなされ(1章~2章)、様々な理論の中からロールズ的契約主義が選ばれ、AIへの実装方法が考察される(3~5章)。ロールズ的契約主義とは、アメリカの哲学者ジョン・ロールズがその主著『正義論』で展開した倫理学理論であり、要約すれば、「無知のヴェール」(各人が自分の社会的地位や財産などを一切忘却した状態)を被せられた人々の間で互いを規制するルールを決める話し合いがおこなわれたと想定し、合理的熟慮によって彼らが合意に至るであろう原則のみを妥当なものとして受け入れるべきだとする考えである。そしてこの契約主義に基づいたアルゴリズムを用いて、様々な応用が検討される(6~8章)。以下では概略ながらその内容を紹介してみよう。

 

倫理アルゴリズムの基準設定

まず第一章と第二章では、様々な倫理学理論の中から人工知能に実装すべき最善の理論を決定するための基準設定がおこなわれる。ここでのLebenの基本的発想は、次の二点に集約される。

 

(1)我々の道徳判断は、基礎的な道徳的概念と複数のルールの組み合わせから生成されるものであり、自然言語の仕組みに似た「道徳文法(moral grammar)」が存在する。

(2)道徳文法に含まれるルールは、ゲーム理論において自己利益を求めるプレイヤーが「協力行動」を産み出す戦略に類似する。

 

それぞれ順番に確認しよう。

我々は「行為者」、「侵害」、「同意」といった基礎的概念と、様々なルールを組み合わせて道徳に関する判断をおこなっている。Lebenはこれをロールズに倣って「道徳文法」と呼ぶ。そしてLebenはこうした道徳判断を、人間の生物学的進化の中で互恵的利他主義をおこなうために出来上がったメカニズムとみなすことで、二つ目の議論へと移行する。

我々の道徳文法は「自己利益を求める行為者同士の相互作用が、どちらのプレイヤーも合理的に自己利益をもとめて行為しても、結果として各プレイヤー全体の改善に繋がる結果に導かれる」状態を目指す合理的意思決定によって説明される。

例えば、合理的意思決定理論で広く用いられる「囚人のジレンマ」と呼ばれるゲームがある。これは、警察に勾留されている二人の共犯者のそれぞれに対して「パートナーに関する有罪の証拠を提出すれば刑期を引き下げる」という取引がもちかけられるという状況で、合理的な意思決定がどのようになされるかを考察するものだ。

双方が沈黙を守れば互いに短い刑期で済むものの、双方がパートナーを警察に売り渡せば二人とも最長の懲役をうけるはめになる。かといって自分がパートナーを信頼しても相手が自分を裏切れば、損をするのは自分だけである。双方の沈黙という選択肢が合理的に選ばれるためにはどうすればよいのだろうか。

 

この状況を解決するための有望な戦略として「しっぺ返し」という戦略が知られている。これは反復型の囚人のジレンマゲームにおいて、初手は相手を信頼して沈黙を守るものの、最初のラウンドで相手が裏切ったなら次のラウンドで自分も裏切り、相手が沈黙を守ったなら次のラウンドで自分も沈黙を守る、という形で「前のラウンドで相手がやったことを自分もやり返す」という戦略を指す。

この戦略により、長期的に考えて互いに相手を信頼し合った方が得策であるという結論が導かれるようになる。

Lebenによれば、囚人のジレンマゲームを合理的な解決に導く「しっぺ返し」戦略は、意図的な危害に対する非難感情や、公平な分配に対する是認感情という道徳文法に含まれた基本的ルールと一致するという。

このような「道徳文法」と「合理的意思決定理論」の議論によって、Lebenは我々の道徳を、協力行動を生み出すための適応的機能として理解することを提案する。

 

人工知能の「最善」の倫理学理論とは

第三章から第五章にかけて、Lebenは人工知能に実装するべき最善の倫理学理論としてロールズ的契約主義の有望性を論じ、それを具体的にアルゴリズムへと落とし込む戦略が説明される。

まず様々な倫理学理論を評価するにあたり、Lebenは各理論の「内在的評価」という基準と「外在的評価」という基準を設定する。

理論の「内在的評価」とは、倫理学理論の内的な首尾一貫性を意味する。

ある理論によって多様な道徳判断が説明されうるか、そして各評価の間に矛盾がないか、という点からいくつかの理論――功利主義、自然権に基づくリバタリアニズム、カント的義務論などが検討される。功利主義とは行為の結果として最大限に望ましい帰結を生じさせるかどうかを正しさの基準とみなす立場であり、リバタリアニズムとは各人の道徳的権利(特に所有権)を侵さない限り最大限に自由な行動を認めるべきだとする立場であり、カント的義務論とは普遍化可能な「定言命法」を動機としておこなった行為のみを正しい行為とみなす立場である。

各理論が比較され、その結果として、内在的評価は倫理学理論の必要条件ではあるものの、十分条件ではないと指摘される。言い換えれば、いずれの理論も内在的評価においては甲乙つけがたいのであり、優劣をつけるため別の基準が要請される。

 

そこで次の評価基準として、「外在的評価」による判定がおこなわれる。

外在的評価とは、倫理学理論が達成しようとしている目標を各理論がどれだけうまく達成できるかを検討する基準となる。そしてこの論点において、(1)道徳文法の目的は協力行動の生成にあるが、(2)直観的な道徳文法はこの目的にとって最適ではない、という二つの前提に基づき、倫理学理論の目的が「直観的な道徳的文法の合理化、あるいはその明確化と一般化への試み」として整理される。

 

つまり、協力行動を生み出すために我々の行動を最適化するツールとみなすことで、どの理論に基づく戦略がもっとも協力行動の生成に繋がるのか、という観点で各理論を比較できるようになる。

そして、内在的評価によって有望視された各理論の中でも功利主義は「囚人のジレンマ」・ゲームの一種において協力行動の生成に失敗し、リバタリアニズムはスタグハント・ゲームにおいて失敗する、といった一種のトーナメント戦がおこなわれることで、ロールズ的契約主義が最も有望な理論として勝ち残る。

 

Lebenは契約主義の基本構造を、(1)自己利益をもとめるプレイヤーの集合、(2)すべてのプレイヤーが等しく価値付ける基本財の集合、(3)基本財の可能な分配方法の中から最適なものを選択するマキシミン・ルール、の三点で特徴づける。

マキシミン・ルールとは、ロールズが「無知のヴェール」に基づく原初状態の議論で合理的な選択をおこなうための基準として採用したもので、複数の選択肢の中から「予想される最悪の結果によって選択候補をランクづけ」して、そのなかで最もマシなものを採用すべしとする選択基準を指す。

つまり様々な基本財(生命、機会、健康、資源など)を各プレイヤーに分配するにあたり、各選択肢を選んだときに最低の状態となるプレイヤーを比較して、その最低の状態が最もマシであるような選択を試みるのが、契約主義アルゴリズムの基本方針となる。

契約主義をこのように理解することで、道徳はある種の合理的ゲームの最適戦略の探求へと変換される。そしてこれにより、コンピュータ・チェスの思考エンジンをベースにした「倫理エンジン」の設計が試みられ、ありうる選択肢の中からもっとも合理的なものを選択するアルゴリズムとして、倫理が実装されることになる。

 

ロボットの倫理エンジン

以降は、このように構想された契約主義的アルゴリズムを具体的なロボット機器に応用する試みが描かれる。

第六章では、自動運転車が不可避的な交通事故に巻き込まれた際には「全体の被害を最小限に留める」戦略よりも、「生じうる被害のなかでも最大の被害を最小化する」戦略が選択されるべきだとされる。

第七章では、病気や怪我の診察をおこなう医療ロボットや災害時に治療を要する患者を救出するロボットに対して同様のアプローチがおこなわれ、第八章では、警察、裁判官、兵士などの役割をもつロボットへの応用が試みられる。こうして人工知能に関連する具体的な倫理的問題の事例においても、ロールズ的契約主義に基づく戦略の有望さが示されることになる。

 

Lebenの議論の長所は、「人間にとって道徳とは何なのか?」という基礎的問題から、具体的な人工知能の応用方法までを視野に入れながら、「倫理学理論のロボットへの実装」が構想されている点にある。

既存の研究において、ここまで包括的に人工知能と倫理学理論の関係を描いたものは極めて少ない。その意味で、Lebenの主張が本当にうまくいっているのかどうかは別としても、これが非常に重要な貢献であることは間違いない。

 

波乱のスタートライン

アルゴリズムへの実装可能性の問題を脇に置けば、同書における最大の争点は「倫理学理論の評価基準」になるだろうと思われる。論点を明確にするため、先に説明したウォラックらのアプローチとLebenのアプローチの違いをまとめよう。

ウォラックとアレンが『ロボットに倫理を教える』の中で展開した戦略は、そもそも倫理学理論に優劣をつけるという問題を回避することにあった。それを無視することによって、彼らは計算可能性という一点においてのみ倫理学理論の評価をおこなうことが可能になった。

それに対してLebenは、「道徳文法」と「合理的意思決定」の二点を鍵として、理論そのものの是非と実装の容易さの評価の一致を試みた。道徳は一種のゲームであり、だからこそゲームの思考エンジンをベースにした倫理エンジンが構想される。

だが、この出発点が論争含みであることは論をまたないだろう。自然言語と類比的に語られるような構造をもつ「道徳文法」の存在を否定する論者もいるだろう。たとえ道徳の文法構造が明らかになったとしても、倫理学理論を「道徳文法の合理化」という側面から――特に互恵的利他主義の生成を目的とした機能として――理解するべきかどうかには異論の余地がある。

 

作ってみなければわからない

結局のところ、Lebenの議論は順番が逆なのではないかと思われる。まず、人工知能への実装可能性という点でロールズ的契約主義の有望さが先にあり、そこから後付けで、様々な倫理学理論の中からロールズの理論を選ぶための基準が設定されているのではないか。私にはそうした印象が拭えない。

この点で私には、Lebenのアプローチよりも、ウォラックとアレンが試みたアプローチの方が望ましいように感じられる。どの倫理学理論に基づくロボットが適切な動作をするのかは、やはり実際にそれを作ってみなければ分からないと思うのだ。どの理論に沿った倫理がロボットにとって真に望ましいものなのかを決める手段は、おそらく実際に各理論に沿って出来上がったロボットたちを比較する以外にないだろう。

 

 

<参考文献>
Leben, D. (2018) Ethics for Robots: How to Design a Moral Algorism, Palgrave.

Tonkens, R. S. (2012). Out of character: on the creation of virtuous machines. Ethics and Information Technology, 14(2), 137 – 149.

Wallach, W. and Allen, C. (2009) Moral Machines: Teaching Robots Right from Wrong. Oxford University Press. (岡本慎平・久木田水生訳『ロボットに倫理を教える:モラル・マシーン』名古屋大学出版会、2019年)

ロールズ、ジョン(川本隆史、福間聡、神島裕子訳)『正義論[改訂版]』紀伊國屋書店、2010年)

執筆者プロフィール

岡本慎平
岡本慎平広島大学大学院文学研究科助教
1986年生まれ。
広島大学大学院文学研究科博士課程後期修了、博士(文学)。
著訳書として D・アーミテイジ『思想のグローバルヒストリー』(共訳、法政大学出版局、2015年)、『少子超高齢者会の「幸福」と「正義」』(共著、日本看護協会出版会、2016年)他。