医療現場における対人援助・感情労働にAI・ロボットは何ができるのか?

ABOUTこの記事をかいた人

森本 誠一

森本 誠一

1978年生まれ。大阪大学大学院文学研究科博士後期課程 単位取得退学。専門は哲学、倫理学。公共的な対話の実践として全国各地で哲学カフェを開催。このほか、とよなか地域創生塾、中津ぱぶり家の運営に携わる。共著書に霜田求(編著)『テキストブック 生命倫理』法律文化社、2018年(第4章「生殖補助医療」を担当)。日本医学哲学・倫理学会、応用倫理学会、関西倫理学会など会員。旅行が趣味で、毎年チェコを中心にヨーロッパ各地を巡りながら現地の料理を食べたりお酒を飲んだりするのが楽しみ。

1.はじめに

 

科学技術の発展にともなって、これまで人間のおこなってきた多くの仕事がAI・ロボットに補助または代替されるようになってきた。2013年9月にカール・ベネディクト・フライとマイケル・A・オズボーンが発表したワーキングペーパー「雇用の未来――どれだけ仕事はコンピューター化されるのか」[1]は世界的な反響を呼び、日本でも雑誌などで「10年後から20年後に消えて無くなる職業」といったような記事が出て話題となった。

医療の現場でも、受付や会計など窓口業務の機械化、手術の半自動化、画像診断へのAIの応用、あるいはパワースーツによる身体的負担の軽減などが進んできた。今後は医療従事者と患者とのコミュニケーションに直接関わる領域へもAI・ロボットの介入が進んでいくだろう。

そこでこの記事では、患者と接する機会の多い看護師の仕事に焦点を当て、その中でも対人援助に深く関わるものとして〈寄り添う〉〈耳を傾ける〉という二つの行為ないし態度に注目し、どこまでAI・ロボットがこれらを補助したり代替したりできるのか、もしできるとして、どこまでこれをおこなってもよいのかについて考えてみたい。また、こうした対人援助が感情労働として医療従事者の負担になっていることにも着目し、AI・ロボットによる改善や解決ができるのか探ってみたい。

 

2.AI・ロボットは患者に寄り添うことができるのか?

 

看護師はあらゆる医療職種の中で最も患者に近い存在だと言われるが、普段からベッドサイドで患者のケアにあたり、ときには意識のない患者や自分の意思を伝える手段を持たない患者の利益を代弁する役割(アドボカシー)を担っている。そのため看護師には他の医療職種にもまして患者に寄り添ったケアをおこなうことが求められている。では看護師が患者に寄り添うとはどのようなことなのだろうか。

ここで言う〈寄り添う〉とは、たんに患者のそばに居合わせるというだけでなく、患者の抱えている問題に気づき、受け止め、それを解決すべく取り組むことである。だが、患者に寄り添ったケアをすることは、現実のさまざまな制約の下、なかなか実現できていないのが現状である。では、この寄り添うという行為や態度を何か別の仕方で実現することはできないのだろうか。

たとえば、ペットがそばにいるとき、あるいはペットとともに過ごしているとき、心が癒される人がいるとしよう。

このペットは心が癒される人に対してその効果をもたらしていると言えるだろうが、寄り添っているとも言えるだろうか。一見するとペットは心が癒される人に対して寄り添っているように見えるかもしれないが、先ほどの例に即して考えるならば、ペットには心を癒す相手への理解が決定的に欠けている(いや、もしかしたらペットにも人の苦しみが理解でき、誰かを癒そうとする意思があるかもしれないが、残念ながら私たちにはそれを知る由もない)。

つまり、ペットのふるまいが人の心を癒すのは偶然の一致によるものであり、ケアされる人が抱える問題を理解した上でそれを解決しようとする一連のプロセスがない以上、ペットは看護師がおこなうのと同じ意味で誰かに寄り添うことはできないだろう。

AI・ロボットについてはどうだろう。ペットロボット、セックスロボット、バーチャルないしリアルなAIキャラクターなど、人を癒してケアすることを目的としたAI・ロボットはすでに多数存在し、その効果についても一定の評価が得られている[2]。問題はこうしたAI・ロボットが、看護師のおこなうような仕方で誰かに寄り添うことができるのかということである。

現状のAI・ロボットはまだ十分とは言えないが、自律的であるかどうかは別としてAI・ロボットが患者の抱える問題を特定し、患者の利益と不利益を適切に評価した上で問題解決のために取り組むことができ、そのことが患者に違和感なく自然に受け入れられるなら、AI・ロボットも看護師がおこなうのと同じ意味で患者に寄り添うことができると言えるだろう。

そして看護師と同程度の水準でこのことがおこなえるAI・ロボットが登場するのは時間の問題だろう。だが、それでもなおAI・ロボットは患者に寄り添っていると言えるのか、と問うことができるかもしれない。それはなぜだろう。どのような違いが人である看護師とAI・ロボットとのあいだにあるのだろうか。

もしこの違和感がAI・ロボットは誰かに寄り添う〈意図〉を持つことができないという考えに起因するのだとすれば、看護師やその他の医療従事者がどれだけ〈その意図〉を持っているのかについても考えなければならないだろう。

仮にほとんどの医療従事者がこのような意図を持っているとしても、すべての医療従事者が常に寄り添う〈意図〉をもって寄り添う〈ふるまい〉をしているとは限らない。そもそも私たちには人がどのような意図を持っているのかを確実に知る術がない以上、外形的な行為の様態からしかその人の行為や態度を評価することはできないわけで、〈寄り添う〉という行為や態度が成り立っているかどうかを考える際にその意図を問題にすることは、事実上あまり意味をなさないだろう。

だとすれば、寄り添う意図のあるなしに関わらず、上記の条件を満たせばAI・ロボットも看護師と同じように患者に寄り添うことができると言えるのではないだろうか。

 

3.AI・ロボットは患者に耳を傾けることができるのか?

 

 

耳を傾けることもまた、看護師が患者への対人援助として求められる行為ないし態度のひとつである。看護師が患者に耳を傾けるとはどのようなことなのか、看護の実践に関する教訓としてしばしば取り上げられるナースコールの事例を見てみたい。

数値や目に見える症状からは問題が確認されないものの、不調を訴え続けてナースコールを頻回に押す患者がいた。ナースコールが押されれば、万が一のことを考えて対応しないわけにはいかないし、かといって、直後に緊急性の高い別の入院患者からナースコールが押された場合、対応が遅れてしまうおそれもあり、この患者は看護師のあいだで問題行動のある患者として情報共有され、要求の多いモンスター患者として扱われていた。

あるとき普段とは異なる医師が回診にやってきた。患者はいつものように不調を訴えるが、問題となるような所見は見当たらない。それでもこの医師はうなずいたり共感を示したりしながら患者の気が済むまで話を聴いていた。すると患者はぼろぼろと涙を流し、これまで口にすることのできなかった心の内を医師に打ち明けたのだという。はじめのうちは本当に体調が悪くてナースコールを押していたのだが、忙しくしている看護師は患者が話しかけても用事だけ済ませるとすぐに病室を出て行ってしまう。曰く、ほかの患者には家族や友人が面会に来てくれるけど、自分には面会に来てくれる人も話し相手もおらず、さびしかったのだという。

この事例に登場する患者が看護師に理解してほしかったこと、あるいは本当に伝えたかったことは、端的に言えば「話し相手がいない」「さびしい」ということであり、じっさい患者はそのサインも出していたのだが、数値や目に見えることにしか注意を向けることのできなかった看護師はそれに気づくことができなかった。

そのため、看護師はほんらい自分たちの側にあった対人援助のあり方についての問題を、患者の態度や行動の問題だと誤って認識し、患者に対する適切なケアをおこなえていなかった、というのがこの事例の示す教訓であろう。

看護師が患者に〈耳を傾ける〉というのは、数値や目に見える症状ではなく、また患者の話すことを字義どおりに受け取ることでもなく、患者の抱える問題や苦しみに心を向け、共感その他の言語的・非言語的コミュニケーションを通じて、もしかすると患者自身もはっきりとは気づいていないかもしれない問題や苦しみを患者とともに発見し引きだすことである。

忍耐強いAI・ロボットは、もしかすると、日々の業務に追われて患者と十分に向き合うことのできていない看護師より患者と向き合って〈耳を傾ける〉ことができるのかもしれない。

強化された深層学習と共感を示すしぐさにより、AI・ロボットは人よりうまく患者の心をつかみ、患者の心の奥底にある患者自身も気づいていないような問題を発見し引きだすことができるかもしれない。

だが、そういう患者ばかりでもないだろう。先ほどの患者はどれだけAI・ロボットに心を開いてくれるだろうか。そもそもAI・ロボットではなく人とコミュニケーションを取りたいと望んでいる人に対して、AI・ロボットはどこまで患者に寄り添って患者の声に耳を傾けることができるのだろうか。人とのコミュニケーションを求めている人に対して、人とのコミュニケーションを拒絶するとはどういうことなのか、次節以降で考えていきたい。

 

4.感情労働としての対人援助

 

これまで、寄り添う、耳を傾けるといった行為ないし態度について見てきたが、これらを実践するためには感情労働が伴うことにも注目してみたい。感情労働とは、感情のコントロールが職務の遂行において求められるような労働のことであり、程度の差はあるものの、接客や接待など人を対象としたサービスを提供する仕事には多少なりともこの感情労働が伴うものである。

感情労働に従事する者は、ときには共感できないことに共感を示し、不愉快な気分にさせられてもそのことはおくびにも出さず、落ち込んでいるときにも明るくふるまうことなどが求められる。どれだけ不条理なことを言われても、ぐっとこらえなければならないこともあるだろう。患者やその家族と直接対峙する医療従事者も、こうした感情労働を求められており、その負担が決して小さくないということが近年注目されるようになってきたことである。

患者の中には病気やその苦しみから自暴自棄になり医療従事者に暴力をふるったり暴言を吐いたりする者もいれば、病気そのものが暴力的な行動の原因になっている者もいるだろう。

医療従事者の側から見ても接しやすい患者もいれば接しにくい患者もいるだろう。だが、こうした患者に寄り添って耳を傾けることが医療従事者の仕事であると言われても、感情を完全に押し殺すのは容易にできることではないし、感情を抑えて仕事をするにしても、そのこと自体がたいへんな精神的負担となるだろう。

じっさい、厚生労働省が出している「過労死等の労災補償状況」によれば、2009年度から2019年度までの11年間で「顧客や取引先からクレームを受けた」との理由で83人が労災認定され、うち26人が自殺している。これらをすべて感情労働に結びつけることはできないが、感情労働による労働者の精神的負担をいかにして軽減ないし除去するかは、目下のところきわめて重要な課題であり、AI・ロボットの導入・活躍が期待されるところである。

もしAI・ロボットがこうした感情労働を伴う対人援助を代替ないし補助できるなら、医療従事者の精神的負担を大きく軽減することができるだろう。そしてそれを実現するための技術的な見通しはそれほど暗いものではないように思われる。

だが、感情労働をAI・ロボットが行うようになったとき、私たちの世界はどのように変化するだろうか。

私たちは誰しもが患者の立場になり得るし、そうでなくても日々なにがしかのサービスを受けることで誰かに感情労働をさせているかもしれない。あなたが病気や障害によってコミュニケーションに時間がかかったり、自分の思いを人に伝えるのが苦手だったりした場合、AI・ロボットにしか対応してもらえないとしたらどうだろう。あなたが受けたケアやサービスについて不満を伝えようとしたところ、面倒な人だと判断されてAI・ロボットにしか対応してもらえないとしたらどうだろう。

あなたの不満はそれによって解消されるだろうか。むしろ、不満は増大するかもしれない。では、あなたに対応しているのがAI・ロボットだとあなたから見てわからなければどうだろう。

このことを考えるきっかけとして、認知症の患者とコミュニケーションするAI・ロボットについて考えてみよう。

 

5.認知症患者とコミュニケーションするAI・ロボット

 

 

認知症の患者とコミュニケーションするAI・ロボットは、私たちの世界に何をもたらすだろうか。

近年、認知症についての研究が進み、認知症患者の行動についても解明が進んできた。とはいえ、認知症患者の行動に意味を見出せるようになったとしても、その患者に寄り添って、耳を傾け続けるのは身体的にも精神的にも容易なことではない。

それでは、もしこれをAI・ロボットがおこない、そのことが認知症の患者に違和感なく受け入れられるとしたらどうだろう。私たちは将来認知症になったとき、AI・ロボットがそばにいて、AI・ロボットと会話し続けることを望むだろうか。AI・ロボットが食事や排せつの介助をしてくれて、そこにはあなたとAI・ロボット以外存在しない状況を受け入れられるだろうか。

だが、もしかすると、認知症の患者にとっては自分たちの行動の意味を理解してくれない医療従事者や家族よりAI・ロボットとコミュニケーションしているときの方が落ち着くかもしれない。

私たちが望むと望まないとにかかわらず、認知症患者に寄り添って耳を傾けてくれるAI・ロボットは遠からず登場するだろう。

そのときの世界がどんな様子なのかを想像してみてほしい。

カフカの短編に『掟の門』という小説がある[3]。田舎からやって来た男が掟の中へ入る許可を門番に求めるのだが、どうしても許してもらえない。男は何年もかけてあの手この手でお願いするが、けっきょく掟の中へ入ることはできないまま物語が終わっていくというものである。

この小説の解釈はさておき、もし仮に男と話す門番がAI・ロボットだったとしたら、物語の与える印象は実際と違ったものになるだろうか。門番と男が両方ともAI・ロボットだったとしたら、物語は成立しなくなるだろうか。あなたにその世界は受け入れられるだろうか。

 

6.人にはしてほしくないけどロボットになら大丈夫という対人援助

 

人におこなってほしい対人援助がある一方で、人にはおこなってほしくない対人援助もあるだろう。

たとえば、自尊心や羞恥心に関わることとして、排せつの介助を人におこなってもらうのは抵抗があるという人は少なくない。ただ、どのような対人援助が人におこなってほしいものでどのような対人援助が人にはおこなってほしくないものなのかは、人によって基準が異なるため明確な線引きはできないし、人におこなってほしいことでも家族にならよいが家族以外の医療従事者にはおこなってほしくないという人もいれば、その逆の人もいるだろう。普段は家族におこなってほしいと考えていることでも、喧嘩をしているあいだは家族におこなってほしくないということもあるだろう。

私たちのニーズや価値観は非常に多様で常に一定しているわけでもないため、その時々でこれらを適切に評価することが求められる。支援を受ける患者のこうしたニーズや価値観をどのように評価するのかは、それこそ人が判断するのかAIが判断するのか問題になるかもしれないが、ともかく、人にはおこなってほしくないけれど、その人にとっては必要な対人援助については、まさにAI・ロボットの活躍が期待されるところなのかもしれない。

 

7.さいごに

 

これまで、医療現場における対人援助をAI・ロボットがどこまで補助したり代替したりできるのかについて見てきた。人と接する仕事や業務が次々と自動化・機械化されAI・ロボットに取って代わられるなか、患者に寄り添って耳を傾けるという対人援助は、人にしかできない/人がやるべきこととして、なかば聖域のように考えられてきた。

ところが、こうした対人援助をAI・ロボットが技術的におこなえる可能性が見えてきたいま、私たちに求められているのは、これをどのように受け止め、どのように受容していくのかということである。少なくとも、医療現場における対人援助にAI・ロボットが入ってくることを完全に拒絶することはできないだろう。

読者の中には人間のやるべきこと、人間におこなってほしいことについて一定のイメージや考えを持っている人がいるかもしれない。だが、そもそも〈人間がやるべきこと〉とは何なのだろうか。私たちがある種のことについて人間におこなってほしいと考えるのはなぜなのだろうか。

AI・ロボットがおこなうようになってきた仕事の多くは、かつて人間がおこなっていたか、おこないたくてもできなかったことである。

いまAI・ロボットが当たり前のようにおこなっていることも、かつて人間にしかできないと考えられていたことは少なくない。したがって、いま人間がやるべきこと、人間にやってほしいと考えられていることも、いつかはAI・ロボットがおこなうのが当たり前になるのかもしれず、私たちは人のおこなうべきこととAI・ロボットがおこなってもよいことを、予断をもって区別するべきではないのかもしれない。

 

 


 

参考文献

[1] Frey, Carl Benedikt & Osborne, Michael A., (2013) The Future of Employment: How Susceptible Are Jobs to Computerisation? (https://www.oxfordmartin.ox.ac.uk/downloads/academic/future-of-employment.pdf)

[2] 日本医療研究開発機構「介護分野におけるコミュニケーションロボットの活用に関する大規模実証試験報告書(修正版)」2017年7月27日(http://robotcare.jp/data/outcomes/communi_robo_veri_test_report.pdf

[3] カフカ(丘沢静也訳)『変身/掟の前で』光文社古典新訳文庫、2007年

ABOUTこの記事をかいた人

森本 誠一

森本 誠一

1978年生まれ。大阪大学大学院文学研究科博士後期課程 単位取得退学。専門は哲学、倫理学。公共的な対話の実践として全国各地で哲学カフェを開催。このほか、とよなか地域創生塾、中津ぱぶり家の運営に携わる。共著書に霜田求(編著)『テキストブック 生命倫理』法律文化社、2018年(第4章「生殖補助医療」を担当)。日本医学哲学・倫理学会、応用倫理学会、関西倫理学会など会員。旅行が趣味で、毎年チェコを中心にヨーロッパ各地を巡りながら現地の料理を食べたりお酒を飲んだりするのが楽しみ。