2018.06.18

特別鼎談「人工知能時代の責任と主体とは?」

Category

もし、人工知能が事故を起こしたら、誰が責任を取るのでしょうか?これは情報技術が急速に社会に浸透するいま、未だ決着のつかない重要な課題となっています。この現代的問題に挑むべく、哲学、心理学、法学と異なる専門性を持つ3人の研究者が集い、人工知能時代における「責任」と「主体」とは何かが議論されました。
Photo1
松浦 和也(哲学)、葭田[よしだ]貴子(心理学)、稲谷 龍彦(法学)

まずは、皆さんの研究内容と「人と情報のエコシステム(以下、HITE)」で推進されているプロジェクト内容についてお聞かせください。

松浦 和也(以下、松浦): 私の専門はアリストテレスを主とするギリシアの哲学です。ギリシア哲学というと大昔のことのように感じる人もいるかもしれませんが、私は現在の科学観にも通底する当時の考え方がテキストの中に散りばめられていて、その考え方や価値観は今の社会をとらえ直すヒントにもなると信じて研究を進めています。そこでHITEでは、平成28年度は「高度情報社会における責任概念の策定」という企画調査を、平成29年度からは「自律機械と市民をつなぐ責任概念の策定」と題したプロジェクトを立ち上げ、人文系の視点から「責任」の概念について考察するプロジェクトを展開しています。
このプロジェクトの特徴は、人間の歴史や文化を重視することにあります。というのも、AIをはじめとする何かしらの"自律的な機械"が社会に普及していく時、機械が実際にはどのような構造で動いており、実際にどう振る舞うかというよりも、それらを一般の人たちがいかに受け取るのかが問題になってくるからです。そこで私たちは、「自律的な機械とは何か」を定義するのではなく、「機械が人間と対等な存在であると認められるには、どんな要件が必要になるか」という問いを立てました。この問いはすなわち、「人間とは何か?」という普遍的な問いにもつながってきます。古代ギリシアや日本の江戸時代、さらには古代インドといった近代西洋以外の社会モデルも視野に入れて、人間と自律機械のあり方を見据えることによって、今後の社会のあるべき姿を提示できるのではないかと思っています。

葭田 貴子(以下、葭田): 私たちの研究室は、人と一緒に動作する機械やシステムの開発をしています。HITEでは、「人間とシステムが心理的になじんだ状態ではどちらに主体があるか」をテーマに、機械システムに対する人間の心理状態を観察し、機械と人の親和性に関する研究を脳科学のアプローチから進めています。例えば、身体に装着するサポートロボットなどを使うときに、ある条件を満たすと人は次第に機械が自分の体の一部のような感覚を覚えて、自分自身が自分の身体を操作しているという感覚が強くなり、実のところ機械にも自分の身体を操作されているかもしれないという感覚が薄くなってきます。その状態で何らかの事件や事故が起こったとき、その行為は「誰に責任があるのか」という問題が浮かび上がってきます。本人からすると、すべての行動は自分自身が主体をもって行動した」感じがしてしまい、もしそれが機械側の問題であっても気付かず責任を感じてしまうかもしれない。逆に、自分が引き起こした行動の結果にも関わらず、機械の誤動作だと申告してメーカー側に責任転嫁してしまう場合もありますが、本人が本当にそう思っているのか、ただ嘘をついているだけなのかを誰がどう判別するのか。さらには、自分自身の身体の行動を機械に乗っ取られたと言い張る人も現れるかもしれませんが、それは第三者からみると、機械と人が一緒に動作しているので、一見機械が人を操作しているのか、人が機械を主体的に操作しているのか判別が難しい。そうした機械と人の境界が曖昧になる状況下で、誰が特定の行為を実行したかという「主体」と「責任」をどう捉えていくかがとても重要なテーマだと考えています。

Photo2

稲谷 龍 彦(以下、稲谷): 私の専門は刑事法です。具体的には、哲学や経済学、社会学、認知科学といった法学と隣接する領域の知見を活かしながら、刑事法の解釈論や立法論に対して提言を行う研究を行っています。現代は、グローバル化や技術の進歩に伴って、これまで法学の世界で確固たる前提とされてきた、人間は「自由意志」を持つ理性的な「主体」であるという思想に揺らぎが生じてきています。そこで現代哲学や認知心理学、行動経済学等の知見を生かしながら、従来の刑事司法制度のあり方を批判的に検証し、新しい刑事司法制度のあり方について考究しています。HITEで参加した「自律性の検討に基づくなじみ社会における人工知能の法的電子人格」では、最近法学の世界でも人工知能へ「法人格」を付与するべきかが議論されるようになっている現状を踏まえ、人工知能の開発・利用をめぐる法的責任のあり方、とりわけ人工知能と人間とが調和して存在するために必要な処罰制度のあり方に関する議論を展開しています。

人間に 「自由意志」はない?

人工知能時代の「責任と主体」について、いま最も課題となっているポイントは何でしょうか。

稲谷: 先ほども少しお話したように、西洋の近代哲学を基盤とする近代刑事法では、人間が自由意志をもって、外的環境の影響を受けずに客体をコントロールできることが基本的な前提とされています。ところが、ディープラーニングのような学習型の人工知能は、継続的に発展していくものであり、完全なコントロールは想定できません。また一方で近年の脳神経科学によれば、人間は常に外的環境の影響下にあるため、そもそも確固たる自由意志の存在が疑わしいことが明らかになりつつあります。そうすると、「何か危険が現実化した場合は、その危険源をコントロールできた人間が責任を取るべきである」という議論の前提が揺らいでいるということができるのです。

葭田: 同じく認知科学や脳科学の分野でも、私たち人間は本来、自分で思うほど自分のことを主体的にコントロールできていない可能性が議論されています。そもそも、本人にとっての主体的な感覚が、実際に起きている物理的現象と対応していないことは人間にとっては多々あります。また最近では、他人や機械にやらされた、あるいは機械が勝手にやったと感じたことについては、自分に責任がないと主張しがちな可能性も議論されていますね。「誰に責任があるのか」という社会的な議論をする前に、こうした人間の性質をよく考察する必要があると思います。

松浦: 責任や主体という概念自体が、まさに近代以降の西洋哲学の産物です。その基本には、「他行為可能性」といって、人間が「他の行為も選択できた」状態であることを前提に罪や責任を問う姿勢があります。しかし、この姿勢は必ずしも自明なものではない。例えば古代インド的発想を借りれば、「事故が起きたのは、前世からのカルマ(業)によるためだ」と説明することも可能です。または、古代ローマやギリシア時代にもし奴隷が罪を起こした場合は、その主人が管理不行き届きの責任を背負うことがあります。私たちの研究では、このように他行為可能性を前提としない過去の社会制度を参照としながら、他行為可能性や近代的な「責任」や「主体」から形成される社会が果たして本当に幸せな制度なのかも同時に議論しています。

どこからが機械か? 人間か?

人工知能側に責任が問われる場合、どのレベルで機械が「自律的である」と判断できるのでしょうか。

松浦: それは、人工知能が人々の日常生活に浸透したときにこそ、より重要になってくる問題だと思います。しかし、機械の自律性をレベル分けしたり、「自律性」の概念を定義するよりも、機械に自律性や意志があるように「見える」ことから議論を発した方が、人工知能をひとつの「文化」として社会になじませることができるのではないかと思っています。それゆえ、ご質問には、それぞれの文化が「自律性」をどのように捉えるかによって判断が分かれるだろう、と差しあたってお答えせざるを得ません。

葭田: サイエンスの視点から見ても、「アニマシー」など、どういう時に人間は機械やCGに知性や生命性を感じるかという研究があり、そちらの方が定義は簡単ですし研究もしやすいですね。しかし、それはチューリングテストにも通じる話で、その対象は人工知能というより「人工無能」かもしれない。つまり、たとえ生命がないかもしれないものにも人は生命性を感じられるともいえてしまうため、現在議論されているような徐々に高度化している人工知能に対しても同等の議論をして良いかはよく考えなければならないですね。

稲谷: 法学の主流なやり方においては、人間が備えるべき責任能力の有無という観点から自律性を捉えようとします。しかし、先ほど申し上げたように,そもそも、法的責任を負いうる「人間とは何か?」という問いの答え自体が揺れているわけです。従来の法学は、近代哲学に依拠して、「人間とはかくあるべき」という地点からスタートし、そこから外れたものに対し制裁を加えてきましたが、そのやり方自体を再考する時期に来ているかもしれません。

Photo3

松浦: 「自律的な人間」をまじめに追求していったら、外部から一切の影響を受けない人間、ということになってしまいます。そうだとすると私たち人間の中に果たしてそんな人が存在するのか疑問ですよね。強いて挙げるならカントくらいじゃないでしょうか(笑)。

葭田: カントさんの人間性までは個人的に存じ上げませんが(笑)、もし完全に外界から自立した人間や人工知能ができたら、きっとそれは社会通念も完璧に無視して行動しそうですから、そうすると、通常の社会で果たして無事に生きていけるのかなあという気はしますね。

技術的な「安全」と 心理的な「安心」のズレ

最近では、自動運転車による事故はメーカーと運転者のどちらに責任があるかが社会的な議論になっています。皆さんはどうお考えですか?

稲谷: 自動運転は完全自動化に至るまで0〜5の技術レベルが定義されていて、それぞれのレベルによって条件が全く異なるので一概には言えませんよね。

葭田: 私は自動運転に関しては、レベル3程度の半自動運転(高速道路など特定の場所で機械が運転し、人間は運転席に座って緊急時のみ対応する)の設計思想があまり語られないことが気になっています。機械と人間が中途半端に協調動作をしている状態は、それぞれが単独で動作している時と比べると事故が起こりやすい可能性があってもおかしくなさそうな気はします。これは航空機のオートパイロット実験など既に他の自動化技術で経験的に知られていることかもしれず、完全自動運転の方が事故は起きにくく、中途半端に人間の操作が介在すると事故が起きやすいと主張する研究者は一定数いそうです。

稲谷: レベル3については、最終的には人間が意志に基づいてコントロールした方がいいと無意識に想定されているからこそ出てきている話だと考えています。近代法からすると、ドライバーは人間だから危険を見抜けるだろうし、また人間である以上危険を察知し、コントロールする責任があるという発想はある意味素直です。そこから引き起こされる問題は甚大かもしれませんが。

葭田: 仮にどんな問題も完璧に解ける人工知能が電車や航空機を運転していたとして、それに人間は乗りたいと思うか、という視点もありますね。人間の普通の感情として、有事の際は機械よりも責任がとれる人間が操縦しているほうが安心できるのだと思います。

稲谷: 心理的な安心感と、客観的な安全性とのズレですね。そこが議論を錯綜させている一番の問題なのかもしれません。

葭田: 特に半自動車運転の場合は、人がどういう認知特性を持っているのか、運転時にどういう状態であれば、安全で快適かつ自分の責任感を維持できるかを踏まえた上で、そういう人間を内包して共に走る機械システムの姿とはどうあるべきかを踏まえた設計思想があっても良いように思います。

松浦: 機械と人間が恊働するという点で言うと、機械システムが人間の行動や能力を拡張・またはサポートするよう設計するアプローチもありますよね。これからは私たちの能力をエンハンスする技術にも期待を寄せたいです。自動運転技術も、完全な自動化を目指すよりも、人間の運転能力を補佐する力を向上させるという方向で進んでもよいのではないでしょうか。

問題を追及するのではなく、 理想の社会ビジョンをつくる

稲谷: いずれにしても、今後は人工知能によって危険が引き起こされたからといって、利用者や開発者の責任ばかりを追求していくのはあまり生産的でないと思います。今後は機械や人間の本質を問うよりも、まずどんな社会像を目指しているかを皆が考え、その目的に見合った法的責任の分配とはいかにあるべきかを議論すべきタイミングに来ているのではないでしょうか。自動運転であれば、どのような形で、どれくらい自動運転車が社会に浸透しているのがいいかを、皆が具体的にイメージすることから始めた方がいいと思います。そうした観点からすると、あるべき社会像を本質化して、事前に規制をかけていこうという従来のやり方は少しゆるめたほうがいいと感じます。社会はどうあるべきかの議論ではなく、どうありたいのかについての議論を、少しずつ生かしていくアプローチの方が望ましいと私は思っています。

葭田: プロトタイプを将来のユーザーに渡してみて、フィードバックを得ながら考えていく方法もありますよね。

Photo4

稲谷: そうですね。実際に流通させた後も、それが何か事故や問題を起こした場合には、ユーザーや企業、専門技術者、さらに法曹関係の人たちが入った状態できちんと議論をして、「ここまでコントロールできるものならこうしよう」あるいは「ここまでコントロールできないなら、こうしよう」という具合に、みんなが目指す方向性を、その都度議論しながら、少しずつ理想の状態に近づけていく制度を用意したいと考えています。

人々の声をいかに取り入れるか

人工知能が社会に受け入れられるには、理屈や制度では割り切れない課題も生じてくるのではないでしょうか。

稲谷: 誰が主体となって議論するかが重要ですよね。例えば、今ならSNSを通して一般の人々から広く意見を取り込むこともできるでしょうし、その声を人工知能がデータとして解析することもあり得ます。専門家の議論に偏らず、一般の人たちの意見にしっかり耳を傾けることは重要です。一方で、ユーザーの意見に重きを置きすぎると不安の声も高まり、「とりあえず危険は排除しよう」と余計に規制が厳しくなりかねない部分もあるので、それにも注意が必要だとは思いますが。

松浦: 人々の意見を社会制度に反映させることは必要な手続きだとは思いますが、「誰の意見を集約するか」と、「集約した意見がこれまでの法体系や文化と調和するか」という2つの問題が出てくると危惧しています。実際に人工知能の学習過程において、どんなインプットを与えるかによってその後は全く異なる反応を示すようになります。暴力的な人たちの中で学習をしたら、人工知能は暴力的な出力をするでしょうし、特定の宗教への関心が高い人たちを集めれば、その宗教における思想を反映させた出力をするようになるでしょう。同様に、一般からの意見の集約が重要なプロセスのひとつであることは否定しませんが、それをどうまとめ上げるかという手法も重要になると思います。そうでないと、地域や人の嗜好ごとに異なるばらばらなルールができるか、過度に理想化された人間像に沿った法律になってしまうと思いますね。

最後に、皆さんのこれからの共同研究の可能性についてお聞かせください。

葭田: まずは異分野の人の話を丁寧に聞く姿勢や機会をどのように作るかが第一と思っています。私のいる東工大の、特に機械工学の学生や研究者たちは人文的な思考に接する機会が多くはないので、近々、松浦さんと稲谷さんを東工大にお呼びして、法学や哲学など他の分野と対話していくきっかけを作りたいですね。それに、この種の議論をもっと多くの人たちを巻き込んで続けていきたいですね。

松浦: 葭田先生と同様、私たち人文系研究者もテクノロジーの先端が今どういう状態にあるかをより深く知り、専門の先生とコミュニケーションできる機会をもっと増やしていくべきだと思っています。この機会を通じて、現代の専門分野の垣根を越えた議論をしていきたいですね。さらに今後は、こうした議論を教育の現場に展開する具体的手段も考えたいと思っています。

稲谷: 教育でいうと、最近高校生向けの授業を行ったのですが、デジタルネイティブの彼らは、情報技術や人工知能の特性に対する理解もすごく早いし、それらがもたらしうる変化についてもとてもオープンに受け入れているんですよね。その感覚はとても重要だし、彼らによって人工知能がどんどん社会で柔軟に使われていくことで見えてくる可能性もあるでしょう。また、法学はどのような領域とも交われる分野なので、どこにでも流通できるという側面があります。他の専門領域の方々の知見を活かして、今後もより具体的な法提案につなげていければと思っています。

Photo5

松浦: これまでの近代法が築いてきた枠組みを超えなければならない時代において、最善のものを提示はできなくとも、採用しうる選択肢くらいなら哲学の人間が提示できるはずですし、その提示を前提として社会がどう変容するかという考察もできると思います。今日お話してみて、稲谷先生のような法学の方とはかなり通じるところがあると思いました。ようやく、私たちの多様な価値観や生活になじんだ法律や社会制度がつくれる時代が来たのではないかと。

稲谷: このHITEの取り組みを起点として、日本ならではの法のあり方を提示できるのではないかとも思います。特に「主体」と「客体」の線引きを明確に維持しようとする伝統のある西洋文化圏では、今日のような「主体」と「客体」の曖昧さを前提とした議論を積極的に生かすのは、やや難しいように思います。そこにこだわる必要のない日本だからこそ、西洋近代哲学の枠に止まらない、新たな可能性を示すことが出来る部分はあると思うのです。このつながりを、世界を巻き込むような面白い取り組みに挑戦していくチャンスにしたいと思っています。

松浦 和也
HITE採択プロジェクト「自律機械と市民をつなぐ責任概念の策定」研究代表者。東洋大学文学部 准教授。インタビュー時:秀明大学学校教師学部 専任講師。専門はギリシャ自然哲学。

葭田 貴子
HITE プロジェクト「人間とシステムが心理的に『なじんだ』状態での主体の帰属の研究」代表。東京工業大学 工学院准教授。専門は応用脳科学。

稲谷 龍彦
HITE プロジェクト「自律性の検討に基づくなじみ社会における人工知能の法的電子人格」参加メンバー。京都大学大学院法学研究科 准教授。専門は刑事法。

※本インタビュー記事は、「人と情報のエコシステム(HITE)」領域の小冊子Vol.02に収録されています。小冊子の入手については以下をご確認ください。

「人と情報のエコシステム(HITE)」領域の小冊子Vol.02
「人と情報のエコシステム(HITE)」領域の小冊子Vol.01