自動運転車が事故ったら、誰の責任なのか - ドイツは「システムの責任」と言及
コメント
注目のコメント
「運転者かシステムか」みたいな議論になっていますが、少なくとも日本の法体系において厳密に言うと、「運行供用者か、運行支配主体か、製造者か」かなと思います。
自動車損害賠償保障法(自賠法)3条によると、
第3条 自己のために自動車を運行の用に供する者は、その運行によつて他人の生命又は身体を害したときは、これによつて生じた損害を賠償する責に任ずる。ただし、自己及び運転者が自動車の運行に関し注意を怠らなかつたこと、被害者又は運転者以外の第三者に故意又は過失があつたこと並びに自動車に構造上の欠陥又は機能の障害がなかつたことを証明したときは、 この限りでない。
とあります。
つまり、自賠法においては、運行供用者と運転者は別で、条件付き無過失責任は運行供用者にあります。一方、運転者の責任は民法709条に定められ、レベル5自動運転の場合は(普通に考えると)運転者不在とみなされ、運転者の過失責任はなくなります。
日米はジュネーブ条約、ドイツはウィーン条約ですが、実は自賠法3条は1909年制定のドイツ自動車交通法7条に倣ったもので、そこはねじれています。自動車産業振興の為に、最小限の製造者リスクと、最小限の所有コスト、最小限の人身事故補償、に重きが置かれています。
一方、製造物責任は、製造物責任法(PL法)に定められています。その場合、「通常有すべき安全性」(2条2項)を平均的運転者の安全性に対してどのように決めるのか、欠陥の存在を運行供用者が証明しなければならないという問題が起きます。その場合、人身事故のみを対象とする自賠法の限界があるので、物損に対する運行供用者の責任を拡張するなどの対応が求められます。
記事にあるようにドイツでは、運転者(運行支配者)の主体としてAIに法的責任を追求する余地があるという議論があるようです。元々アメリカでこの議論が始まったと言うのが私の理解。
個人的には、「責任を取る」ということは、その責任主体が何かネガティヴな仕打ちを受け、その苦痛が社会に共感されることで、社会に対して示しをつける、ということです。財布も持たず苦痛が共感されないAI主体は、責任能力は社会的に持ち得ないと考えています。
つまり、社会に凶器を供給したという責任を負っている、人間(及び人間が保有する法人)の運行供用者のみが、責任を取ることができるのではないでしょうか。「事故の責任」はレベル4についての問題提起ですね。レベル3までは、自動車保険などでもコンセンサスが出来つつあります。レベル4になって、「システムの責任」が出てきます。
また、システムについて倫理的なジレンマが議論されています。「トロッコ問題」に代表されるような、運転者と歩行者のどちらの命を優先するか、というものです。
これについては、MITメディアラボの研究が、もっとも本質的で進んでいると思います。5月にWiredからでた記事はよくまとまっています。
https://wired.jp/2017/05/08/ethics-of-man-and-machine/
メルセデスベンツが、最初は「運転者を優先する」と宣言し、のちに撤回した経緯など、興味深いです。あくまで私見です。
自動運転車が事故を起こした場合、誰の責任かはそんなにシンプルには行かないかと。
責任範囲および補償範囲が明確にならないと、責任や補償は誰も引き受けません。
そもそもドライバーという定義がわからなくなりますが、少なくとも所有者は管理責任があるでしょう。これを無くすことはできませんが、どの程度免責できるのか。
メーカーや保険屋さんは、想定外の使われ方された場合の免責をどこまで決められるか。
例えばクルマのソフトウェアのセキュリティホールにより乗っ取られた場合、確かにセキュリティホールはメーカーの責任だけど、ユーザー側でパスワードやキーの管理が不適切適切(実は自宅パソコンがハックされてたとか)な為に標的にされてたなら?、など。
当然ながら人身事故による刑事罰は誰が裁きを受けるのか、なんてのはまた別の話になります。まぁ管理責任を免れる事はないでしょう。
例えが悪いかも知れませんが、賢い飼い犬が他人にケガをさせてしまった場合、ブリーダーやしつけを教育した人間が責任取るなんてないですよね。
あくまでオーナー管理責任は無くならないでしょう。