インタビュー:AIの倫理判断、幅広い議論を=平野中央大教授
コメント
選択しているユーザー
これはAIの課題ではなく判断するべき情報が多ければ普通の機会でも起こることです。例えばエレベーターの安全装置で今は閉まるときに一定以上の負荷がかかったりそこに何かがあるとセンサーが判断すれば閉めずに開きますよね?
ではその扉がしまわれるとこの小さな隙間に子供が指を突っ込んでればどうでしょうか?開くと子供の指が巻き込まれる。閉めると別の人が挟まれる。何もしなくてもどちらも怪我を負う。さて機械をどう動かすべきか?
もっと原始的なことを言えば、車のシートベルトは締めたほうが事故の際に助かる確率があがりますよね?だから法律でもしめろといいます。しかしもしシートベルトのバックルが故障してその時に車でボヤが起きたらどうしますか?
シートベルトカッターがなければ焼け死にます。
すなわちAIじゃなくても起きる問題です。
フレーム理論もそうで、人間にもっと多くの情報が与えられたらどうでしょうか?おそらく多くの人はそこで固まってしまうはずです。情報量が少ないから(間違えてるかもしれないが)正しいと思う判断ができるのです。
矢野さんもコメントされてる通りでAIを擬人化スべきではないと思います。
注目のコメント
「AIがトロッコ問題を判断する」という擬人化が行われています。実際には、こんな問題は存在しません。全ては人間のプログラム設計者が事前に設計した通りうごいているものです。その判断は人間が行っているのです。
「教師なし学習」などという言葉が誤解を助長しています。本質的に、教師なし学習は存在しません。かならず、プログラマーが教師情報を設計しているからです。
実態のないAIの擬人化がすべての議論をミスリードしています。トロッコ問題やフレーム問題等、旧来のAI問題は、旧来のロジックベースのAIを前提に思考実験されてます。
しかし人間がフレーム問題などにぶつからない理由は、そんなキッチリ考えてないからと言えます。そしてディープラーニングをはじめとする近年のAIは(語弊を恐れずに言えば)その適当に考える領域に踏み入れてきて、性能が上がりました。
この構図は無視できない前提です。
なぜなら、そもそも人だって「なぜそういう行動をとったのかわからない」から、と言えるからです。(受動意識仮説)
そういう意味ではAIもその前提で話を進める方が合理的と言えます。
すると「なぜそういう行動をとったのかわからないけど、レベル4のAIが人間より安全なら使おう」と言う選択肢が見えてきます。
「倫理の問題」ではなく「評価の問題」ですね。
結果として「膨大で現実的なシミュレーションを第三者機関でバーチャルに行い、平均的人間より安全と認定されたAIは使用可能」とするのが、交通事故死者を減らしたいなら、合理的な判断になります。
しかしそれでも事故は起きます。その事例に対して、被害者の心情的なケアは絶対に必要ですね。
それは「第三者機関でのシミュレーションの向上」と「保険」でカバーする、といったフレームワークが必要かな、と思っています。
すなわち自動運転で儲かるのは「お墨付きが与えられる認証機関」と「その認証格付けに応じて保険を作る保険会社」というわけです。
前者はGOOGLEが最も近い位置にいますね。彼らが同時に保険会社もやれば、リスク算定が正確になり更に儲かる。すると一切プロダクトを作らないで自動運転社会の利益の上澄みを持っていける。GOOGLEの自動運転ビジネスの出口としては、悪くない気がします。
そんな時代の到来を見据えると、日本が自動運転社会の覇権を握る上で何より大事なのは、評価・認証機関を作る事かも知れません。
それが今トヨタなどが「ハードウエアの安全・安心」で利益を稼いでいる代わりになる、次の柱としての「AIの安全・安心」の担保=利益につながる。
そうだとすると、国として覇権をとるのに大事なのは「AIを作る事よりも、AIを膨大なケースを元に評価できる事」になります。(無論、作れなきゃ、評価もできませんが。)
TRIをそうやって使ったらいいのにな〜、章男さん。トロッコ問題はネタとしては面白いですが、現実の開発ではそこまで議論していない。その前に、人かシステムかという「責任論」がホットな話題。また、自動走行システムの社会受容性の議論が急務かと思います。責任分担:人が100%かあるいはシステムが100%か。その他の選択肢はないのか、などなど。