【瀧口範子】「AIの最前線」は5年間でどう変貌したか

2019/6/26
医療、創薬から動物の鳴き声分析まで
2014年から寄稿を続けてきた「イノベーション」タブが、6月末で終了する。前回は、ロボットの発展を振り返る記事をお届けしたが、今回はAIについて私なりに振り返ってみたい。
本連載「シリコンバレー発、AI最前線」を見直してみたところ、まず第1回、つまり連載のスタートがほんの1年半前だったことに我ながらびっくりしている。そんな短い期間に目にしたAI研究や応用の進歩がすさまじいからである。
記事を書きながら、スタート当初持っていた感情は「すごいなあ」というものだった。こんなこともできるのかと、高度なAI技術に感心した。
たとえば、医療の分野で放射線技師が見分けられないような異常も短時間で見つけるとか、その患者に適した臨床実験を探してくるといったこと。あるいは、創薬の分野で新しい材料の組み合わせを提案したり、自殺予備軍を食い止めたりするといったことにも可能性があるという使い方だ。
人間の生命や社会のためにAIが活躍するという、テクノロジーの理想的な姿が見えるような気がした。
その後、AIの応用は格段に進み拡大した。そうした状況に抱いた感情は「面白いなあ」である。
AIが会社の面接官になる、ベビーシッターの危険性を見抜く、新しいビールやスパイスの味を案出する、マッチングサイトのために最良の相手を見つけ出す、動物の鳴き声の意味を分析する、といったありとあらゆる使い方が出てきた。予想外で愉快な応用方法があるのだなあと、しきりにうなずいていた。
ここで見られたのは、可能になったAI技術をどんな問題解決や場面に応用するのか、という知恵だ。
応用の可能性は無限にある。AIのうまい使い方を考えることこそ、その開発者や企業の存在意義になるのではないだろうか。深い社会洞察や未来へのアイデアが求められるところだ。
AIを「複眼的に見守る」必要性
そうした後に、今抱いている感情は「複眼的に見守らなければならない対象である」というものだ。AIの脅威が形を持ち始め、それを決して無視してはならないと感じるからである。
AIやロボットについては、まずは職を奪うという議論が噴出した。数年たった今、職を奪うという単純な見方は意味をなさないということがわかっている。
奪うのは「職業」ではなく、職業を構成する「タスク」であるということがひとつ。つまり、予想されるのは、AIが職そのものを奪ってしまうのではなく、特定の作業を奪うことだ。
そして、職自体は作業構成を変えていく。経営と組織研究を専門とするジョン・ブドリュー南カリフォルニア大学教授は、「ほとんどの仕事は、AIによって代替されやすいタスクとされにくいタスクが混じり合っている」と言っている。紋切り型の議論は無益なわけだ。
もうひとつは、社会が今後ますますAI対応型になっていくに従い、新しい職が生まれるということだ。これは、テクノロジーの発展とともにどの時代でも起こったことで、職業全体がそうして刷新されていくのだ。
ところで、ちょっと話がそれるが、職業に関するブドリュー教授の興味深い視点に触れておきたい。
同教授は、現在の企業は正社員だけではなく、外部へのアウトソーシング、フリーエージェント、契約社員、派遣などの戦力で成り立っていて、AIもそのひとつだと言う。逆に言えば、企業は正社員だけを重んじる姿勢ではいけないという意味である。
派遣会社から送り込まれていても、正社員よりもやる気のある人物もいるわけで、そうした人材やAIも含めた人事のエコシステムを考えなければ、未来の企業は成り立たないという。
内部も外部も、人間もAIも同列に扱う。働き方革命も、こういう部分から突くと違った議論ができるのではないかと思った。
人間社会のデータを学習した結果
話を戻そう。「職を奪う」論の後も、AIの問題や脅威については次々と指摘が続いている。AIは人種差別や男女差別、場合によっては格差社会を後押しするものにもなるというのもそのひとつだ。
インターネットの発展を見ても、新しく生まれたはずのテクノロジーが古い人間社会の鏡像になってしまうということがわかったが、一部のAIも人間社会の既存のデータを学習することによって、好ましくない面を受け継いでしまった。
さらにもっとわかりにくくて怖いのは、顔認識やディープフェイク問題である。
顔認識も、当初は感情を推測できるユニークな技術として期待された。しかし、同時にその技術は、顔そのものを認識して、その人のアイデンティティに踏み込んでくる。認識機能がユビキタスに社会にばらまかれると、もう誰もプライバシーを持てなくなる。
日本でも逃走犯が方々のセキュリティカメラに映し出されているのがわかるが、そんなカメラがユビキタスになり、そしてカメラが向けられる対象が犯罪者だけでなくなればどうなるのか。技術的にはそんなことはとうに可能になっていて、何がそれを食い止めるのかについて、確固とした方針はどこにもないのだ。
ディープフェイクに至っては、「愚かなことが人々を操作する」という本当の脅威を感じさせる。
ビデオ映像の顔を入れ替えたり、本人の発言を入れ替えたりできる技術の背後にAIが利用されている。出来上がったビデオに登場する本人は、言ってもいない言葉を口にし、やってもいない行為を犯している。
しかも、その仕上がりは完璧にスムーズで、フェイク(うそ)だと見抜けなくて当たり前なほど高度なものなのだ。
人間の判断力が「正しいAI」を育てる
ただ、これらについて唯一希望があるのは、比較的早い時期に脅威を意識する関係者や企業が増えたことだ。
それによって議会が動き出し、何らかの規制が作られる可能性もある。個人データやプライバシー問題、あるいはフェイクニュース問題が長年放置され続けたことと比べると、反応は早かったのではないだろうか。
私自身が今後、AIに期待することがあるとすれば、それは金になるAI開発だけでなく、「正しいAI」開発に資金がつき、ユニークなビジネスモデルを考案するスタートアップが出てきて、そうしたAIが金儲けできるようになることだ。
正しいAIとは、いずれ出てくる規制を守っているというだけではなく、個人をプライバシー侵害や意識操作から守ってくれるようなAIである。
とかくテクノロジーは、金儲けの方向に邁進(まいしん)することで結果的に発展を遂げたわけだが、ことAIに関しては、これだけテクノロジーの進化を経た今、アプローチ自体を変化させる分岐点に来たのではないかとも思う。
そうしたことを考えるのは、AIではなくて人間。だから人間の判断力に希望を持ちたい。
(文:瀧口範子、写真:peepo/iStock)