ママは、AIで作った僕の声に騙された
BuzzFeed
419Picks
コメント
注目のコメント
もう、こうなってしまうと偽のインタビュー動画など簡単にできてしまうし、振り込め詐欺も捗りそう。
一方で、過去の動画数本を読み込ませて、天国にいってしまった家族にもう一度喋ってもらうというサービスも出てきそう。
記事の中では倫理に関する言及もあり
「我々がこの技術を開示しないことにしたら、一体どうなるでしょう。ほかの人たちが同様の技術を開発するはずです。ただし、その人たちが我々のように誠実な意図で開発するとは限りません。たとえば、その技術を特定の企業や、悪巧みをしている組織にだけ販売する可能性があります。これに対し、我々は制限なく技術を提供しています。さらに、社会が受け入れて、メリットを良い行為に活用しつつ、悪用の芽を摘めるようにするため、段階的に提供していきます」(Lyrebird)
とのこと。子どもの声を偽造できてしまうことで起こる詐欺は、
"振込め詐欺2.0"とか言われてしまうんでしょうね。
「現実に対する無関心(reality apathy)」「人間操り人形(human puppets)」「情報の終焉(Infocalypse)」というキーワードも、それぞれ気になります