対話式のAI サイバー犯罪に悪用のおそれ ウイルスも作成可能
コメント
注目のコメント
色々な懸念がどんどん出てくるというのはそれだけイノベーティブで、応用範囲が広いということですね
フィッシング詐欺の文面を考えるくらいなら「ふーん」くらいですが、たしかに新たなウイルスを作るなどの用途で自動でどんどん使われると確かに大変
一方で、プログラミングで使えるようなので、地道にコーディングをするという部分はどんどん機械に置き換えられ、人間の役割はそれをチェックして判断するという感じになっていきそうですねウイルスプログラムも生成できるほど高性能なら、「Excelでこんな集計をしたい。そんなマクロを作って」と要求すれば生成できるのかもしれない。
便利になればそれを悪用されることも起こりうる。
(アメリカでは)護身のために銃を持つことができるがそのことで街中で発泡事件が起こる。(規制されている日本では(ほとんど)起こらない)
日本でも、ナイフなどの刃物がホームセンターなどで販売されているので、街中で切りつけなどの事件が起こる。しかし、ナイフなどの道具が簡単に手に入れられることでDIYできたり気軽にキャンプなどに行くことができる。
AIも使い方次第ということ。悪用される懸念はあっても(過度な)規制はしないほうがよいと思う。
ところで、AIが生成したプログラムコードや漫画などのストーリーの著作権はどうなるのだろうか? AI独自のものならAI提供の会社のもの? もし、どこかからの引用なら利用時には許可を得るなどの手続きをしないと著作権を侵すことになる?
こんなことも懸念と言えば懸念。Q.「ChatGPTを悪用する事を防げますか?」
A.「OpenAIは、ChatGPTなどのモデルを悪用することを防ぐために一定の対策を講じていますが、完全に防げることはできません。技術的な手法によって悪用を防ぐことはできる一方で、技術的な手法だけでは防ぐことができない可能性もあります。
OpenAIは、技術的な手法に加えて、法的な手法やエンドユーザー契約などの手段も採用していますが、これらも100%悪用を防ぐことはできません。そのため、社会全体が協力して、倫理的な使い方を尊重する文化を形成することが重要です。」
なんと『誠実』な答えなんだ!?
フィッシングサイトを判別するAIも生まれるに違いない!! m(__)m