悪のChatGPT?ダークウェブのデータだけで訓練された大規模言語モデル「DarkBERT」が発表
コメント
選択しているユーザー
このモデル、たぶん悪い文章を生成することはないです。
そもそもBERTとGPT って異なる用途目的で作られたアルゴリズムです。
GPT はみなさんご存知、“「G」enerative”とつくことからもテキストの生成に長けたアルゴリズムです。
一方RoBERTa の派生元であるBERTは、分類が得意なアルゴリズムです。
元の論文を読むと
・Dark web activity classification
・Noteworthy Thread Detection
・Ransomeware & leak site detection
・Threat Keyword Inference
あたりを応用先として想定しているらしく(まさに分類や検知で、文章の生成はできてない)、「悪者にハッキングの仕方を教える!」みたいな皆さんが危惧することは起きないと思います。
注目のコメント
うーんどこまで潜れてるんだろう
いわゆるダークウェブの中にも会員制のものもあるし、隠語だらけのものもあるし。。。
まともに学習できたんだろうか。。。
例えばサイバーの世界で言うとC4W DAZとかFFE4とかみなさん何を指すかわかりますかみたいな。。。
一般的な専門用語でも略語でもないし
板とか飛ばしとかもちゃんと学習できんのかね。。。表に出てこなかったマイナス面の生成AI活用(活用というよりもそのサービスが提供されていることがいけないのですが) が出てきました。
別記事でも述べたように生成AIはユーザーが賢く、使いこなせる状況になることも必要です。
とはいえ、幅広いユーザーに使えるようなAIとして存在するのが生成AIでもあるので難しいところです。ChatGPTは関係ないですね。RoBERTaをダークウェブのデータで事前学習させたもの。
ダークウェブ特有の問題を解く際には通常の事前学習モデルよりも役立つのかもしれません。