• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

悪のChatGPT?ダークウェブのデータだけで訓練された大規模言語モデル「DarkBERT」が発表

TEXAL
86
Picks
このまま本文を読む
本文を読む

コメント


選択しているユーザー

  • 通信系

    このモデル、たぶん悪い文章を生成することはないです。
    そもそもBERTとGPT って異なる用途目的で作られたアルゴリズムです。
    GPT はみなさんご存知、“「G」enerative”とつくことからもテキストの生成に長けたアルゴリズムです。
    一方RoBERTa の派生元であるBERTは、分類が得意なアルゴリズムです。

    元の論文を読むと
    ・Dark web activity classification
    ・Noteworthy Thread Detection
    ・Ransomeware & leak site detection
    ・Threat Keyword Inference

    あたりを応用先として想定しているらしく(まさに分類や検知で、文章の生成はできてない)、「悪者にハッキングの仕方を教える!」みたいな皆さんが危惧することは起きないと思います。


注目のコメント

  • badge
    多摩大学ルール形成戦略研究所 客員教授

    うーんどこまで潜れてるんだろう
    いわゆるダークウェブの中にも会員制のものもあるし、隠語だらけのものもあるし。。。
    まともに学習できたんだろうか。。。
    例えばサイバーの世界で言うとC4W DAZとかFFE4とかみなさん何を指すかわかりますかみたいな。。。
    一般的な専門用語でも略語でもないし
    板とか飛ばしとかもちゃんと学習できんのかね。。。


  • badge
    ラトナ株式会社 代表取締役CEO

    表に出てこなかったマイナス面の生成AI活用(活用というよりもそのサービスが提供されていることがいけないのですが) が出てきました。

    別記事でも述べたように生成AIはユーザーが賢く、使いこなせる状況になることも必要です。
    とはいえ、幅広いユーザーに使えるようなAIとして存在するのが生成AIでもあるので難しいところです。


  • badge
    株式会社LayerX ML Team Manager

    ChatGPTは関係ないですね。RoBERTaをダークウェブのデータで事前学習させたもの。

    ダークウェブ特有の問題を解く際には通常の事前学習モデルよりも役立つのかもしれません。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか