この連載について
この記事の著者 / 編集者
この記事に関連するユーザー
関連する企業
株式会社サイバーエージェント(英称:CyberAgent, Inc.)は、Ameba(アメーバブログ)関連事業とインターネット広告事業を主とする企業である。本社は東京都渋谷区に所在。 ウィキペディア
時価総額
5,015 億円
業績



新規登録またはログインすると
チャートを見ることができます
新規登録する
ログインはこちら
この連載の記事一覧

【核心】グーグルCEOが語った「生成AI」の商機と危うさ
NewsPicks編集部 415Picks

【号砲】グーグルがようやく反撃、「検索」がAIで大変化
NewsPicks編集部 1233Picks

【電撃移籍】今こそ、進化したAIを製造業に実装する時だ
NewsPicks編集部 605Picks

【下剋上】天才数学者、「クラウド3強」に勝負を挑む
NewsPicks編集部 590Picks

【李開復】ChatGPTでAIは「2.0」にアップデートされた
NewsPicks編集部 416Picks

【必読】AIで「失業」しないための戦略はこれだ
NewsPicks編集部 1549Picks

【2041年】SF作家とAI学者が予測する未来
NewsPicks編集部 452Picks

【東大×ソニー】メタバース時代の授業と職場を「のぞき見」
NewsPicks編集部 264Picks

【東工大✖️富士通】理工系大学こそ、変革が必要だ
NewsPicks編集部 227Picks

【W杯で大注目】あの「VAR」はソニーの技術だった
NewsPicks編集部 453Picks
1. 大規模言語モデル(LLM)
・一般公開した68億パラメータのモデルは、Wikipedia とCommon Crawl (自動収集可能なウェブサイトの公開データ)を学習
・社内限定の130億パラメータのモデルは、広告などの自社データも学習
・日本語の言語データは英語に比べて、公開されているものが少なく、国に期待している
→日本語の公開データでは、68億パラーメーターが限界なのかも
2. 追加学習 (ファインチューニング)
LINEやFacebookなど媒体ごと、金融や美容などの業界ごとに、広告効果の高い(クリックされやすい)コピーを学習
→これが広告に特化したモデルの強み
あくまで私の解釈ですが、サイバーさんのモデルは、日本語生成の点において海外モデルに対抗することを目的としたものではなく、広告コピー生成というニッチ領域で日本人に最適化した「ドメイン特化モデル」であることに気付きます。
マーケティング観点では、「広告コピー」と一言で言っても、やはりターゲットに好まれる文言や、媒体・チャネルごとによく使われる表現、他のコンテンツとの競合性など、多くの要素を加味した上で作成する必要があります。
サイバーさんのLLMは、単なる汎用的な「生成AI」という枠を越えて、適した学習データを用いることでマーケティング機能を持たせ、「生成AIによる最適化」にまで踏み込んでいる点に価値が見出されます。
こう見ると、やはり産業特化・地域特化・ビジネスドメイン特化など、ニッチな部分に特有のデータを収集・学習させ、汎用的なLLMでは出力できないような解を出力させる点に、残念ながら世界的には開発に出遅れてしまった和製LLMの勝ち筋があるのだと思います。
一方、記事内で石上さんも触れておられますが、こうした産業データ・ビジネスデータの収集を、いかに国が主体となって進めるかが大きな課題です。一企業で集められるデータ量には限界があり、利害も絡んでくるため、政府やアカデミアが主となって、共通データ基盤を作るような動きが、いま求められていると強く感じます。
そこで、特定のドメインに限定しない大量のデータを学習させることで一般的な知識を獲得させた基盤モデルを生成し、タスクごとには比較的少量のデータを追加することでよりその業界や媒体に適したコピーを生成することを可能にする。
大規模言語モデルの作成モチベーションが事業に直結しており、実際に運用もされている素敵な事例だと思いました。
日本にはデジタル人材が事業会社ではなく広告会社やSIer、コンサルなどベンダ側に集まりすぎてると感じます。
日本市場の規模以上にはなりませんが、戦い方としてはアリだと思いました。
話される記号、手で書かれる記号であった言語が、0と1で処理されるデジタルデータになったのが、だいたい20世紀の半ばです。
言語がコンピュータで数学的に処理できるようになりました。
コンピュータというのは、つまり大量の計算を高速でできる計算機です。画像であれ言語であれ、デジタル化すれば数学的に処理できるようになり、コンピュータで扱えるようになります。
言語を大量に(それこそ数千億のパラメータ)をコンピュータで処理する、学習させると何ができるかというと、自然な(確率的に頻度の高いパターンの)会話や質疑応答のやりとりができるようになります。
大規模言語モデルは、デジタル化された言語を大量に学習したうえで、文脈に即して、確率的によくある会話や文章を構築して見せるという、コンピュータの数学的な言語処理です。
それだけのものであり、独自に新たな科学的発見をする、といったものではない、ともいえます。ただし、現存する膨大なデータを取捨選択して組み合わせるだけでも、それまでにない知見につながることは十分ありえます。
コンピュータが構築する会話や文章は、どのようなデータ(デジタル化された言語)を学習しているか、で違ってきます。
ネット上の言語といっても膨大ですが、電子書籍であったり、ソーシャルメディアであったり、公文書、新聞雑誌記事、などなど、その全てを学習したAIはまだありません。
ネット上にあるデジタル化された言語の中には、学習が許可されたものとそうでないものがあります。
ツイッター社は、ツイッター社の許可なくツイートをAIに学習させることを禁じています。
新聞社や出版社も自社の言語データを許可なくAIに学習させるのを禁じているところがあります。
大規模言語データは、今や莫大な価値のついた資産です。
おそらく、国家的な戦略的資産になります。
デジタル化した言語を、どのようなテキストを、どれだけ大量に学習したかで、AIの性能が決まります。少なくとも、大規模言語モデルのAIであれば、そうなります。
大手の広告会社へのインパクトは少ないでしょうが、中小や個人の広告会社にとっては、深刻な影響があるかもしれません。
※個人的な見解であり、所属する会社、組織とは全く関係ありません