Picks
19フォロー
14856フォロワー


AI inside、140億パラメータを持つ日本語LLMサービスのα版を提供開始
佐々木 励ExaWizards / NowDo - AI Brain Catalyst
各AI企業から日本語LLMの提供が増えそうですね。
事業会社にとっては、どう対応して、どこを選べば良いか悩ましいでしょう。オススメのやり方は、
1. まずは素のLLMを試す(ChatGPTや法人向けGPT製品など)
2. 素のLLMで足りないならカスタマイズに挑戦(各社の日本語LLMで検討)
日本企業は、伝統的にすぐITをカスタマイズしがちで、1で試さず、2の検討に時間をかけます。しかし、1で試してないから、検討すべき内容も曖昧で、なかなか進みません。
まずは試すことで、素のLLMの限界を見極め、本当にカスタマイズすべき要件を明確にする。そうすれば、要件を実現できるAI企業も絞られ、AI企業も最初から具体的な検討ができて、Win-Winだと思います。
身近な企業に使われつつあるAI、その解決すべき課題とは?
佐々木 励ExaWizards / NowDo - AI Brain Catalyst
課題と解決策が分かりづらい記事なので、GPT-4に抽出させてみた
課題:
1. ChatGPTという言語ツールが現時点では業務に利用するには安全性が不十分であると見なされている。
2. 企業での言語モデル構築や保守が大変である。
3. セキュリティ、真実性の欠如、知的財産や著作権の保護等の懸念がある。
4. 企業向け生成型AI開発や実装に必要な専門性とスキルを持つプロフェッショナルが不足している。
5. LLMの実行に必要な計算リソース量に関する懸念。
6. データのプライバシーやセキュリティ、インフラやリソースの要求、既存システムとの統合等の様々な要素を考慮する必要がある。
解決策:
1. 企業環境に格納されているデータに焦点を当て、言語モデルを企業環境向けにパッケージ化する。
2. 既存の方法と比べて進歩を実証できるユースケースを見つけることで、導入の成功を図る。
3. HCIを活用し、言語モデルをチャットボットや質疑応答、顧客対応などに適用する。
4. 生成型AIをコンテンツ生成や情報抽出、検索などの分野に応用し、効果を最大化する。
5. 計画的かつ慎重な導入と検討を実施し、データのプライバシーやセキュリティ等の問題に対処する。
OpenAI、AIモデルの「幻覚」を軽減する手法を報告
佐々木 励ExaWizards / NowDo - AI Brain Catalyst
元の記事と論文をざっと読んだ上で、要点は3つ
1. Open AIは、GPT-4の改良を実験している
GPT-5の開発はしてないと言ってたけど、GPT-4の改良はしている模様
2. 段階的な思考に、評価ステップを加えると良い
段階的な思考(CoT)の有効性は知られており、さらに評価ステップを入れると良いのは他の研究でも分かってきており、それに取り組んだ模様
3. GPT-4のモデルの調整が必要なので試せない
Open AIの社外では試せないので、再現できない論文に対する是非は相変わらずありそう
記事 https://openai.com/research/improving-mathematical-reasoning-with-process-supervision
論文 https://arxiv.org/abs/2305.20050
EUと米国、AI業界に「自主的な規範を」 法規制待たず対応強化
佐々木 励ExaWizards / NowDo - AI Brain Catalyst
政府はAI業界に自主規制を求め、AI業界は政府に法整備を求める構図。
この状況について、ネガティヴに見れば責任のなすりつけ合いですが、ポジティブに見れば規制が必要なことに両者が合意している。
実務上難しいのは、生成AIはポテンシャルが高いので、規制が強いと活用しきれず、ただリスクの振れ幅も大きく、具体的な問題は発生してから気付くという点。少なくとも、現時点のAIの性能で人類絶滅のリスクは低いので、問題が発生したら対策する改善サイクルを回すのでしょうね。
そのサイクルの素早さを考えると、政府よりAI業界の自主規制が適しているのは一理ありそうです。

【保存版】20業界のプロが語る「GPTで変わる働き方」大予測
佐々木 励ExaWizards / NowDo - AI Brain Catalyst
AIプロではなく、業界プロが語るのが良いですね
生成AIの活用法はユーザーの方が詳しいと言われ、AIプロだとポジショントークも含まれますし(僕が言うのもアレですが)
人とAIの役割分担を見極めるために、まずは全ての業務をGPTに丸投げすることがお勧めです。そうすると、AI単独の限界が見えてきます。
そのフレームワークは「理解→破壊→再生」。業務のタスクをAIに理解させ、タスクを丸っとAIで破壊して、足りない部分を人が再生する。プロンプトを工夫すれば、多くのタスクを破壊できると気付けるはず。
タスクを分解し、GPTに段階的に思考させるのが、精度を上げるコツ※CoT (Chain of Thoughts)の原理
生成AI、高収入ほど影響「3億人分の仕事自動化」 米で分析・予測
佐々木 励ExaWizards / NowDo - AI Brain Catalyst
生成AIが仕事に与える影響は、今までと異なります
・従来のAI:単純な定型の仕事を自動化
・生成AI:高度で複雑な仕事を自動化
ちなみに、元の論文はタイトルが面白いです
「GPTs are GPTs」(GPTは汎用技術である)
1. GPTs : Generative Pre-trained Transformers
2. GPTs : General-Purpose Technologies
どの職業に影響があるかより、背景にある本質を理解する方が大切です。例えば、スキルの視点だと、科学とクリティカルシンキング(批判的思考)は影響を受けづらく、作文やプログラミングは影響を受けやすい。
他にも色々あるので、週末にでも論文を読むことをオススメします。翻訳版もあります。
[翻訳] GPTs are GPTs
https://qiita.com/taka_yayoi/items/1bdbb59946ebff78a689

【舞台裏】サイバーが「大規模言語モデル」を生み出した必然
佐々木 励ExaWizards / NowDo - AI Brain Catalyst
学習データが肝なので、その視点で要約してみます。
1. 大規模言語モデル(LLM)
・一般公開した68億パラメータのモデルは、Wikipedia とCommon Crawl (自動収集可能なウェブサイトの公開データ)を学習
・社内限定の130億パラメータのモデルは、広告などの自社データも学習
・日本語の言語データは英語に比べて、公開されているものが少なく、国に期待している
→日本語の公開データでは、68億パラーメーターが限界なのかも
2. 追加学習 (ファインチューニング)
LINEやFacebookなど媒体ごと、金融や美容などの業界ごとに、広告効果の高い(クリックされやすい)コピーを学習
→これが広告に特化したモデルの強み
オープンAI、欧州で事業停止も 新AI規制巡り─CEO=報道
佐々木 励ExaWizards / NowDo - AI Brain Catalyst
生成AIは、4段階のリスクレベルの内、2番目のハイリスクに指定される模様。
1.受容できないリスク→禁止
2.ハイリスク→規制
3.限定リスク→透明性の義務
4.極小リスク→規制なし
規制の内容はいくつかあり、Open AIの事業停止につながりそうなのはDやEあたり。
A.リスク管理プロセス
B.高品質な学習、検証、テストデータ
C.文書化、ログ機能
D.適切な透明性、ユーザーへの情報提供
E.人間による監視
F.堅牢性、正確性、サイバーセキュリティ
(参考) EUのAIに関するフレームワーク by 経産省
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/2021_001_05_00.pdf

NORMAL
投稿したコメント