信頼ある生成AIを構築するポイントとは?
コメント
注目のコメント
生成AIの信頼性についての良記事です。AI活用する企業の方々にお薦め。
大規模言語モデルは、言語の表面的なルールを詳しく学び「形式言語能力」をマスターした。一方で常識、推論能力などの非言語的スキルを表現するための「機能言語能力」はほとんどマスターしていない、とのこと。
簡単に言えば意味を理解していません。言葉が流暢なだけに、専門家でも誤情報を受け入れてしまいがちです。
また記事では、AIを安全で透明性の高いパートナーにするために、ユーザーがAIの長所と短所をより深く理解することが必要である。アウトプットの信頼度を出すようなアルゴリズムの助けや、情報源の明示が有用と言っています。
現時点では、生成AIはロジカルに信頼性を担保できません。多数のテストパターンを試して妥当な結果が得られると示すことがせいぜい。それでも正確性100%にはなりませんから、人間の監視も必要です。
むしろ正確性100%ではない前提で、ワークフローやサービスを設計することが、生成AI活用のキモと言って良いでしょう。テクノロジーは使い方が重要です。
そのテクノロジーを構成する要素などを理解していないと「合わない」ところに配置され能力を発揮できない。なんてことも発生します。この辺りは人も同じです。
また、デジタルは完璧な存在ではありません。過度に信用せず上手く付き合っていく必要があります。モデルと言うよりはデータでしょうね。例えばAdobeは自前のクラウドで各コンテンツのクリエイターのデータを収集できるため、作成過程からユーザーのレベルまで分類して学習することができます。これはネット上には通常上がってこない貴重な学習データです。結果としてAdobeは版権問題も回避しつつ独自の生成AIを自信を持って発表できています。