• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

AIの安全性を評価する専門機関を来年1月設置へ 岸田総理が表明

32
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • badge
    ラトナ株式会社 代表取締役CEO

    他国でも発足しているこちらですが、イノベーションの加速を止めないように下記のようなことを機関の構成員としては各業界や立場にダイバーシティがあるようにしてほしいですね。

    おそらく、伝統的な大企業ばかりですと自社開発のLLMの方に偏りそうですし(オープンソースを基本的に反対するでしょう) 研究機関や専門家だけですと、実際に商用で役に立つAIが減っていく(サーバー負荷がかかりすぎて大きいサーバーを持たなければ/維持しなければ意味ない...のような) かと思います。


  • badge
    株式会社エジソンエーアイ 代表取締役

    AIの安全面における懸念事項は主に以下があげられるかと思います。もしこの記事でいう安全性への評価が以下のような内容に対するものであった場合、これらを評価するために開発者側はシステムや学習データを開示しなければならないのかな。その部分がAI企業にとってのアセットで簡単に社外に出すものではないので、安全対策は必要だと思うものの、評価の運用も正直難しそうだなと思いました。(この記事でいうリスクが具体的に何を指してるかわからないためなんとも言えませんが。

    * 誤用と悪用: AI技術が不正や犯罪活動(例:ディープフェイクによる詐欺や偽情報の拡散)に利用される可能性。
    * 倫理とプライバシー: 個人のプライバシー侵害や倫理的な問題(例:顔認識技術の監視への使用)。
    * 自律性と制御: 高度なAIが人間の意図や制御を超えて行動するリスク。(人間を排除することを正解と自己判断する可能性も出てくる)
    * 偏見と公平性: AIに組み込まれるデータの偏りにより、差別的な決定や不公平が生じる可能性。
    * 透明性と説明責任: AIの意思決定プロセスの不透明さによる説明責任の問題


  • badge
    三菱総合研究所 執行役員兼研究理事 生成AIラボセンター長

    AIの安全性評価指標や手法を具体的に示してもらえるとありがたいです。期待してます。

    逆にそれが無いと、AI活用に躊躇する企業が続出する懸念があります。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか