• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

オープンAIの研究者、アルトマン氏解任前にAI巡りリスク指摘=情報筋

236
Picks
このまま本文を読む
本文を読む

コメント


選択しているユーザー

  • badge
    KBTM 代表

    今回の真相について、私たちはまだ重要な何かを知らされていないと思った方が良いと思います。それがAIの安全性に関わるものなのかどうかわからないですが、その前提で今回起きたことを解釈した方がいい。


注目のコメント

  • ユーザベース SPEEDAアナリスト

    OpenAIは、直近でAGI(汎用AI)でブレークスルーがあったと報道されている。Q*(Qスター)と呼ばれるもので、それがあまりにパワフルゆえに、人の意図に反さないかというAlignmentがAI倫理回りで話題になり、また今回の解任のトリガーとなった(そして元鞘?)イリヤ・サツキーバー氏は、ここの担当(OpenAIではSuperalignmentと呼ばれている)。
    このQ*やAI倫理回りがどうなっていくか、テクノロジーや人がそれとどう付き合っていくか、その具体のプロダクトという観点でも今後の注目点。

    https://openai.com/blog/introducing-superalignment

    ※下記英語記事からのコメント転載
    Exclusive: OpenAI researchers warned board of AI breakthrough ahead of CEO ouster -sources
    https://newspicks.com/news/9229169


  • badge
    Scrum Ventures Founding Partner

    今回の件で最初に思ったのは、「AIというものが人類にとってどのようなものであるかということ認識を改める必要がある」、そして「歴史は繰り返す」ということ。2015年にOpenAIが設立され、2017年にアシロマAI原則が発表。2018年にTransformerが登場し、AIが急速な発展を遂げる。2023年時点でのAIの可能性とリスクをシンプルにまとめれば、「人類の急速な進化」「ビジネスの可能性」「AI自体が人間を絶滅させるリスク」「AIの兵器利用が進むリスク」。OpenAIは、まさにこうしたAIがもつリスクも見据えた上で非営利法人として設立され、AGIが開発されたとしても営利法人にはライセンスしないという規約になっている。一方で、OpenAIがもつビジネスとしての可能性が大きいため、創業者、VC、株主などの意見が衝突したということでしょう。これはまさに1900年代に原爆開発が加速し、オッペンハイマーが主導した開発の結果、混乱の中トルーマン大統領が日本への投下を決定した(実際は決断を明確にはしていないという説もあり)という歴史を想起させる。テクノロジーが人類を発展させてきた最重要なドライバーであることは論をまたないが、一方で今の常識を遥に超えるテクノロジーが生み出されたときに、それを適正にハンドルできる意思決定、統治機構を作るということは非常に難しい。創業者、VCなどそれぞれの持分が明確にはわからないので、どうガバナンスすべきかというのはコメントが難しい。一つ言えるのは、原爆が基本的には政府のお金で開発が進んだのに対して、OpenAIは、個人やVC、組織企業のお金で開発をされており、その点もAIのもつリスクを増大させている。原爆とAIの最大の違いはそれがソフトウェアであるということであり、データが鍵だという点。そういう意味では、OpenAIとはまた異なり、イーロンマスク個人が支配権を完全にもつXや新しいAIプロジェクトなどは全く異なるリスクを持っている。また、ウクライナやイスラエルで戦争が起きている中、今も世界中でAI兵器の開発が進んでおり、AIのもつリスクの側面が進展していることは強調しておきたい。


  • badge
    ラトナ株式会社 代表取締役CEO

    AI関連は、テクノロジーのスピードと安全性の価値観で意見が分かれてしまいやすいので(特に一定の基準もないので...) このような議論は、各所ですでに色々起こっていそうですよね。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか