• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

マスク氏ら、AI開発の一時停止訴え 「社会にリスク」

698
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

選択しているユーザー

  • 自動車会社勤務

    由々しい問題、これから注目すべきニュース
    AI熱に火がついた今、止められない実態
    公開書簡をしているFutureoflife.orgでは、以下を警鐘。
    ・一旦aiが自らの開発を出来るようになれば
     爆発的に改良が進み、人類の知識はすぐに
     超越される
    ・戦争や貧困を根絶するかもしれないし、
     それとともに人類を根絶するかもしれない
    ・aiのリスクは、目的達成のため(善悪など)
     意識ない、熱感知ミサイルと同じ
    ・aiの安全な開発、リスク統制に今から
     取組む必要がある

    https://futureoflife.org/open-letter/pause-giant-ai-experiments/

    抜粋
    Once AI systems can themselves design smarter systems, we may hit an 'intelligence explosion', very quickly leaving humanity behind. This could eradicate poverty or war; it could also eradicate us.

    AI doesn't need consciousness to pursue its goals, any more than heat-seeking missiles do.

    supporting AI safety research and risk governance.

    Since it may take decades to complete this research, it is prudent to start now. AI safety research prepares us better for the future by pre-emptively making AI beneficial to society and reducing its risks.


注目のコメント

  • badge
    東京国際法律事務所 代表パートナー 弁護士

    当局の介入への言及がありますが、現に違法なことが行われているわけでもないので、介入する理屈が立たないでしょう。既存の法的規制の枠組で解決するのは難しいので、有力なプレイヤーによる共同自主規制のようなソフトロー的枠組で対処するしかないように思いますが、それだと抜け駆けを完全に防ぐことは無理ですね。

    望ましいルール作り、ルールの実効性を担保する枠組作りなどを今すぐ始めるべきということだと思うのですが、これまた難易度の高いプロジェクトですね。非常に興味深いです。


  • badge
    静岡県立大学国際関係学部 准教授

    「マスク氏ら」というのが、他に誰が入っているかというと、スティーブ・ウォズニアック氏が入っていますね。
     おおむね、AI関係の経営者や研究者が多いです。といっても、「AI関係」というのは、今や自動運転、画像認識、ロボティクス、製薬、他にも多岐に渡ります。

    この声明で懸念されているのは汎用AI、いわゆるAGIの成立で、AIの成長が昨年から予想以上に速いので、いったん、6か月間、AIの学習を停止させよう、という呼びかけです。

    「米国で停止してもその間に中国がAIの開発を進めるだけではないか」という反論も出ています。

    https://futureoflife.org/open-letter/pause-giant-ai-experiments/


  • badge
    株式会社ロケットスター 取締役 共同創業者

    数週間前にイーロン・マスクがAIの専門家に接触していると報道されたのはこの件でしょうかね。自分も設立に関わったOpen AIの凄さと影響力とスピードを自ら止めるとは。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか