• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

【図解】いまビジネスパーソンが「AI倫理」を学ぶべき理由

NewsPicks編集部
1205
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • badge
    スタートアップ経営/シニフィアン共同代表

    新しい価値創造がされる際には、これまでもリスクに対する制度、仕組み、ガバナンスなどが同時に構築されてきました。自動車、飛行機、インターネットもそうでしたね。ルールがないと、自動車は交通事故を起こして危ないとなってしまう。

    そして原因の説明責任が求められる。なぜ交通事故が起きたのか、なぜ情報漏洩が起きたのか、なぜロボットが誤作動したのか。これが説明できるからこそ、ルールが機能するし、説明できるからこそ必要に応じてルールを改善することができる。

    AIが進化するほどに、説明責任を果たすことが難しくなる。説明が難しいと改善も難しくなる。そうするとルールは保守的にならざるを得ない。

    人類にとって生み出す価値が巨大だからこそ、保守的にしすぎることの弊害もある。その辺りの線引きをどこにするか、考えるための6ヶ月。

    開発することと、サービス運用して学習させ進化させることは並行的だからこそ、線引きが難しい。すごく単純には、自動車や飛行機のように、走れる・飛べる範囲を制限するように、AIも同様の制限を加えることで、リスクをコントロールしていくのでしょうか。

    AIが「個性」を持つことが我々にも明確になると、AIはプログラムコードではなく、人類と同じような存在であると認めなければいけない。そんな時代も来る。同一の答えを弾き出すことを期待していた、自動車、飛行機、ロボットとはそこが異なるから、新たな種族を生み出して良いのかという、クローン問題にも似た観点もあるのかなとも思う。

    何がリスクで、何をコントロールするのかという目的と課題がしっかり整理できれば、AIを活用するルールは作れるのではと思います。


  • 製造業 Marketing Manager

    外部の倫理委員会のメンバーが男性ばかりになってやしないか心配したが、それは最初に考えることではあるのよね。きちんと半分は女性で少しだけ安心しました。

    https://www.fujitsu.com/jp/about/research/technology/ai/aiethics/


  • badge
    静岡県立大学国際関係学部 准教授

    イーロン・マスク氏の「AI開発を一時停止するべき」という提案については、マスク氏と、ChatGPTを開発しているOpenAIの因縁を踏まえて読むべきでしょう。

    マスク氏は、当初、OpenAIの出資者の1人で、取締役でしたが、2018年にOpenAIを買収して経営権を握ろうとして、失敗しています。
     その後、OpenAIはマイクロソフトから出資と技術提供を受け、ChatGPTの大ヒットに至りました。
     マスク氏は、ChatGPTとマイクロソフトの提携について、2023年3月、「人類がこれまで作成した中で最も強力なツールであるAIが、今や冷酷な独占企業の手に渡っていることに気付いた」と非難しています。

    マスク氏個人の因縁は、それはそれとして、AIのビジネスでの活用にリスクが伴うのは確かです。
     AI活用に必要なのは、「倫理」ではなく、システムへの理解です。倫理自体は、人間が発言したり振舞ったりする時に必要な倫理と何も違いはありません。それはそれでもちろん理解しておくべきですが。
     どういう時に、倫理に違反するようなリスクが起きるのかを把握するのに必要なのは、システムへの理解で、それは根本的には数学です。ChatGPTのような大規模言語モデルでも、生成AI一般でも、まず確率論です。

    イーロン・マスクがChatGPT開発元のOpenAIを2018年に買収しようとしていたことが発覚
    https://gigazine.net/news/20230327-elon-musk-chatgpt-openai/


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか