• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

GPTなどの大規模言語モデルは脳科学・記号論・言語学の観点で驚くほど良くできている

先端テックとプロダクト戦略の交差点
163
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • badge
    POSTS 代表 / 新刊「生成AI時代を勝ち抜く事業・組織のつくり方」

    GPTなどの大規模言語モデルは言葉をベクトルに変換して処理することで高い能力を獲得していますが、その仕組みが脳科学・記号論・言語学の観点でビックリするくらい良くできていることに気づき、Topicsにしました。

    ジェフ・ホーキンスの『脳は世界をどう見ているのか』で提唱されている脳の仕組みの新説、東浩紀氏と石田英敬氏による『新・記号論 - 脳とメディアが出会うとき』で紹介されているマーク・チャンギージーの「形態要素分析をすると人はみな同じ文字を書いており、かつ自然界の構成要素と同じ頻度分布になる」という驚愕の研究結果、日本で話題の今井むつみ氏と秋田喜美氏による『言語の本質』で提唱される人間の言語の獲得過程などが、驚くほどきれいに大規模言語モデルの働きと相似系を成しています。

    直近のみなさんの仕事には一切役に立ちませんが、知的好奇心をだいぶくすぐる内容になっていると思うので、ぜひ仕事の合間などにご笑覧ください。


  • badge
    東京大学 大学院工学系研究科 航空宇宙工学専攻 教授

    人間の脳が人間の脳を知ることができて、それを超える脳を作り出せるかという議論が一昔前にあった。結論は出たと思う。


  • 教員 /その他

    言語学の分析ではないと思います。

    また、以下については、定説ではありませんし、根拠に欠けるものです。子供の言語獲得の話ではないでしょうか。オノマトペは身体に近く、調音法も両唇系ですので発音が楽です。
    >まず我々の祖先はオノマトペ(ニコニコやギクッといった言葉)を使用するようになり、それらが文法化され、体系化されて、現在の記号の体系としての言語にしていった。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか