新着Pick
602Picks
Pick に失敗しました

人気 Picker
すごいなぁ。私がAIについてThought leadershipを書いていた2018年頃は、「汎用型AI」「特化型AI」などと言って、2030年頃には汎用型AIが実現するとか、いや無理だとか言われていました。最近では、「2200年までに、汎用型AIが50%の確率で実現される」としている専門家もいるようですね。

“数カ月の学習期間に、GPT-3は大量の書籍、ウィキペディアの記事、その他のオンラインテキストの山から、1750億以上のパラメータ(パターン)を特定した。これらのパターンは、人間の「言語の地図」に相当する。
言語の地図とは、ブログを書くときにも、ソフトウェアプログラムのコードを書くときにも共通する「人が文字をつなぎ合わせる方法」を数学的に表現したものだ。このマップを適用すると、GPT-3はもともとの設計にないあらゆる種類のタスクを実行できる。”

これ、もう本当に人間の学習プロセスと思考回路に極めて近いですよね。

今までは、AIが出来ることは、
インプット(ゴミみたいなデータが入っていないことが重要)

判断のロジックが明確

アウトプット
というイメージで(なので、保険のアクチュアリーや財務会計などはAIに置き換わりやすいと言われていた)、この判断ロジックが定量的、規則的であればあるほど、アウトプットの質も上がる、というイメージだったのですが、これが更にもう一段階、「人間だけが出来る」と思われていた領域に近づいた感じです。

もちろん課題は多いでしょうが、この先はおそらく、これまで以上に倫理学や哲学(何をどこまでAIに判断させるのが正しいのか、AIが進化を続ける中で人間の存在意義とは何か等)とともに、検討していく領域になるんでしょうね。興味深い。
人はより創造的な仕事に注力できるようになる一方、ルーチンワークを好む方にとっては住みにくい世の中になるのだろうなと思います。
今日のScrumのTwitter https://twitter.com/ScrumVenturesJP で紹介したスタートアップもそうでしたが、最近「GPT-3系」スタートアップ、良く連絡きます。間違いなく革命的なイノベーションです。
人間は、本音と建前を持っている。インターネットにある大量のデータを学習させたときに、人間の潜在的な意識を顕在化させてしまっているというリスク部分が印象的。
SNSなどの課題、一方で過度のポリティカルコレクトネスによって本音が臨界点を超えるまで鬱積して、顕在化したときには極めて強い負の感情になっている点など社会課題自体を、期せずしてと言うべきか構造通りというべきか、表しているように感じる。
Turing testどーぞ

あ、政府向け企画書の、技術とは関係の薄いめんどくさいページ (大体40%-60%) 自動で書いてくれたら、センセイ方と大学のスタッフさん達の負荷が物凄く減りますねぇ

すると企画書数が増えてレビューが大変になるのですが、その時はレビューの、最初のサマリーパラグラフも

すると、中身にも使うヒトが絶対現れてきて、ついには機械生成の企画書を機械がレビューする、という効率化が達成されますねぇ

その時点で、 大学には、ごく小さい hidden markov chain で充分な程度の無駄な書き物が如何に多いのか、という事が分かってくるかと

また今日も書かなくちゃ、脳内小型 hidden markov chain 使って
AI文章生成言語モデル「GPT-3」で、ソフトウェア開発が劇的に変わりそうです。オフショアの開発も必要なくなる。もちろん国内のプログラマーも不要に。デジタル革新のスピードが飛躍的に早まります。