Picks
1526フォロー
289749フォロワー


中期経営計画はレカネマブ生むか トヨタとエーザイの粘着性
Kato Junユーザベース SPEEDAアナリスト
考えさせられる命題。
個人的には、持続的に会社が社会と共存しうる存在であり続けるために、長期のパーパスと短期の業績の両方が重要だと思っている。
短期で結果責任を果たしているから自由度があり、それがやりがいや思いもよらない爆発力を持った新商品・サービスの開発につながる。
一方で、パーパスだけであれば規律がなくなり、短期業績だけであれば手段が目的化したり、片手落ちになりやすい。だから両方を意識的にして、その間の中期を自由度をもって勝ち取っていくみたいなことが重要だと思っている。
でも人間組織は失敗する。だから上手くいっていない時には、順番に立て直す。
大ヒットと大炎上をデジカメ「P1」で味わう
Kato Junユーザベース SPEEDAアナリスト
ガジェット好きとしては、懐かしい製品ばかりだし、メモリスティックへの言及と、そのうえでのP1の話が、とても面白い。
規格競争に弱いソニー、現場的には「また似たようなことをやってる」という思い。
一方で、他のメモリ規格と違う形からはじまったP1のデザイン。デザインとか機能は、振り切って制約条件から作られたもののほうが面白いことが多い気がしている。
そして色々な「御法度」はあれど、ヒット。誰にとって御法度なのかは重要。御法度であるにはそれなりの理由があるが、一方で全員が同じ優先順位で選ぶわけではない(でもそこは悪意がないけど見落としやすい現実)。
Google、OpenAIの「ChatGPT」競合「Bard」を限定公開
Kato Junユーザベース SPEEDAアナリスト
同じ質問をしたときに、どういう回答差異が出てくるかが気になってくる。
まずは事実ベースでの正誤、そのあとは読みやすさ。
ChatGPTのミソについての自分のざっくり理解は
①超大量にデータを事前に読み込ませる
②わずかなデータで、①で作ったものを活用して、欲しい回答がでるようにする
③人間が好ましいと思う回答の出し方をする
というもの。
ちなみにGPTはGenerative「Pre-trained」Transformerの略。Transformerという仕組みを使って、事前に学習させ、Generative=生成する(次に続く文字を)。
①のステップで、Googleが元々作ったAttentionと呼ばれるTransformerという処理方法の一種を使って、効率的にできるようになった。
そして、それを特定の作業に対応できるようにするために②がある。機械学習で「教師データを必要とする」というものは、①・②を分けずに、かつ大量の教師データを必要とすることが多かった。一方で人間はそこまで大量のデータがなくても、これまでの蓄積+わずかなデータでできるようになることに近づいた(Few shots learning)。
そして、③でInstructGPTというものを作った。②の拡張版とも言えると思うが、人間が好む出力を作るようにした。
下記などが、相対的に分かりやすくまとまっている(数式部分などはすっ飛ばしているが…)
【論文解説】Transformerを理解する
https://data-analytics.fun/2020/04/01/understanding-transformer/
【論文解説】OpenAI 「GPT-3」を理解する
https://data-analytics.fun/2020/12/07/openai-gpt3/
OpenAI の ChatGPT がセンター試験の英語を受けたら何点ぐらい取れるか試してみた
https://data-analytics.fun/2023/01/29/openai-chatgpt/
ChatGPT 人間のフィードバックから強化学習した対話AI
https://www.slideshare.net/ShotaImai3/chatgpt-254863623

NORMAL
投稿したコメント