Picks
35フォロー
1608フォロワー
大学教授ら「研究スキル売買」 サイトに118人、能力偽装の恐れ
毎日新聞
「稼げる大学」へ外部の知恵導入 意思決定機関設置、来年法改正
時事ドットコム
暦本 純一東京大学大学院情報学環 教授
「稼げる大学」と言う、会議資料には登場しない非常にミスリーディングなタイトルのために、「稼げる研究だけをしろというのか」といった議論が巻き起こってしまっていますが(報道の無責任 )、会議の議題は大学ファンドなどについてですね。 大学ファンドを運用してその運用益を大学運営の予算にしようという方向そのものは評価すべきだと思います。実際にハーヴァードやイェールなどはそういう運用益が大学予算のかなりを占めるようになっているので、むしろ基礎的長期的な研究教育を継続するためのものと位置付けられています。 参考: https://coralcap.co/2021/05/yale-university-endowment/ ただし、今回の大学ファンドは原資が結局税金なので、「ファンドがうまく回っているようだから大学運営交付金を減らそう」といった方向にいかないように注意する必要があります。 そもそも、日本は大学への寄付が残念ながら少ないの現状ですね。「大学や教育は大事」という人は多いけれど、自分のポケットから少しでも寄付しよう、という人が少ない(ので、ファンドも税金が原資ということになり国から色々ガバナンスに横槍を入れられる)。 もちろん「大学や教育は大事なのはわかっているが家計も苦しいので」ということなのかもしれませんが、そうだとしても「家計」を「財政」に置き換えるとそのまま財務省の言い分になってしまうのですね.. (ちなみに大学への寄付はちゃんと所得控除の対象になります)。
100Picks
Tesla、人型ロボット開発に参入 2022年にプロトタイプ公開
ITmedia NEWS
暦本 純一東京大学大学院情報学環 教授
冷静に考えるとlatecomerなのだがそういうことを微塵も感じさせないTesla力.. 追記で、 ヒューマノイド型が本当に必要なのか、という点にコメントすると、ヒューマノイド型を推す主な理由は (1) 人間と同じ外形(できれば同じ体重)のロボットを工学的に構成できるか、という科学技術的チャレンジ (2) 人間の社会に溶け込むには、ヒューマノイド型が有利 という主に2つの論点があると思います。(1)に関しては、今回のTeslaのデザインモックはあえて人間そっくりにつくっていて(従来のhumanoid robotは歩行中の関節角など細かな点で人間とは異なる)、そのチャレンジを追求するという立場であるととらえることもできます。 (2)はヒューマノイドロボットを進めている立場からもよく聞かれるのですが、「(二足歩行ができない) 車椅子の人は人間生活プラットフォームでは排除されるのか」という疑問が出てきます。また、たとえば二足歩行ロボットが階段の上で転んで落ちてきたときに、下に子供がいる、という状況まで想定すると、簡単に「人間の形をしていれば社会に溶け込みやすい」とは言い切れないでしょう。 という意味では、犬型(四足)ロボットは人間が行動できる環境では問題なく行動でき、不整地での歩行なども安定しており、(工学的に無理がないので)低下価格化も進んでいるという点で近未来のロボットの形態としては一つの方向を示しているとおもいます(たとえば工事現場の監視ロボットなど)。 ただ、犬型のロボットに対する人間の嫌悪感(恐怖感)は無視できません。たとえば https://www.afpbb.com/articles/-/3344739 などの事例もあり、社会がロボットを受容するプロセスは想像以上にセンシティブだと言えます。
962Picks
【提言】子どもが将来「食える大人」になるために必要なこと
NewsPicks編集部
暦本 純一東京大学大学院情報学環 教授
私は学習や発想に関しては実は「インプット」派で、この記事とはすこし違った方向かもしれませんが、たとえばブレストはあまり効果がなくて、皆で情報を持ち寄るインプット大会のほうが結局アイデアがでると思っています。 それに関連して、ここ数年AIで非常に注目されている pre-training & fine-tuning という考えがあります。「人間を超えた」みたいな紹介をされることもあるBERTやGPTなどもこの考え方に基づいています。 この pre-trainingというのがまさにインプットで、自然言語を理解するAIならば、文章の中に「穴(マスク)」を開けて、その穴を補完するようなAIを育てます。つまり「穴埋め問題」というクリエィティビティとはおよそ無縁(のように見える)訓練をひたすらします。そして、このpre-trainingができたAIに対して、今度は目的(botの質問応答や、ニュース記事の分類など)に特化した訓練をします。そうすると、極めて短期間に高い性能を出すようになることが知られています。同じpre-trainされたAIが、様々な応用を短期間で学習することができるのです。 このpre-training & fine-tuning の方法が、AIだけでなく人間の知育にも当てはまるとすると、pre-trainingが不十分な状態で無理やりアウトプットを求めるのはあまり得策ではありません。たとえばあまり本を読んでいない子に「感じたことを自由に作文して」といっても、実はたいして個性的なものは出てこない、ということだと思います。 ということは実は千利休が「守・破・離」としてすでに言っていることですが(あるいはAIの先端理論と千利休が本質的に同じことを言っているのが興味深いところですが)、正確に引用すると「守り尽くして破るとも離るるとても本を忘るな」 (利休道歌) なので本(インプット)はどこまでいっても大切だと考えています。 追記すると、それでも「アウトプット」という場合にはその内容を大人が細かくジャッジしないで「100個出せ」方式がいいと思います: 『仕事では「100案出せる人」がめちゃくちゃ強い理由。実際100案考えてみたらよくわかった』 https://newspicks.com/news/6095967?ref=pickstream_802741
1218Picks
NORMAL