今日のオリジナル番組


詳細を確認
AI時代に士業は生き残れるのか?
本日配信
132Picks
Pick に失敗しました

人気 Picker
企業での利用を考えると、このようなデータの漏洩の問題だけでなく、逆にそのようなデータも含む独自のデータを使ったモデルのチューニングによって、自社の目的に対して精度の高い結果を生成できるモデルの構築の仕組みが重要になってきます。
これにはオープンソースで行う場合とプライベートホスティングが可能な商用モデルが必要になります。LLM のファンデーションモデルそのものを開発するのは難易度が高いですが、事前学習モデルの追加学習にはそれほど計算コストはかかりません。
MLエンジニアのいる企業では、先日のメルカリのチーム補足のニュースにもあったように、すでにこれに取り組んでいます。弊社(Weights &Biases)の製品はほとんどのファンデーションモデル開発会社に使われており、追加学習のユースケースもふえる一方です。またHuggingFaceというサービスは数年前からベースモデルプラス追加学習というトレンドに目をつけて開発フレームワークを提供しています。
勃興期だけにどこでも起きうる問題。経営者としては他山の石としないと。

「同社エンジニアが4月に社内ソースコードをChatGPTにアップロードし、誤ってリークさせた。どのような情報を含んでいたかは不明。サムスンの担当者はコメントを控えた。」
ITを理解しないと、とんでもないリスクになる。ChatGPTは一人の人間として扱わないといけない。つまり社外もらしてはいけない情報をインプットしたらいけないという事。当たり前の事なのだが一般の人が使い出すとこういう事になるという事例。
そのうち悪気なく個人情報上げてしまう事件が出てきたりするんでしょうね。
生成AIがどうとかではなく情報セキュリティ教育の問題に尽きますが…。
韓国のサムスン電子は「ChatGPT(チャットGPT)」といった人気の生成人工知能(AI)ツールを利用しないよう従業員に指示したとのこと。

ChatGPTに限らず、生成系AIの利用に関してはセキュリティ面により気をつけたいです。
企業利用において、情報セキュリティ問題が出ないように、ということで各社はインハウスで使えるツール開発だったり、販売に精を出している。動きが早いなあと感心する。
議事録要約してもらう、とかライフハック系の紹介してる人もいるけど、大企業だとなかなかそういうわけにはいかないだろう。
一度事故が起きると止めざるをえない。
でも、この止めてしまったことで使うと決めた企業との差が生まれてしまう。
早期に対策を取り、使い始めるのだと思いますが進化の早いAIなだけに、使う、使わないの議論が今後も続きそうです。
「同社エンジニアが4月に社内ソースコードをChatGPTにアップロードし、誤ってリークさせた」
これはChatGPT以前の問題。でも色々とぶち込んでみたい気持ちはわからなくでもないですが。GitHubで銀行の開発を請け負った会社のエンジニアがソースコードを流出させた事件を思い出しました。確かエンジニアの査定をするためだったような。

日本の企業も機密情報は入力しないというルールを作って活用に舵を切ってるところが増えてきていますが、どこまで守られるかは不透明。マイクロソフトのAzureから提供されているサービスは入力した情報はオープンなChatGPTには学習させない機能があったり、OpenAI自体も社内機密情報をコントロールできる機能の開発は発表してるので、システム的な予防はどんどん強化されていくのでしょう。