有料コンテンツの購読
現在、Web上での有料コンテンツ購読機能は準備中です。
ご不便をおかけしますが、有料コンテンツを購読希望の方は
モバイルアプリ上で購読の手続きを行ってください
認証方法を選んでください
ご協力いただきありがとうございます。
いただいた情報は実名認証のみに使用いたします。
利用可能になる機能
コメントの公開範囲が
すべてのユーザーまで開放されます
フォロー中トピックスの投稿にコメント・返信ができるようになります
Facebookで認証を行う
LinkedInで認証を行う
名刺・学生証で認証を行う
お名前の変更には
再度実名認証が必要です
Facebookで認証を行う
LinkedInで認証を行う
名刺・学生証で認証を行う
名刺または学生証を利用して
実名認証を行いましょう
名刺または学生証をアップロード
※ 名刺等の情報は照合にのみ利用します
※ アップロードされた資料は公開されません
入力された情報に虚偽があった場合、認証が取り消されることがあります。
これに同意の上、下記のチェックボックスにチェックして登録を完了してください。
実名認証を行う
を利用して
実名認証を行いましょう
入力された情報に虚偽があった場合、認証が取り消されることがあります。
これに同意の上、下記のチェックボックスにチェックして登録を完了してください。
実名認証を行う
実名認証が完了しました
ご協力いただきありがとうございました。
一層のコミュニティ活性化に取り組んで参ります。引き続きNewsPicksをご活用ください。
利用をつづける
実名認証をして
コメントを発信しよう
現在あなたのコメント公開範囲は
フォロワーのみに限定されています
信頼性の高いコメントコミュニティをつくっていくために、実名認証にご協力をお願いします。設定を行うことでコメントの公開範囲が「すべての利用ユーザー」に開放されます。
実名認証を行う
あとで
学割プラン継続確認
学割プランは毎年月に更新の確認を行っております。
月以降も学割プランを継続されたい方は、
学生情報を更新してください。
学生情報を更新されない場合、
次回更新時に自動解約となります。
卒業される方等、プレミアムプランに移行される方には
1ヶ月無料期間をサービスいたします。
学割プランを更新されない場合
学生の場合
学生の間であれば、またいつでも学割プランにお申込み頂けます。
社会人になる場合
いま、アンケートに答えてプレミアムプランに移行すると1ヶ月無料の特典が受けられます。
ここで「更新しない」を選択すると、後からは1ヶ月無料の特典は受けられなくなりますのでご注意ください。
メール認証をしてください
ご登録いただいたメールアドレス宛に届くメールから
URLをクリックし本人確認をお願い致します。
届いてない場合、見つからない場合は下記から再送と認証をお願い致します。
再送設定する
閉じる
新しいトップページへの
フィードバックのお願い フィードバックを受けて改善いたしますので、ご意見・ご要望をいただけませんか?
「死にたい」とか「消えたい」という話をすると、content policy違反にもなるから、こういった感情を拾ったり対応できたりするのは人間でないと規約的に難しいのだろうか?と思ったり、言葉が短文だったりすると思うように使えなかったりする。
自分を傷つけたいことや自分が消えたいことに対しての回答を、chatGPT4など規約的に対応が難しいし、今後も企業としてそれを扱うのは難しい?と考えたり解決手段のなさを考えると、人間が対応し、そこに向き合い、リスクを引き受けなければいけないのか?とも思う。
私はそこまで詳しいわけでもないので、この辺り教えていただける方がいたら、ぜひ教えてほしい。門外漢ですいません。
若い人はもう知らないと思いますが、昔はwindowsの新バージョンが出るたびに量販店では徹夜での行列ができていたものでした
さて、本題のchat GPT4ですが、進化のスピードが早すぎてこのペースでいくとあっという間にシンギュラリティが来そうな感じですね
個人的には画像にも行ったのがすごい。認識する側はできていくとして、生成する側もテキスト以外のものもやってしまう方向に進化していくのか、そこは全然別なのかどうなんでしょう(頓珍漢な問いなのかもですが。。)
一つは「嘘をつく」ということですが、これはGPTはもちろんAI(機械学習)の性質からしてみるとごく当然のことで、その仕組みとしてはインターネット上に落ちている大量の情報をデータとして事前に学習し、あくまでそこから確率的に「正しい」と予測しているものを答えとして返していることに要因があります。
もう少し詳しくすると、GPTは、内容や論理を理解しているわけではなく、学習したデータ(ネット上の文章)の傾向から、「この単語に次にくる単語はこれかな?」という予測を連続的に繰り返し、文章を生成しています。そのため、その精度はこれまでを圧倒するものではあるものの、確率の上では正しい一方、求める答えに対してはトンチンカンな生成を行うことはごく自然なことでもあります。
そして、さらに決定的な要因はネット上の大量のデータを元にしているということで、裏を返すと、ネット上に溢れている誤った情報をも学習しているということです。感覚的にもわかるところですが、残念ながらインターネット上は正しい情報よりも、フェイクや誤情報で溢れています。純粋無垢なAIがこれを正解データとして学習していれば、当然ながらそれを出力することになります。
少し穿った言い方を許していただければ、GPT4が返してきた誤った答えは、私たち人間が過去に生み出してきた垢(あか)という側面もあるということです。
また「未来を予測できない」「創造できない」という限界も指摘されていますが、これも上記のデータに依存するもので、あくまで事前に蓄積・学習させられたデータを答えとして返している=データとして持っていないことは返せないということで、これもまたごく自然な挙動でもあります。GPT3.5の場合は、2021年頃までのデータを学習させていると言われていますが、それ以降の情報はもちろん、未来のことはやはり出力することはできないということになります。
限界はありつつも、これほどまでの文章生成を実現するAIモデルは存在しませんでした。この進化したツールの限界を把握しつつ、今のビジネスをアップデートさせるための活用法を、私たち人間が生み出していくことが非常に大切なのだと思います。
①「ツボを外さない」答えをくれる
②「正確さ」が向上した
③画像の内容を詳細に説明できる
④プロ並みの知識を獲得した
⑤編集者に匹敵する文章スキル
⑥ユーモアセンスが(やや)向上した
⑦「推論」も(ある程度は)できる
⑧「共通テスト」に合格できる
日々のアップデートにより「正確さ」はさらに向上していくはず。
同時に「完璧に正確」というステージには永遠にたどりつかないので、注意が必要です。
この点においては、人間も同じですけれど。
・波に乗って大儲けする人
・普通に使いこなして生産性を上げる人
・使いこなせない脱落者
を産んできたように思います。脱落者と言ってもその場にとどまっているだけなんですが。資本主義だと理論的にはその場にとどまっていることは、明確に所得が落ちていく事と同じ事になってしまいます。
またもや同じ事を繰り返していき格差がひどくなってくるんでしょうね。全て同じ世代に起こっている事なのが凄い。
世の中の大抵の問題はパターンマッチングのお化けみたいな構造で解けてしまうが、競技プログラミングのような物事の言いかえを含めた論理展開は得意ではない……?
回答を鵜呑みにできず、本当に正しいかをいくつかの観点から検証しなければなりません。特に出典を聞くとURLを表示してくれますが、サーバーにアクセスできません、という回答が多い。
そういう悪いクセを知りながらも、これまでの検索にはない使い勝手の良さを感じる今日この頃ではあります。
過去数十年、AIは常識を持ちえないという課題に悩まされてきました。だから、深層学習であっても問題の定式化が応用のキモでした。それを膨大な文書を学習することによって、一見解決できたようにみえます。いわゆるフレーム問題の解決です。この例だと「戦車(自動車)が通り抜けられる車高と車幅に制限がある」が常識ですね。
ただし、本当に推論している訳ではないようにも思えます。類似のそれっぽい記述を拾ってきた感もあります。ただし、拾い方に工夫があって、常識を活用したように見えるところは実用上は極めて有用です。
一方で、本当の推論(ロジック)は持っていないのがGPT系の課題であることは間違いないでしょう。だから、メタのCICEROのように計画エンジンと合体させるのは一つの方法でしょう。