• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

アルゴリズムには限界-AI駆使するヘッジファンド会社ツー・シグマ

316
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • 研究者、ジャーナリスト、作家、メディア編集者、経済評論家

    two sigmaのようなクオンツ系のファンドの発言だけに興味深い。裁定機会を機械的に無リスクで積み重ねていくタイプの戦略(初期のソロスのような戦略)でない限りは、つまり読みの要素が入るものは、人間であろうがAIであろうが、リスクは本質的に排除できないだろうと思う。
    AIがデータを大量に解析して統計的に蓋然性の高い方針をとったとしても、それは過去のことであり、新しい状況をどう解釈し、自身の過去の分析をどのくらい適用するか(そしてどのくらい無視するか)というところまでを考えることが、ここでいうコモンセンスに含まれるならば、常に限界はつきまとうだろうし、逆に限界がないといわれても悪魔の証明のようなもので、検証のしようがなく、そうですねとは返答し難いだろう。
    アルファ碁のような例は特殊であり、環境やルールが頻繁に変わるような状況では、安定したパフォーマンスを出すのはなかなか難しいのではないか。名うてのベイジアンエンジンであっても織り込む前に環境やルールが変わってしまっては、頭はないかもしれないが、抱えたくなってしまうかもしれない。


  • 大阪工業大学 情報科学部 准教授

    データが少ない分野ではAIがし辛いのは事実だが、データが少ないという条件自体はAIも人間も同じであり、そういう意味では平等。問題なのは、AIに効率よくデータを供給する方法であり、そこはビックデータをどう作るかにかかってくる。

    自分もAI関連の研究してたことあるけど、データを大量にそろえるのが難しく、苦労した。企業のほうがお金があるのでよい仕事ができる。


  • ユーザベース SPEEDAアナリスト

    とても同意。下記で羽生氏も述べられていたが、ブラックボックス。ゲームや科学分野のようにルール・ファクトが厳密なものは、過去の特徴量が生かせる。一方で、金融や交通などは、人間が相互作用する。その相互作用も、一定の分布に通常は収めることができても、極端な事態(実際には1000年には一度ではない「1000年に一度」といわれるような事態)では極端な方向を強める形で動きがちだし、データが少ない。
    もちろん、それに対して自動でストップを入れるようなロジックも入れられるだろうが、どこでストップを入れるべきかといった判断は、イベントごとでかなり異なるとも思う(だから「極端な事態」)。そこにブラックボックスが主となっているシステムで全て対応するには、当たり前だが限界がある。
    スピードなどで機械に勝てるとは思っていないが、こういった相互作用がある以上、人間が強い領域(全員の人間ではないが)は多く存在すると思っている。
    https://newspicks.com/news/1738684?ref=user_100438


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか