新着Pick
259Picks
シェアする
Pick に失敗しました

人気 Picker
深層学習の進化は当初想定されていた以上に早い。先月、Googleが開発したAIが囲碁のプロ棋士に勝利したというニュースが流れていたが、これはあと10年はかかるのではと言われていたこと。人間が思っている以上に、進化が早い。

記事には、「ロボットを動作させるアルゴリズムが自律的に学習するAIに近ければ、外部環境の変化に順応し、機械を動かすことができる」とあるが、これもかなり早い段階で到達できるのではないか。
ただ、よく言われているのは、日本ではAIの専門家は多いが、ロボットの専門家が少ないということ。世界でもその専門家は少ないようだが、それが何らかAIの進展に影響を及ぼす可能性はある。
この記事を書かれた方はおそらく一般的な人に理解を深めるために、このように書かれているのだと思う。ただし実際の現場ではアルゴリズムはたしかに大切だが、アルゴリズムそのものだけではほとんど役に立たない。事例のように学習が完全に自動化されるためには、その前に莫大な学習が必要になる。しかもセンサーが絶えず一定の状況でなければ同じ学習は有効にならない。
実際の人間との違いは学習方法を学ぶにはまだ時間がかかることで、これが既に実用化されてるわけではない。
学習方法のきっかけを作るのはまだ人間が相当頑張らなければならないのだ。
囲碁の世界で人工知能が人間に勝ったのはいかに複雑とはいえ、あの狭い盤面でのことであり、一定の条件が整っているからだと思うが。
IoTによるセンシングをDeepLearningで処理できるのは事実だし、これまでより飛躍している技術だが、まだ夢の様な世界ではない。一つ一つ人間が単純なことに対しても学びのきっかけを発見し、繰り返し調整して初めて同じ条件での処理を行える。
それだけに同じ進化であればソフトセンサー系のビックデータ処理のほうが実用化はもう目の前だと思う。そこに踏み込んだ記事になるかな?なって欲しいけど無理かな?
・・・って言うくらいならじぶんでかけって話ですね(笑
記事はいい内容だと思います。
ロボットにしろ、そのコアであるアルゴリズムにしろ、
「センサー→データ→アルゴリズム→アウトプット(出力)」
という流れを取るため、大事なのは、どんなアウトプットをさせたいのか?そのためにどんなセンサーでデータを取るか、となる。
工場稼働率を上げたい、という漠然としたものではなく、◯◯の工程の待機時間を減らしたい、など課題が具体的であればあるほどいいように思う。あとは、その課題がビジネス課題にパチンとミートしているかが重要
最近、Googleの検索アルゴリズムの責任者が代わり、エンジニア主導でアルゴリズム最適化していた従来と代わって、今後はDeep Learningを用いた深層学習による最適化を方針とすることになりました。

これによりエンジニアは、アルゴリズム自体を最適化するのではなく、アルゴリズムを最適化するDeep Leaeningを最適化することが役割になります。

こうなってくると、アルゴリズム自体の優位性は一時的でしかなく、いかにそれをメンテし続けるか、さらにはメンテに必要なデータとマシンパワーを確保し続けれるか、の勝負になると思います。

そしてアルゴリズム自体のブラックボックス化は進んでいき、「どうしてか分からないけど、何故か上手くいく」が日常的になるでしょう。

最初は気持ち悪がられるかもしれませんが、それは人間の直感のようなもので、次第に受け入れられていくと予想します。そして私達の子供や孫世代には「機械が言うんだから間違いない」が当たり前になっているかと思います。

その時の人間の役割は答えを見つけることではなく、問いを見つけることになると思います。
データのテコだと思えばいいよ.アルゴリズムの本数だけテコはあるけど,データ量がないと運用厳しい.
Data to Dataの技術は後発で勝てんから,Physical to Data or Data to Physical をやるしかないね.
頭が整理されます。論点として、コア技術としてアルゴリズムは重要ですが、データをどう集積させるかが競争上の肝になると思います。量ではGoogleやfacebookには勝てません。

医療データ蓄積とオープンな活用で先端を行く、デンマークのメディコンバレーなどに注目しています。
大学時代の部活の先輩でもある人工知能学者の松尾さんとこの前話した時に、画像認識や自動翻訳、デジタルアシスタントといった完全にデータに閉じた世界でグーグルやフェイスブックに対抗するのは、取得できるデータ量に差があり過ぎて日本勢厳しいけど、ロボットなど物理的な動作を伴うものは戦える余地があると話していた。もちろん、うかうかはしてられないから、政府は斜陽産業を延命するのではなく、勝てるこの領域にリソース集中してほしい。
面白い!
「アルゴリズムを含んだメカニズムのどこが事業として付加価値を持つのか、ビジネスのプレーヤーとして、どの部分に自社で注力すべきなのか、その見極めが極めて重要となる。」の通り、そこを外さない会社が未来で生き残るんでしょうね。
誰がこのアルゴルズムを書くのか?答えは世界中の人々(ただしやる気のあることが条件)。GoogleのTensorFlowはDeep learningへの参入障壁を劇的に下げました。無料で配布されているので、インターネットにアクセスできれば誰でもアルゴルズムが書けます。つまりGoogleの内部で行われていることが外部の人間でも可能になったということです。この世界でのGoogle優位はもう決定的です。以下の記事をご覧下さい。衝撃的です。

http://www.bloomberg.com/news/articles/2016-07-21/google-sprints-ahead-in-ai-building-blocks-leaving-rivals-wary
自動化から自働化する為には、センサーや画像解析によるフィードバックは必須。動作とフィードバックの連携というのも、ハードウェアの発展によって実現出来る事も事実。ハードに徹底的に精通した上でソフトを連携させる事で最もイノベーティブなモノが生まれるのは、今後も変わらないのではないかな。