Appleが、ダークデータ(非構造データ)解析にAIを活用するLattice Dataを2億ドルで買収
コメント
注目のコメント
今まで収集、蓄積してるだけで、価値を見出せなかった情報は無限にありそうだし、そのデータを整理し潜在的な価値を引き出せるノウハウはどのウェブ企業も欲しがりそう。
記事を読む限り、アクハイヤー色も強そうだし、この分野の技術者はまだまだ不足してるんだろうな。
あと、タイトルが「ダークデータ」じゃなくて、「 デークデータ」になってますよ。大量多量のデータ分析はもう始まっている。それを計算するCPUの向上もまだまだ進んでる。計算方法の効率化も進んでいる。いろんなものが進んでいる中でその周りの事業がどう変わっていくのか先手を打って成長していく産業(情報?)革命的な時期にいると思う。
ゼタバイトのデータ・・ を話すようになったのね・・
自分メモ:
キロバイト =
1000バイト (byte)
(M)メガバイト =
1000キロバイト
(G)ギガバイト =
1000メガバイト
(T)テラバイト =
1000ギガバイト
(P)ペタバイト =
1000テラバイト
(E)エクサバイト =
1000ペタバイト
(Z)ゼタバイト =
1000エクサバイト
(Y)ヨタバイト =
1000ゼタバイト非構造化データとは構造定義が非定型(keyとvalueの対応が一意的でない)データを指します(例: テキスト・ドキュメントデータ, 画像・動画・音声)が, 一般に構造化データ(例: Excelの集計, csvデータ)より分析が難しいという特徴があります. しかし, 世に溢れるデータのほとんどは非構造化データであることに加え, 非構造化データの方が事実を反映しやすいという特徴から, これらの分析はデータサイエンス界隈の一つの課題でした. 実際企業が保有するデータの中でもっとも割合が大きいのはテキスト・ドキュメントデータで(出典: IDC Japan), これらの分析によって得られる価値は非常に大きく, Deeplearningにより分析プロセスは体系化されつつあります.