今日のオリジナル番組


詳細を確認
予防医療は人生のリターンを高めるのか?
本日配信
178Picks
Pick に失敗しました

人気 Picker
まあ兄弟がいるマッチングの問題はCS的なworst caseの計算量はヤバいことになることがよく知られている問題だけど、僕の知っている限りでは、研究サイドで関わっている人はかなりスーパー専門家的な人も入っているようで(彼らがどの程度関わっているかとかは、必ずしもインサイダーの人ではないので知らないのだけど)ちょっとだけ意外かも。実装との連携とか、いろいろチェックとか失敗しちゃったんでしょうかね。

ともかく、数日の遅れで済んだようで不幸中の幸いというか、何よりです。保育園の問題と同様に「最悪のケースだと計算やばいことになって全然うまくいかないぜ!」という状況はマッチング問題だとたくさんあって、いろいろなヒューリスティクス使ったりしてまあまあうまいこと回してるという実装例がたくさんあるので、今後もっと進歩していくといいなと思います(というか、僕もこの分野の研究者の端くれなのでその辺にもっと貢献したい)

あとこれがAIかどうかは神学論争みたいになってあんまり面白くないと思うんですけど、僕も過去の論文を経済学じゃなくてAIのカンファレンスとかジャーナルとかに出しておけばAI人材を名乗れたのになあって思ったりしたことはあるので、定義を広く取っておきたい人の気持ちはよくわかる。

それはともかく実際のアルゴリズムや問題に課された制約がどうなっているのか知りたくなりますね(機会学習ベース的なやつじゃなくて、わりかしシンプルなルールに従ったアルゴリズムと思われる)。

追記:兄弟つきマッチングと数学的にはそっくりなカップルのマッチングで解を全部みつけるアルゴリズム論文、すっかり忘れてたけど僕書いてましたよ!だれか使ってみてくれませんか?https://docs.google.com/viewer?a=v&pid=sites&srcid=ZGVmYXVsdGRvbWFpbnxmdWhpdG9rb2ppbWFlY29ub21pY3N8Z3g6MzI0YWZmNjFiMTM1ZTVj
(ちなみに「全部見つける」という点は少し偉そうに聞こえるんだけど、計算量はアホみたいになる可能性が結構高いです、というか最悪のケースはだめという定理が確かあるので無理。そのせいなのか、誰も注目してない可愛そうな論文ちゃんです。)
私の夢に同社の研究者がたまたま出てきたので質問したら、下記のようなことをおしゃっていました。

これはスケールしない(ユーザが大規模に増えるわけではない)ので利益にはなりにくいが社内技術のPRとして有効だ、と。

でも、このような結果になってしまったら逆PRになってしまって気の毒。
最近はAIといえば誰もが飛びつく時代です。

発注したシステム開発会社、大丈夫なのでしょうか?

市役所の職員はこの手の知識がないので、システムがしっかりしていないものを「画期的なAI」だと売り込まれることが、先々も起こるかもしれません。

AIの 甘い言葉に 注意しよう
これ、特定の条件に応じてシステマティックに振り分けるだけならAIとは呼ばないですよね?(一応レベル2のAIだけど)

一方、紙で書かれた書類をOCRで読み取って自然言語処理するとか、新卒採用のES選考みたいに過去の合格書類を教師データにして学習させるとかならAIだと思うのですが、どんなシステムだったのか気になります。
お気の毒ですねぇ、使われた方も作った方も でもこういうのは、NP完全とか近似解とか、ましては(技術としての) "AI"の問題ではなく、要件定義とストレステストに費やす人月 (=コスト) の問題だと思いますねぇ コトバはきついですが、結果として手を抜いちゃったんでしょうねぇ、ヒトの命に関わらないので お役所相手ですし 技術者の方々の悔しがるお姿が目に浮かびますねぇ
これはAIじゃなくて、組合せ最適化問題では?という指摘が多いですね。人間を超える性能を発揮する計算は、機械学習でなくともAIと呼んでも良い気はします。

それはともかく、初期障害は残念でした。直前に制約条件が追加されたとか、条件が複雑すぎたとかで、テストが十分カバーできなかったかもしれません。保育園選考は社会課題解決で好事例なので、うまく行って欲しいですね。
とりあえず職員側の手間も大変でしょうが、提出側の手間もすさまじい(特にきょうだいいる場合)ので手書きをやめてほしいのだけど、AI導入済みとされているところはオンライン提出可能になっているのだろうか?全国の自治体はそこに投資してほしい…。
うまくいかない例が出たからそもそもマッチングシステムを導入しないで手作業を続けるという方向にいくのも問題だと思います。専門家の知見を最大限いかしてしっかり改善していって欲しいものです。
今の機械学習は「説明能力」はないので、こういった用途への適用自体、課題が大きいのではないでしょうか?

結果に対して「何故、こうなんですか?」と聴かれても、職員は理由を説明できませんし、そもそも、職員のチェックの時点でも「何故、こうなるの?」という結果も多いのではないでしょうか?

※個人的な見解であり、所属する会社、組織とは全く関係ありません
AIでは無いはさんざん指摘されてるけど、
そもそもこのチェック作業が人手で必要なのも問題だと思う。
人でチェックがそんなに信用出来るのか?