新着Pick
202Picks
Pick に失敗しました

人気 Picker
どうでも良いけど、アルゴって略すのはどうかと…。
(そういうタイトルの映画がありましたね)

記事の内容は興味深いですね。ベースとなっているデータ項目は何で、クレジットスコアや利用限度額の差に寄与しているものが何なのか気になります(それにしても利用限度額が10倍の差!)まあそれも含めて「不透明」というのがウォズの指摘なんでしょうけど。
アルゴリズムにはもちろん欠陥があるだろうが、
従来型の与信審査にも欠陥があったはずで、アルゴリズムを悪者にする論調には大いに違和感を感じる。

例えば、伝統的な金融機関の住宅ローン審査において、
シングルマザーであると言う属性は不利に扱われてきた
ことが知られていて、それはデータに基づくものではなく、
印象に基づくものだと言われている。

アルゴリズムは、データがたくさん集まれば、修正されて
行くもので、「不公平さ」などという断定を直感に基づいて
政治的介入を求めるのは、傲慢だと思う。
そのそのの話ですが、アップル社はアップルカードを紹介したとき、『銀行ではなく、アップルにデザインされたクレカ』と強く宣言していました。

そこで、女性を含めるよく差別の対象となるマイノリティの人たちは喜んでアップルカードを契約しましたが、この話の書いてある通り、その面について普通の銀行と何が変わるんですか?

因みに、この問題を指摘した DHH 氏は今、様々なヘイトメールをもらっている(なぜ?)ようですが、代わりに指摘したのが女性の方でしたらどれだけ脅かしがあったか想像できません。

その差別的なアルゴ(リズム)が当たり前過ぎておかしいとも考えない人がいるのが一番の問題な気がします。

最後に、(銀行からして)一般的なアルゴ(リズム)であんなに明確な差別があると考えると、人工知能の普及は恐ろしい展開になりかねません。
これまで(当たり前だった)の概念で利用限度額がアルゴリズム化しているとしたら、女性に差別的なものであるのは当たり前かなと感じました。
過去のものを学習するのはできても、これからのこうあるべき、という未来の概念は意図的に組み込まないと機能しないのでしょうね。
夫婦で、銀行口座を共有しているということは恐らく合算で確定申告しているわけですね。
それで、カードの利用限度額が10倍も違うというのは、クレジットスコアリングの基本的な考え方からすると、考えられないのですが、こんな基本的なミスをクレジット審査のアルゴリズムで間違えるのは、意図的か、完全に初歩的ミスか?

真相に興味があります。
設計した人…つまり、機械学習の学習のための先生の趣向が、そのまま特徴として現れたということですね。

Apple社内でも、こういった判断になっていたことは、検討されていなかったのではないでしょうか?

今の時代だと、こういった差別につながる案件に関しては、風当たりがキツイですよね。

システム設計や機械学習の教育データの設定には、人とチームを選ばないと、いけなことが、実感できる記事です。
男女の返済能力に有意差があれば、それは差別ではなく区別(客観的に違いの理由を説明できる)
ゴールドマン・サックス(The Goldman Sachs Group, Inc.)は、アメリカ合衆国ニューヨーク州に本社を置く金融グループである。株式・債券・通貨・不動産取引のブローカーであり、貸付・保険・投資銀行業務にくわえ、プライベート・バンキングも行う。GPIF年金運用委託先の一つ。元幹部が1MDB汚職事件について、アブダビ系ファンドの内外から巨額の資金流用に関わった。 ウィキペディア
時価総額
9.35 兆円

業績

アップル(英語: Apple Inc.)は、アメリカ合衆国カリフォルニア州に本社を置く、インターネット関連製品、デジタル家庭電化製品および同製品に関連するソフトウェア製品を開発、販売する多国籍企業である。2007年1月9日に、アップルコンピュータ(Apple Computer, Inc.)から改称した。アメリカ合衆国の主要なIT企業である。 ウィキペディア
時価総額
156 兆円

業績