去年の11月頃のニュースでApple Cardのクレジット・スコア判定に潜む性差別の可能性に関する話がありました。
私はこのApple Cardと性差別の話のニュースを見ていて、別の話も思い出しました。それは人工知能を利用する中で発生する判定や分類上の種々の差別のこと。この手の話で私達の前に一番最初に出てきた有名な話は人の顔を判定した時に黒人の顔をゴリラと間違えて分類するAIの話でした。
更に最近ではAIを使った人の顔の判定において黒人をサーチするとどうしても白人をスクリーニングしたときよりも判定精度が落ちるというものでした。要するに人から見れば「オイオイお前馬鹿じゃねーの?」というような初歩的な間違いをまだまだガンガンするのが今の時代のAIということ。
結局与えたデータを噛み砕いて自分なりに磨き上げていく中で、人間の関与があろうとなかろうと、その元になっているデータに偏見が含まれていたり素材が間違っていればその間違いごと取り込んで異様な速度で成長していくわけですから、下手すると人間よりも根深い感じで隠された差別や大きな間違いを内蔵・内包した状態で実生活にその人工知能とやらが応用されたら、当然のように間違った判定が下されますわな。
また、アマゾンがAIを使って人事採用に応用したら性差別が酷くて使用中止となった話もネット上に広く散らばって、様々な人々に記事が書かれ分析されています。結局の所、人種や性別を古典的な優劣解釈に当て嵌めて、個人の能力を「推測」しようという試みは、人種や性別を隠しても、その経歴からそれらの隠された部分を推測して、過去の法則に則った歪みを当て嵌めようとする「優れた」(勿論皮肉ですがw)人工知能によって破られるようになっているわけです。
結局の所、その人のこれからの採用実績はAIを使用する限り、その人の出た大学や実績・研究結果のみならず「相変わらず」人種や性別も加味されたものが採用されるという危惧があるわけです。
何だかこんな人工知能だったら、本当に最後は「賢さ極めた人工知能様」が人間自体を要らないものと判定して消し去りそうですね。
0 件のコメント:
コメントを投稿