Book:悪のAI論
今年読んだ9冊目は、朝日新聞の平和博さんの悪のAI論 あなたはここまで支配されている (朝日新書)
早々にご恵贈いただいたので、早速読了した。
最初に取り上げられている内容は、AI技術で進化している身元特定技術で生じる「冤罪」現象である。
アメリカのシステムでアルジャジーラの記者がテロリスト認定されたという出来事が象徴的で、同じようにテロリスト認定された別の人は実際に攻撃の標的にされたという。
顔認識技術に関してでてくるのは、とりわけ黒人女性について、性別判定ができないとか、ゴリラと認識してしまうとかという問題で、ゴリラへの誤認識は防げないらしく、ゴリラという選択肢自体を削除してしのいでいるということである。
誤認識問題は、人間の持つ偏見とも相互作用を有する。有名なレイシストAIはツイッターにおける差別的ツイートを排除することなく取り入れた結果であるし、それが判断作用も伴うとすると、例えば採用判定にAIを活用するということは日本でも行われているわけだが、女性については低い評価をシステム的に出してしまうという欠陥を調整できず、実用に耐えないと判断された例もある。
再犯予測を量刑に反映させるというAI利用も本書で取り上げられているが、大雑把にいれば人種的な偏見を助長するような結果が出ることは必定である。一般に黒人の方が、社会的な階層としても世間の見る目としても生きていくのに不利な条件があり、そのことから再犯リスクが高くなる傾向が認められるとしても、それをそのまま再犯予測として量刑に反映してしまえば、白人より黒人の方がシステム的に重い刑罰を課されるという結果をもたらしてしまう。これが不当なことは言うまでもないが、ではどうするかということになる。
前にも言及したと思うが、AIなど使わなくとも、現在でも、例えば賠償して示談ができれば刑が軽くなるということになると、金持ちは刑事処分の決定過程で有利に扱われることになる。被害者救済という観点から言ってもそれが一概には否定されないのではあるが、同じ理屈で、金持ちは再犯リスクが小さいという傾向は認められよう。再犯率が最も高いのは窃盗であろうと思われるが、これは、一部の病的なクレプトマニアを除くと、金が無いからやるわけである。こうした事情を量刑に反映してしまえば、金持ちは刑が軽くなるということに、一般的になりそうだ。
こうした過程が目に見えれば、それはオカシイとか、議論が可能となるが、AIによる再犯予測というシステムに入れられてしまうと、個々の判断要素やその重みは人間が設定したものだけではなく機械学習により深化するのであり、ブラックボックス化は免れないように思う。
こうした誤謬を監視して正すシステムもAIにより実現できるのではないかという見解も示されるが、なかなか、難しいし、ブラックボックスが二重三重に重なることになりはしないかという疑問を禁じ得ない。
本書では、民事裁判とAIの関わりについて触れられてはいない。民事裁判自体がAIどころか全くのアナログの世界であるので、スカイネット的な脅威も民事裁判では目に見えないというところであろうか。ただし、誤認識問題やフェイク動画の作成などが、証拠として用いられることで、民事裁判に悪影響を及ぼす可能性はあるし、それはおそらく現実のものでもあろう。それ以外でも、判断作用に関わる場面でのAIの侵食ということは、気がつくと進んでいるということになるかもしれない。
私達は身構える必要がある。
| 固定リンク
「書籍・雑誌」カテゴリの記事
- Book:准教授・高槻彰良の推察11(2025.01.18)
- Book:彷徨う者たち(2025.01.15)
- Book:境界線(2025.01.10)
- Book:護られなかった者たちへ(2025.01.06)
- Book:十字屋敷のピエロ(2025.01.04)
コメント