本書は、アメリカの政治学者ヴァージニア・ユーバンクス氏による、Automating Inequality: How Hight-Tech Tools Profile,Police, and Punish the Poor(「自動化された不平等」)の全訳である。著者は、アメリカでのデジタル化行政の三つの事例を取り上げ、丹念な調査に基づき、貧困者が新しいテクノロジーの実験場となって益々困難な状況に追い込まれていることを明らかにしている。法執行機関から医療機関、社会サービスに至るまで、サービスの縮小だけでなくアメリカの機関は貧しい人への罰則を強化しているというのだ。
そもそもAIは公平な判断を行うものなのだろうか?著者は救貧院の歴史をたどることで、それを作り出した側の貧者に対する懲罰的態度(貧困は自己責任!)や優生学的思想がなんら変わることなく、人種、ジェンダーにおける偏見がそのまま現在においてもコンピュータのアルゴリズムに組み込まれていることを指摘している。データマイニング、予測リスクモデルに伴って生じるアルゴリズムは、差別を含んだものであり、AIを取り込んだコンピュータシステムが不平等を拡大しているのである。
しかもAIによる決定過程はブラックボックス化されており、貧困者は、電話の相談窓口にもつながらず、確認や異議申し立てもできず途方にくれてしまうのだ(行政の現場では予算削減で人員は減少、民営化で仕事は細切れである)。弱い立場の人はもうあきらめてしまう。そこが狙いかとも思えるシステムである。申請しても機械的拒絶、無限ループ状態になり、個人情報がぬかれて監視システムにそれが利用されるだけである。貧困者は、孤立化し、テクノロジーの不平等な支配下におかれ、いまやデジタル救貧院といえるものに閉じ込められるのだ。
日本の読者は関係ないと思えるだろうか。コロナ禍、日本のデジタル技術の遅れが問題となり、デジタル庁が誕生した。少子化する時代のなかで、ハイテク技術は今後ますます導入されていくだろうし闇雲に反対するのはナンセンスだ。しかし、デジタル化はオードリー・タン氏のような弱者の立場に立った人物が進めるのと、想像力のない金まみれの政商のような人物が進めるのとでは全くことなるであろう。不平等が自動化されないためにも、導入側の目的や意図はなにかを私たちは十分に議論し、チェックし、技術者においてもヒポクラテスの誓いのようなAI倫理が求められるのである。
2021.10.06 Wed
カテゴリー:著者・編集者からの紹介
タグ:本