17日、火曜日の晩、MetrographのVirtualで見たドキュメンタリー。
身も凍るような真実を明らかにしてどうだ! っていうより薄っすらわかっていたことを事実の積み上げと聞き取りから表に出して(政府まで行って)、この明らかにやばい事実がどんなふうに我々の生活に影響するのかをクリアに提示する。 AIやDXが暮らしや経済をより良くするって本当なのか、なにがやばくてどこに注意しなければいけないのか、等々。
MITにいて、後程Algorithmic Justice Leagueを立ち上げるJoy Buolamwiniさんが主人公で、アフリカン・アメリカンの彼女はPCの顔認証で自分の顔がたまに認識されないことがある一方、白いマスクを被るとすんなり認識されることに気付く。なんでだろ? と顔認識をやっている各社に人種(カラー)別男女別の顔認証の認識率のデータを請求してみたら、どの会社のも認識率にバラつきがあり、一番高いのが白人男性のそれで、一番低いのがカラードの女性のそれだった、と。どうしてかというと、顔認証のアルゴリズム(コード)が白人男性のそれを中心として組まれている – そういうバイアスが掛けられているからである、と。
映画はJoyさんだけでなく“Artificial Unintelligence: How Computers Misunderstand the World”を書いたMeredith Broussardさんや“Weapons of Math Destruction”を書いたCathy O'Neilさんの協力を得ながら- こうして次々に登場する女性たちの活躍がすばらしい – この事実を暴いて、これがどういう社会をもたらすのか、その危険性とここまでの経緯を示す。そもそもAIの父とか言われるダートマスの10人って全員男性だし、AIリサーチに従事する女性の割合は14%以下って、女性の目が全く入らない男性中心のやり方考え方で組みあげられてきた仕掛けである、ということは頭に入れておいた方がいい。(いや、今の社会の成り立ちからしてそうじゃん、ていうのはそうだけど、そんなこと言っても始まらない)
この仕組みがもたらす悪い例として突然顔認証のロックシステムが導入されて棟に入れなくなる住民が続出したブルックリンのアパートとか、これまで何度もいろんな賞を受賞してきたヒューストンの小学校の教師のレーティングのスコアが突然悪くなったりとか、ロンドンでは街角の監視カメラで全く身に覚えのない人がシステムに引っ掛かって職務質問されたりとか。
いまのAIにはいろんなタイプがあるし、機械学習のアルゴリズムにもいろんなのがあるのだが、ここでは各論に入らずにアルゴリズムを積み重ねられたデータをベースに予測したりスコアリングしたり判断したりするためのロジック、として紹介していて、重ねられたデータが偏っていると精度は落ちるしその結果もぶれる。問題は入り口の仕組みがブラックボックス化された状態でPCカメラの顔認証から検索エンジンからクレジット・スコアリングから既にいろんなところに組み込まれて社会で活用されて(使うことを強いられて)しまっていること。いきなり問題が出てなんだこれ? って掘っていくとすみませんそれは仕様です、とか言われてその仕様ってなに? と更に掘ると開示できないアルゴリズムです、になっていたり。
この特性を使って国民を統制しているのがアメリカと並ぶAI大国である中国で、この国はAIによるモニタリング・スコアリングをする/していることを国民に明確に宣言して、この国でちゃんとした社会生活を送りたければ規範に従順なよいこになることだ – AIはぜんぶ見ているぞ、ってやってる。
アメリカや他の国は、当然そちらには行かずに市場原理に任せて推し進めようとした訳だが、上に書いたような問題が確認されて、これはシステミック・レイシズムを助長する可能性もあることだから巻き戻さないと、とJoyさんたちのような人達が動き始めたり、英国ではBig Brother Watch – 勿論オーウェルから来た名前 – といった人達が活動をしている。
でも監視カメラはテロの防止や犯人の特定に役立っているし、AIは仕事の改善や効率化に役立っているんじゃないの? 必要なんじゃないの? という側面は当然ある。問題は、アルゴリズムがどういう仮説やシナリオに基づいてデザインされたのか、それがどんな結果をもたらすものなのか何の測定も検証もされないまま気が付いたら社会のインフラやプラットフォームに組み入れられて稼働している、ということなの。あと、これらの仕組みはデジタル上にぜんぶあるので、悪いことをしようと思ったらデータも含めてコピー悪用とか改竄ができて、しらっと人を殺す基盤にもなりかねない。そのガードはどこまでできているのか、とか。
AIにおける倫理の問題 – 特にAIがしてはいけないことは何なのか? って大昔からSFではテーマになってきたことが目の前に現れてきている。映画の話題から少し離れるけど、アメリカと中国の間に挟まれたEUがなんで個人情報保護にあんなに過敏なのかというと、この点 - 自分のデータがどこでどう使われるべきか - を初めからクリアにしておかないと、こういうシステムを起点とした差別や分断が起こりうることを予見していたから。自分のデータは自分のもので、他者やシステムに勝手に使われるべきものではない。これだけアメリカのプラットフォームが席巻している状態では結局やられてしまうのかも知れないが、言うべきことは言うし守れるものは社会として、社会が守るよ、と。
にっぽんは... お上が施しを与えるみたいに振りまくこの手のサービスを有難く頂戴する民、っていう土壌があって、その隣に印鑑とか戸籍とか恐竜みたいなのもいて、そこでのAIはアメリカ市場型でぶちあげて勝手に好き放題されて、問題がでると中国型に開き直る – それは排外主義と連動して隣組に並ぶ新たな恐怖ムラを形成するに決まっているし、もうできているのだと思うし。だから見通しはすごく暗い。デジタルの上で人権はどうあるべきか、守られるべきはなんなのか、の議論なしで - リアル社会ですら有形無形の圧やらバイアスまみれなのに、マイナとかデジタル庁とか、ちゃんちゃらおかしいわ(←おかしくない。まさに地獄)。
こういったことを視点も含めてとてもわかりやすく整理してくれる女性による女性のための映画だと思った。 いや、女性でなくたって勿論必見だよ。
アメリカの大統領選は、ようやく笑ってよい段階まできたのかしら? まだ油断できないのかしら?
この4年間、あれの顔を見て声を聞くことすら耐えられなかったので、CNNから遠ざかっていた。ブッシュの8年間以上にしんどいものがあった。 それがようやく終わってくれるのかー。(まだ冷凍庫から出てきたばかりで心の底から笑えてない..)
11.24.2020
[film] Coded Bias (2020)
登録:
コメントの投稿 (Atom)
0 件のコメント:
コメントを投稿
注: コメントを投稿できるのは、このブログのメンバーだけです。