もしも、殺人AIロボットが人種差別をしたら… | クーリエ・ジャポン

★★★:バランスよく議論できる
★★☆:意見を吟味する
★☆☆:客観的情報
☆☆☆:議論用ではない
☆☆☆:議論用ではない
ある特定のオピニオンが述べられる
ある特定のオピニオンが述べられる
いつ登録したか
Jan 26, 2021 12:11 AM
オピニオンが含まれない
オピニオンが含まれない
カテゴリー
両論が併記される
両論が併記される
事実ベース
事実ベース
立体的(多角的)
立体的(多角的)
考察的・思想的
考察的・思想的
複数のオピニオンが含まれる
複数のオピニオンが含まれる
調査、データ、観察的
調査、データ、観察的
notion imagenotion image
アトランタのジョージア工科大学のロボット Photo: Nydia Blas / The New York Times
人工知能(AI)を備えたロボットが、人間の命を奪うかどうか判断する時代がくるとしたら? そしてそのロボットに人種差別的なバイアスが折り込まれているとしたら?
2016年には黒人男性が警察が操作するロボットで殺された事例があった。このロボットは人間が操作していたが、将来的にはロボット自身がより高度な判断を行うようになるかもしれない。それも、人間が持つ偏見を内包した判断に基づいて。
BLM(ブラック・ライブズ・マター)運動の高まりとともに、AIやロボット工学の研究者達は、自身が生み出した技術がをもたらすかもしれないこうした事態を懸念を募らせる。

警察ロボットに殺された

2016年のある晴れた日、テキサス州・ダラスで爆弾処理ロボットが技術史に足跡を残すことになった。警察官が約1ポンド(約450グラム)のC-4爆薬を取り付け、銃撃中の男の近くの壁まで操縦して、爆発させたのだ。
この爆発で、マイカ・ザビエル・ジョンソンはアメリカで初めて警察ロボットに殺された人物になった。
当時ダラスの警察署長のデビッド・ブラウンはその後、その判断を正当なものだったとした。ロボットに襲われる前、ジョンソンは警察官5人を射殺し9人を負傷させ、民間人2人に被弾させ、交渉も行き詰まっていた。ロボットを送るのは、人間を送り込むより安全だった、とブラウンは話した。
だが、ロボット工学の研究者達の中には、困惑するものもいた。“爆弾処理”ロボットは、爆弾を安全に処理するために販売されていたもので、ターゲットに爆弾を届けるためのものではなかった(2018年には、メイン州・ディックスモントの警察も同じ方法で銃撃戦を終わらせている)。
ロボット工学の研究者達は、新しい殺傷兵器を警察に供給し、それがこのような形で初めて使われて、1人の黒人男性を殺したのだ。
「この事例の重要な側面は、男性がたまたまアフリカ系アメリカ人だった、ということである」。ジョージア工科大学のロボット工学研究者のアイヤナ・ハワードと、同大学の公共政策学部のジェイソン・ボーレンスタインは2017年に発表した論文に記した。
notion imagenotion image
ジョージア工科大学のロボット工学研究者のアイヤナ・ハワード Photo: Nydia Blas / The New York Times
今日使われているほぼすべての警察ロボットと同じく、ダラスのロボットは単純な遠隔操作のプラットフォームだった。
しかし、より高性能なロボットは世界中の研究室で開発されており、人工知能(AI)を使ってより多くのことを行うようになるだろう。例えば、顔認識や、人間の行動予測、「殺傷力のない」発射物を使うかどうかを決める、といったアルゴリズムを使ったロボットは多くの研究者が問題視している。
その理由は、今日のアルゴリズムの多くはほとんどのコンピューターやロボットシステムの設計者である白人、男性、富裕層、健常者とは似ていない、有色人種などに偏っているからだ。
ジョンソンの死は人間の判断によるものだ。だが、将来的にはロボットが、こうした判断を行うようになるかもしれない。それも、作った人間の判断力の欠点を内包したロボットが。
ロボット工学のコミュニティ内の構造的不平等問題に取り組むために生まれた組織「ブラック・イン・ロボティクス」のリーダーであるハワードと、ボーレンシュタインはこう記す。
「ファーガソンやバトンルージュで起きたアフリカ系アメリカ人男性の警察射殺事件から生じる現在の緊張状態を考えると、警察や軍用向けを含む治安維持ロボットが、ある時点で人間の命を奪うかどうかを決める自由度が高まることは、不穏なことである。特に偏見に関連する問題が解決されていない場合には」

黒人の顔を認識しない?

2020年の夏、何百人ものAIやロボット工学の研究者が、それぞれの分野のあり方の変革に取り組むことを誓う文書に署名した。
「ブラック・イン・コンピューティング」という組織の宣言は「私たちが社会に利益をもたらす技術を生み出すのに貢献しても、レイシャル・プロファイリング(人種差別に基づいた捜査手法)の拡散によって黒人コミュニティを混乱させている」と、警鐘を鳴らした。
「ノー・ジャスティス、ノー・ロボット」という宣言は、法執行機関との協力や協働を拒否することを署名者に求めている。
過去10年の間に「偏見がAIの原罪である」という証拠が蓄積されてきた、とハワードは2020年のオーディオブック『セックス、人種、ロボット(Sex, Race and Robots)』で指摘している。顔認識システムは、白人の顔をそれ以外の人の顔よりも正確に識別できることが示されている。(1月にはそうしたシステムが、窃盗容疑者の写真と全くその犯罪に関係がなかった黒人男性の運転免許証の写真が合致した、という結果をデトロイト警察にもたらしている)
自動運転車が歩行者を検出することを可能にするAIシステムがある。昨年、ジョージア工科大学のベンジャミン・ウィルソンらは、そうした八つのシステムは、肌の色が薄い人よりも濃い人を認識するのが苦手だと発見した。
「アルゴリズム・ジャスティス・リーグ」の設立者で、マサチューセッツ工科大学(MIT)メディアラボの大学院生研究員でもあるジョイ・ブオラムウィニは、二つの異なる研究室で彼女を認識しない対話型ロボットに出くわしたことがある。(MITのロボットを使ったそうした研究では、彼女は認識されるために白いマスクを着用した)

研究者の社会的責任

こうした不備に対する長期的な解決策は「テクノロジーを設計する際に、米国の人口構造に似た人々を含めること」と、脳からロボットへの直接制御を研究しているアラバマ大学教授のクリス・S・クロフォードは述べる。
notion imagenotion image
アラバマ大学のコンピュータ科学者であるクリス・S・クロフォード Photo: Wes Frazer / The New York Times
主に白人男性の顔を対象に訓練(その過程で異なる種類の人々がいないことに気づかない白人男性の開発者がほとんど)されたアルゴリズムは、白人男性をそれ以外の人々より正確に認識する。
「私はこれらの技術が開発されていた時にシリコンバレーにいました」と、クロフォードは言う。そして1度のみならず「座って試してみましたが、うまくいきませんでした。『なぜ動かないのかわかるだろう?』という感じでした」と付け加えた。
ロボット研究者は通常、技術的な難問を解決するための教育を受けているが、誰がロボットを作るのか、あるいはロボットが社会にどのような影響を与えるのか、といった社会的な問題を考えることはない。
そのため、多くのロボット研究者が、研究室内外の不正に対処する責任があるとする宣言に署名したのは衝撃的なことだった。彼らは、ロボットの作成と使用における不正を減らすための行動に関わったのだ。
「路上での抗議は本当にインパクトがあったと思います」と、ミシガン大学のロボット工学とAI研究者のオーデスト・チャドウィック・ジェンキンスは語る。
ジェンキンスは、人間を補助し共同作業ができるロボットを研究をしており、今年初めの学会では窃盗容疑者と取り違えられた黒人男性への謝罪を題材に講演した。ジェンキンスは顔認識アルゴリズムを研究していないが、すべての人にとって正確なシステムを作ることができないAI分野全般の不具合に責任を感じていた。
「今年の夏は、これまでの夏とは違うものでした。知り合いの尊敬している同僚たちが、こうした言葉で構造的人種差別について話しているのを聞いたのは初めてかもしれません。非常に心強かったです」とジェンキンスは述べた。通常の業務の中でうやむやになるより、こうした議論が継続され、行動に繋がることを期待しているという。(続く
新着順
notion imagenotion image