米国のデータ解析大手、パランティア・テクノロジーズは、英司法省に囚人の再犯リスクの予測に関する支援を提案していることがわかった。英紙ガーディアンが情報公開法から得られた資料を元に報じた。
それによると、同社の幹部は総選挙から3週間後にジェームズ・ティンプソン刑務所担当大臣に宛てた書簡で、「世界有数のソフトウェア企業で、人工知能(AI)の最前線で活動している」と紹介し、法務省と刑務所当局といかに「安全な情報共有とデータ分析が刑務所の課題を緩和し、再犯と関連するリスクについて詳細な理解を可能にするか」について協議を行ってきたと説明していた。
前政権から続く協議には「刑務所の収容能力の分析と政府の保有するデータを再犯に関係する傾向の理解に役立てる」提案が含まれているとみられる。ガーディアンは、「収入や薬物依存といった要因を考慮しながら、トレンドを特定して対応するためのデータのアグリゲーション」に基づくものだろうと報じている。
この報道に対して、アムネスティ・インターナショナルUKのビジネス・人権ディレクターのピーター・フランケンタル氏は、パレンティアが新政府を「公共サービスが、人権を犠牲にしても責任を取らないボットによって運営されるといういわゆる”すばらしい新世界”(オルダス・ハクスリーのディストピア小説のタイトル)に引き込もうとしていることに重大な懸念がある」と表明。「差別や不当な標的、誤審」につながりかねない刑事司法や福祉システムのAI使用に反対するべきと主張している。
パランティアは2004年にペイパルの共同創業者、ピーター・ティール氏らによって設立された。当初の目的はPayPal が開発した不正防止技術の一部をテロ対策に応用することだったとされる。設立時から現在まで米政府との契約が事業の中心で、国防総省や各情報機関など幅広くサービスを提供していると報じられている。
ティール氏はJDヴァンス次期副大統領との強いコネクションでも知られる。イエール大学を卒業したバンス氏を自身のベンチャーキャピタル企業に引き込み、その後バンス氏が創設したベンチャーファンド、ナリア・キャピタルに多額の投資をしたとされる。2022年の上院選に出馬したバンス氏にキャンペーン資金として少なくとも1,500万ドルを提供したと報じられた。バンス氏をトランプ氏に紹介したのもティール氏で、今年の選挙ではトランプ氏に副大統領候補に選ぶよう粘り強く働きかけたとされる。
マイノリティ・リポートが現実的に?
スピルバーグ監督、トム・クルーズ主演のSF映画『マイノリティ・レポート』(2002)に描かれた未来では、テクノロジーと特殊能力を持つ人間の活用により、殺人が起きる前に予測に基づいて犯人を逮捕する捜査手法が実用化されている。作品では致命的なバグによって捜査官役のトム・クルーズ自らが犯人として追われる身になる。近年のAIの進歩により、法整備や権利侵害、倫理上の問題が十分に検討されないまま不当な捜査手法が広がる可能性に懸念が高まっている。
テクノロジーやアルゴリズムといったツールをいち早く導入したロサンゼルス警察は、2011年からOperation LASERと呼ばれるプログラムに取り組み、予測的取り締まりの展開を試みた。プログラムは、過去の犯罪報告からデータを抽出してアルゴリズムに入力することで犯罪の発生しやすい「ホットスポット」や「トリガーポイント」を特定するものだったが、過去の犯罪や逮捕データから再犯リスクが高いと推定される「重要人物」のリストも作成されていた。プログラムには、パランティアのソフトウェアが活用されたとされる。
2012年、サンフランシスコの地下鉄駅で、機械学習によって構築された「記憶」から疑わしい行動をする人物を特定、スーパーバイザーに警告する監視カメラの試験導入が報じられた。開発元のテキサスの企業、BRS Labsは、ロンドン、サンパウロ、バルセロナにオフィスがあり、同プログラムを報じたデイリー・メールは当時、世界中で同様のプログラムが実施される可能性があると指摘した。
国境警備を担う国土安全保障省は、セキュリティチェックポイントで悪意のある個人を特定するためのテクノロジーの開発プロジェクトに着手した。プロジェクトは「FAST」と呼ばれ、同省によると「非接触センサーを使って目の動きや体の動き、個人が通常意識的に制御することのない要因を含む生理学的および行動的手がかり」をリモートでリアルタイムに分析し、スクリーニングに役立てることを目指している。一部では、心拍数や体温を含む生体認証情報も検出することを意図したものだとも報じられている。2014年の資料で70〜74パーセントの成功確率を達成したと発表したが、その後の進行状況は明らかにされていない。
行政機関にとって新たなツールが法執行の強力なツールとして期待される一方、専門家の間では、予測的な取り締まりの行き過ぎによる推定無罪の侵害や誤った拘束が起きた場合の法的責任になどついて問題点が指摘されている。
また、全米有色人種地位向上協議会は、AIの活用が差別的取り締まりの拡大につながる可能性に懸念を表明している。同協議会は、黒人コミュニティは歴史的に警察活動による不均衡な悪影響を受けており、過去の犯罪データに依存して決定を下す予測型の取り締まり技術は、本質的に偏っていると指摘。AIモデルは過去の犯罪データから偏見を継承し、差別的な警察活動につながる可能性があると述べ、アルゴリズムの公正性や正確性を保証するための独立した監視機関の設置や人権侵害に厳格な罰則を科す法的枠組みの整備を呼びかけている。