ここから本文です

お使いのInternet Explorerは古いバージョンのため、正しく表示されない可能性があります。最新のバージョンにアップデートするか、別のブラウザーからご利用ください。
Internet Explorerのアップデートについて

犯罪予測システムは、本当に人種差別に繋がらないのか

4/17(火) 22:41配信

ギズモード・ジャパン

調査結果によると「今のところ、異常なし」。

生体認証、音声検出、VRまで...警察機関が犯罪に立ち向かうにあたって先進的なテクノロジーの活用が増えてきています。なかでも人種差別を促すのではないかと議論の渦中にあるのが、犯罪予測システム。最近ではインディアナ大学、UCLA、ルイジアナ州立大学の研究チームによって、 「スマート警察」と偏見をめぐる複雑な調査結果が明らかになりました。

【画像】犯罪予測システムは、本当に人種差別に繋がらないのか

実験でロサンゼルス市警察に配られたのは、犯罪の発生現場ホットスポットが書かれた2種類のマップ。ある日はアルゴリズムによって選ばれた地域マップ、別の日には人間の専門家によって選ばれた地域マップに基づいてパトロールが行なわれました。これにより、どちらの日程でマイノリティ人種が偏向して逮捕されるか比較されました。

Statistics and Public Policy最新号に掲載された論文によれば、全体を通じてどちらの日にもマイノリティの検挙率に違いはなかったことが示されました。

ところが、この調査方法にはいくつかの欠点が指摘されています。アルゴリズムの学習過程において、検挙率の背景やニュアンスが反映されることなく、どこで・どのくらい犯罪が発生したかというデータのみが残ることになるのです。たとえば、ひとりの人間が複数箇所で犯罪行為をしていても、警察官によって逮捕されるのはひとつの場所に限られます。また、パトロール中の警察官の動員数が多いほど、検挙率は上昇することになります。警察官が怪しいと感じた地域には多くの人員が配置され、検挙率も上がることになるのです(人種を理由に疑ったのではなく、あくまで犯罪率に基づいて配置されたと主張されてはいますが...)。いずれにしても、こうした要素も着実にアルゴリズムに組み込む必要があります。

この分析では、一連の逮捕においてシステム的に偏見があったかどうか示すことはできません。たとえば、黒人とラテン系の人たちが不均衡な割合で逮捕されたとします。 [...]

現在の研究で確かめられるのは、黒人とラテン系の検挙率に対して犯罪予測システムの使用が良いようにも悪いようにも影響していないということのみ。今後の研究で、逮捕や最終処分を取り巻く状況・条件が異なるかどうか検証できるでしょう。

一方で、アルゴリズムを活用したメリットもありました。人間の専門家が特定したものよりも、アルゴリズムにより特定されたホットスポットのほうが多くの検挙件数があったのです。これは研究者らも予測していた結果で「アルゴリズムが犯罪率の高い地域を特定する目的で設計されていることから、犯罪率に比例してより高い逮捕率が求められていました」と、論文著者のひとりGeorge Mohler氏はPhysics.orgにコメントを残しています。

犯罪予測システムが現行のシステムを補う存在だとすれば、今ある偏見さえも補強される可能性が指摘できます。特に、人々の偏見というもの自体が目に見える問題ではないことから、アルゴリズムへの潜在的な影響が懸念されます。

とはいえ、今のところアルゴリズムそのものが偏見をつくりだすわけではないこともたしかです。研究者らは、犯罪の発生と人種差別の根本的な原因は別の問題であると指摘しています。

「こうした犯罪予測システムの展開を行うたびに、アルゴリズムに人種偏見があるかどうか監視する必要があります」と、Mohler氏。今回の論文で提供された統計的手法が、こうした監視プロセスのフレームワークになることが期待されています。

人種という繊細な問題が絡むだけに、犯罪予測システムを推進すべきかどうかは意見が分かれるところですが、アルゴリズムに偏見が入り交じるリスクを被害者視点で考えはじめると、やっぱり恐ろしくなります...。ですが、それでもテクノロジーなしに未来の警察機関はイメージできないのもたしかであって...。今後も長く、慎重に向き合うべきテーマだといえそうです。

Image: Getty
Source: Phys.org

Sidney Fussell - Gizmodo US[原文]

(Rina Fukazu)