ここから本文です

AIによる人物写真のラベリングは、どこまで適切なのか? ある実験が浮き彫りにした「偏見」の根深い問題

2019/12/14(土) 13:10配信

WIRED.jp

今年の9月にネットで話題になった「ImageNet Roulette」というプロジェクト。画像データベースによるディープラーニングに基づいて人物の写真をラベリングするという実験的な試みだったが、その狙いはAIに潜む偏見(バイアス)の存在を浮き彫りにすることにあった。

データセットにおける問題とは?

Twitterユーザーたちが9月、奇妙なラベル付けがされた自分の写真を投稿し始めた。そこには「顔」といった当たり前すぎてかえって当惑するようなラベルが貼られている一方で、なかなかつらい真実を再認識させられるラベルもあった。ちなみにわたしは「何の影響力もない人物」。とるに足らない、“誰でもない”人間であると宣告されたのである。

それはともかく、もっと問題のあるラベルもたくさんあった。「強姦の容疑者」や「債務者」といった表記、そして「黒人」だけでなく「ニグロ」や「ネグロイド」というラベリングまで見られたのだ。

これらはすべて、「ImageNet Roulette」というプロジェクトによるものだった。アーティストのトレヴァー・パグレンと研究者のケイト・クロフォードによる取り組みで、人工知能(AI)に欠陥のあるデータを与えることの危うさを示すことが狙いである[編註:このプロジェクトはすでに終了している]

偏見が含まれる2,395ものラベリング

プロジェクトの“標的”は、AI分野における重要なリソースのひとつである「ImageNet」だった。ImageNetは1,400万件の画像が登録されたデータベースで、自律走行車から顔認識まであらゆるものに使われているディープラーニング(深層学習)の可能性を引き出すものとされている。

このほど話題になったImageNet Rouletteのラベリングのアルゴリズムは、ImageNetに登録された画像によって訓練されていた。ImageNetに登録されていた人物の写真は2,395ものカテゴリーによってラベリングされており、そのラベルは「だらしない女(slatterns)」から「ウズベク族(Uzbeks)」まで多岐にわたる。

「ImageNetの“中身”をこじ開けて、そこに登録された人物写真に人々の目を向けたかったのです」と、パグレンは語る。公開されるやいなやネット上で注目された今回の実験は、多く課題を浮き彫りにした。そもそも、なぜこんなラベルがつくられたのか。また、なぜそれが残っていたのかという疑問だ。

これらの疑問への答えは、未熟な科学だったAIが日常的なツールへと急速に進化したことに加えて、大量のデータのなかにバイアスになりかねない情報が潜んでいることに根ざしている。そしてこの問題は、最近になってAI分野の研究者たちから注目され始めている。

そこにはImageNetの開発者たちも含まれる。開発者たちは自分たちがつくったデータベースの欠陥について十分に認識しており、この1年以上は「人」関係のラベルにおける問題の解決に取り組んできたのだという。開発者たちは、人物の写真が研究者たちに利用されることはめったにないとしながらも、データセットから「バイアスの除去」を進めているのだと語る。

1/2ページ

最終更新:2019/12/14(土) 13:10
WIRED.jp

こんな記事も読まれています

あなたにおすすめの記事