ここから本文です

AIのブラックボックス化を許さないGDPRに注意

2/18(月) 9:51配信

TechTargetジャパン

 機械学習に個人データを利用するなら、EUの一般データ保護規則(GDPR)に従う必要があると話すのは、StudioAGで主席コンサルタントを務めるアレッサンドロ・グアリーノ氏だ。

 GDPRは、自動的に行われる個人の意思決定やプロファイリングの全てに適用される。こうした自動処理は、人工知能(AI)、特に機械学習アルゴリズムの最も一般的な応用事例だ。同氏はベルギーのブリュッセルで開催されたサイバーセキュリティカンファレンス「EEMA ISSE 2018」でこう語った。

 GDPRは、プロファイリングを「自然人と関連する一定の個人的側面を評価するために、特に、当該自然人の業務遂行能力、経済状態、健康、個人的嗜好、興味関心、信頼性、行動、位置及び移動に関する側面を分析又は予測するために、個人データの利用によって構成される、あらゆる形式の、個人データの自動的な取扱い。」(訳注)と定義している。
訳注:日本語訳は「自動化された個人に対する意思決定とプロファイリングに関するガイドライン(https://www.ppc.go.jp/files/pdf/profiling_guideline.pdf)」から引用。

 ただし、グアリーノ氏はこれには問題があると話す。機械学習による意思決定システムの大半はルールベースのエキスパートシステムという古いスタイルではなく、「ブラックボックス」になっているためだ。これではGDPRの透明性、説明責任、そしてデータ主体に主導権があるという要件に従うことができない。

 「説明責任はGDPRの主要な基本原則の一つだ。これは機械学習アルゴリズム、中でもディープラーニングやフィーチャーの自動抽出などの新しいツールに非常に大きな課題をもたらす。こうしたツールは、その評価方法や利用対象になるフィーチャー(データポイント)を把握できないためだ」(グアリーノ氏)

 機械学習のモデルは、データ、特に個人データの活用が原動力になるとグアリーノ氏は話す。つまりプライバシーのリスクが存在する。こうしたリスクは個人のプライバシーを尊重する倫理的な方法により、「監視されている」「差別されている」と思われずに乗り越えなければならない。

 グアリーノ氏はもう一つ問題を指摘する。GDPRは、EU圏外のデータ管理者がEU市民の個人データを扱う場合にも適用される。だが米国を始めとする多くの国は、データ主体自身がデータを管理することを法律で規定しておらず、提供されたデータは企業の財産になる。つまり、その企業はそのデータを再利用または再販売できる。

1/3ページ

こんな記事も読まれています

あなたにおすすめの記事