ここから本文です

注目のキーワード「人間中心のAI」って何?

11/20(水) 12:00配信

Forbes JAPAN

人工知能(AI)活用への期待が全世界的に高まる昨今、徐々に注目を浴び始めているキーワードがある。「人間中心のAI(human centered AI)」というものだ。

今年3月、元グーグルの著名AI研究者であるフェイフェイ・リー氏らが中心となり、米スタンフォード大学で「人間中心AI研究所(HAI)」が発足した。翌月には、日本の内閣府が「AI社会原則」を策定したが、そのなかにも「人間中心の原則」が盛り込まれている。

いずれもAIが社会に及ぼすメリットを前提としつつも、人間に対するデメリットにも注意深く目を配るべきだという理念を掲げる。同様に、世界各地では人間中心のAIを標語に掲げた研究・開発が散見されるようになった。

では、人間中心のAIとはどのようなAIを指すのか。資料や関係者の発言を漁ってみた率直な印象としては、「これだ!」というパッとした明確な答えはない。そもそも、人間やAIの定義すら定まっていない(そして今後も定まりそうもない)なか、議論はまだまだ始まったばかりというのが実情のようだ。

とはいえ、世界各国で表面化してきたAIの問題点から、「ネガティブリスト方式」で人間中心のAIを模索しようという動きがある。ここではそのいくつかの例を紹介したい。

人間中心のAIにあるべき性質は?

まず人間中心のAIは、「公平なAI」であるべきという論点がある。機械学習では学習用データに偏りがあると、偏見や差別を増強しかねない。海外では特定人種のみ再犯率が高く判定されたり、顔認証システムの認識率が低く不利益を被るという事態が発生している。

昨今では採用や面接にAIが用いられる傾向が増えてきたが、ジェンダーや人種などによって偏見的な判定を下さないAIが必要というのも公平なAIの議論に含まれる。

次に「説明可能性」や「透明性」も、人間中心のAIを実現する上で不可欠だとされている。ディープラーニングは高精度だが、人間に理解可能なように理由を説明することができない。いわゆる「ブラックボックス問題」だが、結果として何か問題が起きた時に「原因解明」や「責任判断」が下すことができず、そうなると人間にとってデメリットが少なくないというわけだ。

3つめは「攻撃や悪意に強いAI」だ。悪意ある人物が学習用データを改ざんしたり、誤認識を誘発する手段を用いた場合、人間中心のAIはこれに耐えうるものでなければならないというものである。例えば、マイクロソフトのAIチャットボット「Tay」は、悪意ある人々に偏ったデータを“提供”され、差別的だとしてわずか1日で稼働を停止している。

また、昨今では、人間には気づけないようなわずかな加工や細工で、画像認識AIを騙す技術(敵対的サンプル)もにわかに話題だ。攻撃や悪意に強いAIは、人間の命を守るという文脈で、得に自動運転などの分野において重要視されうる要素となっている。

1/2ページ

最終更新:11/20(水) 12:00
Forbes JAPAN

こんな記事も読まれています

あなたにおすすめの記事