ここから本文です

AIは世界をどう認識しているのか? その“ブラックボックス”の中身が見えてきた

5/14(火) 12:13配信

WIRED.jp

グーグルの人工知能(AI)開発チーム「Google Brain」の研究者であるシャン・カーターは、「風変わりなもの」を持って小学2年生になる娘のクラスを訪ねた。それはサイケデリックな大量の画像で、曖昧な形が寄せ集まって歪んだ風車のように色彩が渦巻いている。

「AIアート」の生成は、誰でも簡単にできるのか? 実際に試してみた結果

これらの画像を見せられた児童たちは、ぼんやりとしたしみのひとつを犬の耳だとすぐに気づいた。つまり、7歳の子どもたちがニューラルネットワークに内包されたヴィジョンを解読したのだ。このことに、カーターは喜んでいた。

研究者たちは、ディープラーニングの“ブラックボックス”に風穴を開けようと試みている。カーターもそのひとりだ。

ニューラルネットワークは、画像に含まれる対象を識別するといったタスクを見事にやってのけることを証明した。しかし、その際にどうやって識別しているのかについては大部分が謎のままだ。ニューラルネットワーク内部の働きには、人間の目が届かない。コンピューターによる処理が幾重にも重なっており、エラーやバイアスを突き止めるのは難しいからだ。

こうしたなか、彼のチームはニューラルネットワークの内部を垣間見ることができる論文をこのほど発表し、視覚概念がどのように構築され整理されているのかを示した。

“芸術家”になり得るニューラルネットワーク

この研究が始まったのは2015年のことだ。論文の共著者であるクリス・オラーは当時、リヴァースエンジニアリングによってニューラルネットワークの解釈に取り組むプログラム「Deep Dream」の設計に協力していた。

オラーのチームはまず、巨大な画像データベースである「ImageNet」を使い、ニューラルネットワークに対しておびただしい数の対象を識別できるように学習させた。そしてこの「学習」を踏まえて、犬や木を描くよう命じたのだ。

この結果として得られたのが、まるで幻覚を起こさせるような画像だった。それは、与えられた情報をモデルがどのように「見た」のかを限定的に反映している。のちになって、これと同様のシステムを利用すれば、そこそこの値段がつく“芸術作品”を生み出せることもわかった。

1/3ページ

最終更新:5/14(火) 12:13
WIRED.jp

記事提供社からのご案内(外部サイト)

『WIRED Vol.33』

コンデナスト・ジャパン

2019年6月13日発売

1,200円(税込み)

『WIRED』日本版VOL.33「MIRROR WORLD - #デジタルツインへようこそ」来るべき第三のグローバルプラットフォームを総力特集

こんな記事も読まれています

あなたにおすすめの記事