ここから本文です

AIが“人間を襲う”前に知っておくべき真実ー自律型兵器はここまで来ている

7/27(木) 21:10配信

BUSINESS INSIDER JAPAN

「AI(人工知能)は人間を襲いますか?」

一般的なビジネスパーソン向けのAIの講演では質疑応答に入ると、こんな質問がよくされる。人工知能学者達はこうした質問を一笑に付し、「ナイフは果物の皮をむくことができますが、人を傷つけることもできます。結局は人間次第なのです」と答えるだろう。映画「2001年宇宙の旅」や「ターミネーター」の影響からか、人間に対して反乱を起こし、危害を加えるAIの出現に対する漠然とした不安は人々の間に根強い。

【画像】米国防総省。アメリカでは兵士への負荷を極力減らすために兵器の「無人化」が勧められている。

正確に知っておくべきは兵器における利用

AIの現時点での中心的技術は、機械学習(Machine Learning)であって、「高頻度で発生する事象があり、その事象のデータが取得できれば、高い精度で認識、推奨、予測、仕分け、そして最適化などが可能になる」というものである。より具体的には何らかのセンサで検知されたデータをアルゴリズムが解析し、アウトプットを返すことである。このアルゴリズムは機械学習等のAI技術によってつくられている。アルゴリズムが考えた「答え」であるアウトプットがアクチュエータ(油圧や電動モータなど)につながり、物理的動作になれば、それはロボットになるだろう。

AIは人工「知能」というだけあって、この知能であるアルゴリズム部分があたかも人間が思考するように自律的に動いているように見えるのだ。余談だが、驚くべきことにAIの学術的な定義は無く、その定義は人工知能学者ごとに異なっている。

ITに関するリテラシーの高いビジネスパーソンでも「AIは人間を襲いますか?」と聞くような現状において、我々が正確に知っておくべきことはグローバルな安全保障・国防における人工知能利用の現在地点ではないだろうか、本稿では技術の応用がどこでどのくらい進展しているのか? それに対してどういった国際的な規制の動きがあるのか? について事実関係を整理してみたい。それらを知ることはビジネスシーンでの人工知能の倫理問題、規制を考える上でも有意義だろう。

1/4ページ

最終更新:7/27(木) 21:10
BUSINESS INSIDER JAPAN