ここから本文です

Microsoftが語る機械学習の成果と懸念

9/20(金) 9:00配信

TechTargetジャパン

 セキュリティオペレーションセンターは、何兆件ものセキュリティシグナルを収集している。これらのシグナルが本格的なサイバー攻撃に変わる前に、それを悪意のあるアクティビティーとして警告する機械学習がある。この機械学習がなければ、こうしたシグナルを理解するのはセキュリティアナリストにとって途方もない作業になる。

 例えば「Microsoft Azure」(以下、Azure)では、毎日6兆5000億件ものセキュリティシグナルが生まれる。同社には数百人のセキュリティ担当者がいる。だが、このように多くのデータポイントを解析することは人間の能力を超えている。そう話すのは、同社でサイバーセキュリティ分野のCTO(最高技術責任者)を務めるダイアナ・ケリー氏だ。

 同氏はシンガポールで開催された「RSA Conference 2019 Asia Pacific & Japan」で本誌のインタビューに答えて次のように話した。「このような場合に役立つのが機械学習だ。攻撃についての情報の早期検出をサポートし、人間には見えないものを見つける」

 Microsoftは複合検知やモンテカルロシミュレーションなどの技法を使って、正確性の低いシグナルを正確性の高いシグナルへと変えている。コンピュータは学習するにつれ、人間には分からないセキュリティイベントを検知するようになる。

 ケリー氏によると、脅威を数ミリ秒で検知することもあれば、ランサムウェア「Bad Rabbit」の場合のように数分を要することもあるという。Bad Rabbitは、ランサムウェア「WannaCry」や「Petya」と同様、被害者に数百万ドルの収益減をもたらす。

 Microsoftは、「Windows」端末で見つけたBad RabbitをAzureの複数の機械学習モデルに適用した。

 本当に悪意のあるマルウェアだと立証するのに14分かかった。だが「人間が実際にリバースエンジニアリングを試みることを考えれば、非常に速い」とケリー氏は言う。

 機械学習は、脅威対策のサイクルを速めるのに役立つ。だが、機械学習に携わる多様なチームを用意しなければ、データと脅威のモデルにバイアスが生まれ、犯罪者に攻撃の経路を与える恐れがある。

 「認知の多様性を確保しなければならない。モデルを構築するチームには、データセキュリティサイエンティストやコンピュータエンジニアだけでなく、法律家やプライバシーの専門家も含め、機械学習モデルの作成時に包括的にアプローチできるようにする必要がある」(ケリー氏)

 ケリー氏は、データに無意識のバイアスが生まれることを懸念している。ケリー氏は、履歴書を解析して候補者を特定する機械学習ツールを例に挙げた。男性従業員が多い企業の場合、データには既にバイアスが存在するという。

 「コンピュータエンジニアリングやサイバーセキュリティの分野には男性が多い。男性従業員が多ければ、ツールは男性を優れた候補者であると判断するだろう」と同氏は話す。

 「こうした現象は、ユーザーに金融情報を提供するオンラインサイトでも生じる。これまで男性の投資家が多かったという理由で、女性の投資家は投資の新しいチャンスについての情報が得にくい」(ケリー氏)

 サイバー攻撃者は、被害者の判断を誤らせるために機械学習モデルが利用するデータを既に操作し始めている。

 「攻撃者は、分類予定の画像の画素を単純に変えるなど、注目すべき攻撃を幾つか試している。その結果、人間に提供される分類が変わる恐れがある。攻撃者は分類方法の理解を試み、分類に影響を与えようとしている」とケリー氏は話す。

 調査会社Gartnerによると、セキュリティに機械学習を早くから導入しているのは、マルウェア、ユーザー行動分析、エンドポイントセキュリティなどの分野だという。同社は、2025年までに機械学習をセキュリティ戦略に含めるのが当たり前になると予測する。

TechTargetジャパン

最終更新:9/20(金) 9:00
TechTargetジャパン

こんな記事も読まれています

あなたにおすすめの記事