セキュリティ AIを欺く攻撃:敵対的攻撃とは?
私たちの暮らしの中に、まるで空気のように溶け込み始めた人工知能。自動車の自動運転や病気の診断など、様々な場面で活躍しています。しかし、便利な道具であると同時に、思いもよらない危険性も潜んでいるのです。その危険性のひとつが「敵対的な攻撃」です。これは、人工知能の判断能力を狂わせ、間違った動作をさせる悪意のある攻撃です。
人工知能は、大量の情報から学び、見つけた規則性を使って判断します。敵対的な攻撃は、この学習方法や規則性を見つける能力の弱点を突いてきます。例えば、画像を見分ける人工知能の場合を考えてみましょう。私たち人間には全くわからない程度の、ごく小さなノイズを画像に混ぜると、人工知能が全く違うものだと勘違いしてしまうことがあります。これは、自動運転システムで考えると、標識を間違えて認識し、事故につながる危険性があります。
もう少し具体的に説明すると、停止の標識に、人間には見えない模様を貼ることで、人工知能がそれを制限速度の標識だと誤認識してしまうのです。この結果、車は停止せずに進んでしまい、事故につながる可能性があります。また、医療診断の画像にノイズを混ぜることで、人工知能が病気を誤診する危険性も考えられます。このように敵対的な攻撃は、私たちの安全を脅かす可能性があるのです。
敵対的な攻撃は、人工知能の信頼性と安全性を揺るがす重大な問題です。そのため、人工知能を守るための対策が急がれています。人工知能の学習方法を改良したり、敵対的な攻撃を検知する技術を開発したりするなど、様々な対策が研究されています。人工知能が安全に使えるように、対策をより一層強化していく必要があるでしょう。
