Adversarial Attack

記事数:(1)

セキュリティ

敵対的攻撃:AIの弱点

近頃、様々な場所で活用されている人工知能は、画像を見分ける、音声を聞き取るといった能力において目覚しい進歩を遂げてきました。しかし、どんなに優れた技術にも欠点があるように、人工知能にも弱点があります。それは、人が見分けられない程度の、ごく小さな変化を加えられた情報によって、間違った判断をしてしまうことです。このような人工知能の誤りを引き起こす行為は、「敵対的攻撃」と呼ばれています。 例えば、パンダの絵に特殊なノイズと呼ばれる、人が認識できないほどの小さな変化を加えてみます。すると、私たち人間には変わらずパンダに見えるその絵を、人工知能はテナガザルだと誤って判断してしまうことがあるのです。まるで、人工知能の目を欺く、いたずらのようなものです。 他にも、自動運転の分野では、標識にシールを貼ることで、人工知能が標識の内容を誤認識してしまう危険性も指摘されています。例えば、「止まれ」の標識に特定の模様のシールを貼ると、人工知能はそれを制限速度の標識と誤認識してしまうかもしれません。これは大変危険なことです。 このように、人工知能の持つ認識能力の限界を突いた攻撃は、私たちの生活に様々な影響を及ぼす可能性があります。人工知能が私たちの生活をより便利で安全なものにするためには、このような弱点への対策が不可欠です。人工知能の信頼性を高めるための研究や開発が、今後ますます重要になってくるでしょう。