セキュリティ 人工知能への敵対的攻撃
近頃、様々な場所で人工知能という言葉を見聞きするようになりました。自動で車を走らせる技術や、病気を診断する技術、人の顔を識別する技術など、私たちの暮らしにも深く入り込みつつあります。こうした技術は、膨大な量の情報を元に学習し、様々な規則性を見つけることで、物事を判断したり予測したりしています。大変便利な反面、安全面で不安な点も潜んでいます。人工知能を狙った攻撃もその一つです。
この攻撃は、人工知能の弱点を探し出し、間違った動きや判断をさせるというものです。人工知能は、学んだ情報から規則性を見つけて判断しますが、この学習の過程や判断の過程を巧みに操ることで、人工知能の能力を低下させたり、本来とは異なる動作をさせたりすることが可能です。例えば、自動運転の車に搭載された人工知能が、道路標識を誤って認識し事故につながることも考えられます。また、人の顔を識別するシステムが悪意ある人物のアクセスを許可してしまう可能性も懸念されています。
この攻撃への対策はいくつか考えられます。一つは、人工知能の学習データに、攻撃を想定した様々な変化を加えておくことです。これにより、予期せぬ事態にも対応できる、より頑丈な人工知能を作ることができます。また、人工知能が出した判断結果を、別の方法で確認する仕組みも有効です。複数の方法で確認することで、誤りの発生を防ぐことができます。人工知能は私たちの社会を大きく変える力を持っています。その恩恵を安全に受けるためには、こうした攻撃に対する備えをしっかりと行うことが重要です。今後ますます発展していく人工知能と共に、安全対策の技術も進化していく必要があるでしょう。
