ディープフェイク検出器を騙す方法を検証

2020年末、マイクロソフトはディープフェイク(超偽物)の写真や動画の検出に役立つソフトウェアを発表しました。

しかし、最近、コンピュータ科学者のグループが、これらのシステムは欺くことができると主張しています。

WACV 2021」では、映像の各フレームに「不利な例」と呼ばれる入力を挿入することで、検出器を打ち破ることができることを実証しました。

逆例とは、わずかに操作された入力により、人工知能(AI)システムがミスやエラーを起こすことと定義できます。

研究者チームは、動画を圧縮した後も攻撃が有効であることを実証するとともに、ウルトラフェイク検出器を破る可能性があることによるリスクについても警告しています。

“カリフォルニア大学サンディエゴ校でコンピュータ工学の博士号を取得したShehzeen Hussain氏は、「今回の研究により、偽装検出器への攻撃が現実の脅威となり得ることがわかりました」と説明しています。

さらに、“我々は、敵対者が検出器が使用する機械学習モデルの内部構造を知らない場合でも、堅牢な敵対的深層偽装を構築することが可能であることを示しています。” と述べています。

ソーシャルメディア上で偽の動画が大量に拡散され、世界中で大きな問題となっています。著者によれば、これはデジタルメディアの信頼性にも影響するという。

“この論文のもう一人の著者であるPaarth Neekhara氏は、「攻撃者が検知システムについてある程度の知識を持っていれば、検知システムの盲点を狙った入力を設計し、検知システムを回避することができます。

その結果、現在の超誤検出の手法は、検出器を完全に、あるいは部分的に知っている人であれば、簡単に回避できることが実証されました。

そのため、攻撃者に回避されないように、これらのシステムを改善・適応させることを推奨しています。

comments powered by Disqus