人工知能に対する脅威を防ぐために設立された同盟

合計12の技術巨人が独自の同盟を組み、機械学習システムや人工知能への脅威を防ぐ。

Adversarial Machine Learning Threat Matrixは、Microsoft、Bosch、IBM、Nvidiaなどからなる組織の名称で、技術NGOのMitre Corporationも参加しています。

マトリックスは、セキュリティの専門家が将来の脅威に対応し、それを軽減するのに役立つことを目的とした、業界に焦点を当てたオープンなフレームワークである、とサイエンス・タイムズ紙は述べています。

セキュリティの専門家は、機械学習システムのセキュリティ対策を回避するためにサイバー攻撃者によって今日一般的に使用されているテクニックにアクセスすることができます。

専門家がシステムのセキュリティを高めるだけでなく、監視・対応戦略を向上させることができるようになることが目的です。

リスクの増加

機械学習は、防衛、健康、金融など、私たちの生活に計り知れないほどの影響を与える多くの分野に変革をもたらしています。

しかし、この分野を飛躍的に進めようとすると、多くの企業がセキュリティを危険にさらし、脆弱になってしまいます。

マイクロソフトによると、この4年間で商用の自己学習システムを狙ったサイバー攻撃が目立って増加しているという。

ガートナーによると、諜報系サイバー攻撃の最大3分の1が「訓練データのポイズニング、AIモデルの盗難、有害サンプル」を使ってシステムを攻撃するという。

リアルトレーニング

新しい脅威のマトリックスの構造は、セキュリティ産業を強化するために、攻撃者によって使用される戦略に取り組むように努めています。

実際には、自動学習システムにおける実際の攻撃や記録された攻撃に基づいているため、分析者が理論的なシナリオに浸ることを防ぐことができます。

comments powered by Disqus