Protect AI が AI モデルを保護するためのゲートウェイを発表 from securityboulevard.com

security summary



Protect AI によるゲートウェイを使用すると、組織はセキュリティ ポリシーを適用して、人工知能 (AI) モデル内で悪意のあるコードが実行されるのを防ぐことができます。
このゲートウェイは、機械学習モデルをスキャンして安全でないコードが含まれているかどうかを判断する ProtectAI のオープンソース ツールである ModelScan に基づいています。
安全であるとみなされる場合、悪意のある攻撃者がコードを挿入する侵害されたモデルをアップロードすることによって、モデルが侵害される可能性があります。
「安全な」モデルに追加されると、モデルを再トレーニングすることはできません。

コメント

タイトルとURLをコピーしました