Protect AI によるゲートウェイを使用すると、組織はセキュリティ ポリシーを適用して、人工知能 (AI) モデル内で悪意のあるコードが実行されるのを防ぐことができます。
このゲートウェイは、機械学習モデルをスキャンして安全でないコードが含まれているかどうかを判断する ProtectAI のオープンソース ツールである ModelScan に基づいています。
安全であるとみなされる場合、悪意のある攻撃者がコードを挿入する侵害されたモデルをアップロードすることによって、モデルが侵害される可能性があります。
「安全な」モデルに追加されると、モデルを再トレーニングすることはできません。
コメント