企業が攻撃手法を借りて機械学習モデルに透かしを入れる、Robert Lemos、寄稿者

https://www.darkreading.com/threat-intelligence/companies-borrow-attack-technique-to-watermark-ml-models
もともとBadNetsとして知られていたバックドア型ニューラルネットワークは、MLモデルの知的財産を保護するために、独自の透かしを作成するという脅威と約束の両方を表しています。
IBMは同様の手法を使用してフレームワークを作成し、現在、サービスとしてのモデル透かしを調査していると、同社の研究チームはブログ投稿で述べています。
「トレーニングと入力データにパターンが埋め込まれたバックドアポイズニングと透かしのMLモデルは、主にユーザーの目的に応じて、同じ手法の2つの側面と見なすことができます」と彼は言います。
「今日の機械学習モデルには非常に大きな価値があります。企業がAPIを介してMLモデルを公開しているため、これらの脅威は仮説ではありません」と彼は言います。
これらのモデルは、元の作成者が透かしを入れる必要があるだけですが、攻撃者による悪意のある機能の埋め込みから保護する必要があります、とIBMのマロイは言います。
「より感度の高いモデルについては、モデルを盗難から保護し、1つの保護手段だけに依存するのではなく、全体的なアプローチを提案します」と彼は言います。

コメント

タイトルとURLをコピーしました