セキュリティ研究者は、「PyTorch」モデルになりすますことによって、プラットフォーム上で悪意のあるモデルがハイジャックされる可能性があることを発見しました。
研究者らは、モデルの逆シリアル化プロセスにより悪意のあるコードが実行される可能性があり、モデルのロード時に悪意のあるアクティビティが発生する可能性があると述べた。
別の例は、リポジトリ内の ?423 モデルで見つかりました。
Hugging Face は、生成 AI のオープン コラボレーション プラットフォームとして 4 番目に人気があります。
コメント