ChatGPT が AI パッケージ幻覚攻撃で悪意のあるパッケージを拡散 from securityboulevard.com


AI パッケージ幻覚と呼ばれる、新しく発見された ChatGPT ベースの攻撃手法を使用すると、攻撃者は未公開のパッケージの代わりに独自の悪意のあるパッケージを公開できます。
研究者のBar Lanyado氏、Ortal Keizman氏、Yair Divinsky氏は、「私たちの研究では、攻撃者がChatGPTを簡単に利用して、悪意のあるパッケージを開発者の環境に広めることができることが判明した」と書いている。
Vulcan Cyber​​ Voyager18 の研究者は、「ChatGPT がコード ライブラリ (パッケージ) を捏造している場合、攻撃者はこれらの幻覚を利用して、タイポスクワッティングやマスカレードなどのよく知られた手法を使用せずに、悪意のあるパッケージを拡散する可能性があります。この手法は疑わしくも検出可能です」と説明しています。
「しかし、攻撃者が ChatGPT が推奨する『偽』パッケージを置き換えるパッケージを作成できれば、被害者にそれをダウンロードさせて使用させることができるかもしれません。」
「理解もテストもしていないコードを、オープンソースの GitHub リポジトリや ChatGPT の推奨事項などのランダムなソースから取得するだけでダウンロードして実行してはなりません」と、Tanium のエンドポイント セキュリティ研究ディレクターの Melissa Bischoping 氏は述べています。
「実行する予定のコードはすべて、セキュリティについて評価する必要があり、そのコードのプライベート コピーを作成する必要があります。攻撃例で使用されたようなパブリック リポジトリから直接インポートしないでください。」

コメント

タイトルとURLをコピーしました