
研究者たちは間接的なプロンプトインジェクション技術を用いて、GoogleのGemini AIモデルを操作し、アプリのアシスタントとしての役割を悪用することに成功した。
攻撃者は自然言語でデータを読み取り、モデルが後に実行する可能性のある悪意のある命令を実行できたと研究者は述べている。
「ペイロードは構文的には無害だったが、意味的には無害ではなかった」と研究者は述べている。
しかし、セキュリティチームはSQLペイロードやスクリプトタグといった、シグナルの高い文字列やパターンを探しているが、これは不十分である。


コメント