![](https://media.wired.com/photos/656e5672fab4cd193a0b3a65/191:100/w_1280,c_limit/A-New-Trick-Uses-AI-to-Jailbreak-AI-Models%E2%80%94Including-GPT-4-Security-GettyImages-1303372363.jpg)
大規模な言語モデルは、Web やその他のデジタル ソースからの膨大な量のテキストでトレーニングされます。
安全策がなければ、人々に麻薬の入手方法や爆弾の製造方法についてアドバイスを与えることができます。
ただし、保護策がなければ、モデルはハッキング攻撃に対して脆弱になる可能性があります。
「脱獄によって悪意のあるユーザーがアクセスすべきでないものにアクセスできないように、LLM を使用するシステムを設計する必要がある」と研究者は述べています。
nnng ChatGPT は GPT-4 の上に構築されています。
コメント