
中国のAIスタートアップ企業DeepSeekは、自社モデルの安全性リスクを詳述した査読済み研究論文を発表し、オープンソースシステムは悪意のある攻撃に対して特に脆弱であることを明らかにした。
この研究によると、OpenAIのR1推論モデルは、外部の安全機構が無効化されると「比較的安全ではなくなる」状態になり、テストされたすべてのモデルが脱獄技術に対して有害な反応を示す「割合が大幅に増加」したことが明らかになった。
中国企業は伝統的に米国企業に比べて安全性に関する懸念についてあまり積極的に発言してこなかったが、この研究は透明性向上に向けた一歩として歓迎された。


コメント