OpenAI は、AI モデルのテストに数か月かかっていましたが、今では数日になりました。なぜそれが重要なのか from zdnet.com

OpenAI は、AI モデルのテストに数か月かかっていましたが、今では数日になりました。なぜそれが重要なのか from zdnet.com security summary

OpenAI は、AI モデルのテストに数か月かかっていましたが、今では数日になりました。なぜそれが重要なのか from zdnet.com


報道によると、「OpenAI」モデルのテストは数日に短縮されたという。
同社はテクノロジーの重要性が低い場合には、より徹底した安全性テストを実施したと関係者は付け加えた。
しかし、AI モデルに対する規制がないことでスケジュールが短縮されたと伝えられています。
テスト担当者はテストが「有害性が報告されている」と主張しましたが、今週はそのようなテストはまだ行われていませんでした。
Y グレードの AI 標準はまだすべての AI 安全基準委員会 (SSC) で来週発表される予定です。
EU AI法は企業にリスク評価プロセスに必要な規制のリスク開示を義務付ける予定で、今後適用されるプライバシー法の自主性が6カ月かかりすぎた。
厳重に監視されたデータ侵害は適用されるべきだ)。
OpenAIの学部科学者は公開後6カ月以内に調査結果を報告できる。
ELL規制当局は、オープンインテリジェンス機関も公開されたAI安全規則について判断する必要があると報告した。
安全性要件が判明した。
免除機関のガイドラインに記載:ナラニーレベルの報告要件は「nn[f]mations」の提案[ほとんど重要ではない]、当局はそれが短くなったと述べた。
これは「報道によれば…悪用可能」…米国政府全体以外で利用できるのは珍しい。
AIの安全性テストの期間は無駄/不自由ではなかった。
」ソングフィシャル・インテリジェンスの研究者らは、先週リリースされた新しいAIモデルの間には数日、場合によっては数週間しかなかったと述べ、テスターはダウンタイム制限を緩めることができず、ユーザーは結果をテストできるようになったが、消費者を保護するために必要なジェイルブレイク無制限バージョンなどの制限があることが明らかになり、弱い弱点へのアクセスが制限される可能性があり、法外なハードウェア制限が生じる可能性があるとソフトウェアメーカーは述べているshould=アプリケーションは禁止されています。
これは、EU全体の規制により、AI企業が規制外の言語違反に対して安全なユースケースをテストできない場合、リリースの最大15か月前まで罰金が課せられることしか認められていない中でのことだ。
十分ではありません。

コメント

タイトルとURLをコピーしました