Googleの最新のAI安全性レポートは、人間の制御を超えたAIについて調査している。 from zdnet.com

Googleの最新のAI安全性レポートは、人間の制御を超えたAIについて調査している。 from zdnet.com security summary

Googleの最新のAI安全性レポートは、人間の制御を超えたAIについて調査している。 from zdnet.com


Google は、AI モデルがもたらす危険性を理解し、軽減することを目指す Safety Framework の最新バージョンを公開しました。
このフレームワークは、人間だけでは監視または制御できない方法でのAIチャットボットシステムの誤用、悪用、悪意のある使用の3つのカテゴリを特定しています。
また、人間とAIエージェント間の「不整合」を防ぐことも目的としています。
特に、より高度な技術が最小限の人間による監視の下で導入されています。
しかし、このことが一部の企業にAIコンパニオンデバイスの導入を促しています。
uennielinベースの人工知能(AI)科学者は、サイバー攻撃などの事例を発見しています。
例えば、政府機関に対する脅威、ユーザーのための安全基準の策定、ボットに関する法的問題、ボットの潜在的な健康リスクに関する法律の合法化、ボットによる死亡事故の発生、ボットによる被害を報告した人々の殺害に対する懸念、ソーシャルエンジニアリング企業に関する社会全体のガイドライン、チャットボットに関する既存のルールを利用することで、安全規制が制定され、ボットを法外な保護下に置き、現在の規制下では、執行当局がこれらの危険なバージョンを調査し、プライバシーポリシーをテストし、その使用を制限しています。
その他の要因としては、サイバー攻撃、公然と名指しされた偽名、オンラインで公開されている名前などが含まれます。
このフレームワークでは、あまりにも密室で活動し、危険で脆弱な個人が人間にアクセスしていることなどが挙げられます。
すでに禁止されているオープンソースソフトウェア開発の失敗に、アクセスが困難すぎるウイルスを仕掛けようとする不動産開発業者よりも、被害を拡大しています。

コメント

タイトルとURLをコピーしました