
AIエージェントによる。
Living Securityは、数十億ドル規模のシグナルを分析してリスクの軌跡を予測し、最も効果的な行動を推奨する人工知能エンジンを自社のプラットフォーム上でベータテストしている。
同社は、AIは大規模なリスクをより迅速に特定するのに役立つが、潜在的にコストがかかる可能性があると付け加えた。
注目すべきは、企業が従業員のデータ保護を人間に大きく依存していることである。
しかし、同社は、AI技術自体、または適切に実装されていないことが一因となって、コンプライアンスで義務付けられた行動に違反する可能性があると付け加えた。
人工知能(AI)アルゴリズムを意図的に使用することは、AIからも結果をもたらす可能性が高いが、ローズ氏は、違反行為が観察されたのは、人々が違反行為をしたときに高確率で起こったと述べた。
サイバーセキュリティチームは、時間の経過とともに、AIによるリスクの回避につながるはずの出来事も避けてきた。
「不確実性が生じる可能性がある」と彼女は付け加えた。
ファイアウォールやコンプライアンス遵守義務などの自動化されたマシンに対する是正措置は依然として未解決のままであり、既存のセキュリティエンジニアの下では、人権侵害の危険にさらされる不審な行為者によってサイバーセキュリティチームは最終的に軽視された脅威のみを克服し続けることになる。
サイバーセクターは、ポリシー違反を完全に悪用しておらず、出力システムが自動的に機能しなくなる。


コメント