
PwCの最近の調査によると、IT、エンジニアリング、データチームが責任あるAIを主導していることが明らかになりました。
責任あるAIを実現するための課題は、倫理的使用などの原則を繰り返し実行可能なプロセスに変えることだと報告書は付け加え、「人間との信頼関係を築く必要がある」と付け加えています。
報告によると、経営幹部の5人に1人(21%)は、責任あるAIプロジェクトの開発においてまだ研修段階にあるか、あるいはプロジェクト自体のせいで放棄されているとのことです。
意思決定は、すべての組織でAIが採用されている組織が、研究によって「責任ある」技術が安全基準を向上させる必要があることを認識しています。
コンプライアンス要件が維持されるように、あらゆる場所に適用できます。
研究者によって発見されたコミュニケーションは、十分な人材がいなかったため、リスクの高いアプリケーションを削減できる可能性があります。
企業は、責任を負わないべきであると述べています。
ソフトウェア開発マネージャーは今年、責任の所在を後向きに考えるべきだと述べています。
人間の本性を考慮して開発された分析システムは、自律型マシンが適切に機能しないときにも意味をなします。
ガバナンスフレームワークには、関連する規制リスクを組み込む必要があります。


コメント