AI の倫理: 欠けているコード from securityboulevard.com
security summaryAI における倫理とは、AI の開発と使用を管理する道徳的原則と価値観を指します。
AI における倫理の必要性が生じるのは、AI が害を及ぼしたり、偏見を永続させたりする可能性があるためです。
AI は、それを設計して展開する人間と同じくらい倫理的です。
AI に関する最も重大な倫理的懸念の 1 つは、バイアスの可能性です。
もう 1 つの倫理的懸念は、AI システムの透明性の欠如です。
AI のトレーニングに使用するデータや、「禁止されている」アウトプットを決定することはできますが (たとえば、13 歳の少女に、セックスについて両親に嘘をつく方法を教えてはいけません)、プログラムは、AI をどのように使用するかについて不透明です。


コメント