Googleは、AIの武器化の禁止を削除します

以前のポリシーの逆転において、ハイテク大手は、武器と監視ツールの開発に技術を使用することを許可します。

Googleは、人工知能の原則を大幅に修正し、武器や監視ツールを開発するための技術を使用することに関する以前の制限を削除しました。火曜日に発表された更新は、引き起こす可能性のある申請に対する会社の事前の姿勢を変えます 「全体的な害。」

2018年、Googleは、AIを使用してデータを処理し、戦闘業務のターゲットを特定するためにAIを使用した米国国防総省プロジェクトなど、軍事努力への関与に対する批判に対する批判に対応して、AIの原則のセットを確立しました。元のガイドラインは、Googleが人々の負傷を引き起こす、または直接促進する武器または技術で使用するためにAIを設計または展開しないこと、または国際的に受け入れられた規範に違反する監視のためにAIを設計または展開しないと明示的に述べました。

ただし、GoogleのAI原則の最新バージョンは、これらのポイントをスクラブしました。代わりに、Google Deepmind CEOのDemis HassabisとTechnology and SocietyのシニアエグゼクティブJames Manyikaは、Tech Giant’sの新しいリストを公開しています 「コアテナント」 AIの使用に関して。これらには、イノベーションとコラボレーションに焦点を当て、その声明が含まれます。 「民主主義は、自由、平等、人権の尊重などのコアバリューに導かれ、AI開発をリードすべきです。」

以前にGoogleの倫理的AIチームを共同でリードしていたマーガレットミッチェルは、ブルームバーグに「危害」条項の削除は、会社が現在取り組んでいることを示唆するかもしれないと語った 「人々を殺すことができる技術を直接展開します。」




ワシントンポストによると、ハイテク大手はガザ戦争の初期の数週間以来、イスラエル軍と協力して、人工知能サービスを提供するためにアマゾンと競い合っています。 2023年10月のイスラエルに対するハマスの攻撃の直後、Googleのクラウド部門は、民間政府の省庁への関与を制限するという会社の公的主張にもかかわらず、イスラエル国防軍にAIツールへのアクセスを許可するように働きました。

Googleの政策の逆転は、AIによって人類にもたらされた危険に対する継続的な懸念の中でもたらされます。 AIの先駆的な人物であり、2024年のノーベル物理学賞の受賞者であるジェフリー・ヒントンは、昨年後半に、この技術が今後30年以内に人間の絶滅につながる可能性があると警告しました。

ヒントンは、AIシステムが最終的に人間の知性を上回り、人間のコントロールを逃れ、潜在的に人類に壊滅的な害を引き起こす可能性があると警告しています。彼は、テクノロジーのAIの安全性と倫理的使用にかなりのリソースを割り当てるよう促し、その積極的な措置が開発されることを求めています。

このストーリーをソーシャルメディアで共有できます。

出典

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください