Googleは、武器と監視にAIを使用することを禁止しています

Googleは火曜日、人工知能やその他の高度な技術を使用する方法を管理する原則をオーバーホールしていると発表しました。同社は、「全体的な害を引き起こす、または引き起こす可能性が高い技術」、「人々への負傷を引き起こす、または直接的に促進するための主要な目的または実装である武器またはその他の技術」、「情報を収集または使用する技術」を追求しないことを約束する言語を削除しました。国際的に受け入れられた規範に違反する監視」と「目的が国際法と人権の原則に広く受け入れられているテクノロジー」。

変更は開示されました 追加されたメモ ガイドラインを発表する2018年のブログ投稿のトップ。 「AIの原則を更新しました。最新情報については、ai.googleにアクセスしてください」とメモは読みます。

火曜日のブログ投稿、Googleの幹部のペアは、AIのますます広く使用され、進化する基準、およびGoogleの原則をオーバーホールする必要がある理由の「背景」として、AIをめぐる地政学的な戦いを引用しました。

Googleは、2018年に、米軍のドローンプログラムに取り組むという会社の決定をめぐる内部抗議を鎮圧するために、2018年に原則を最初に公開しました。これに応じて、政府契約の更新を拒否し、人工知能などの高度な技術の将来の使用を導く原則のセットも発表しました。他の措置の中でも、原則は、Googleが武器、特定の監視システム、または人権を損なう技術を開発しないと述べた。

しかし、火曜日の発表で、Googleはこれらのコミットメントを廃止しました。 新しいWebページ GoogleのAIイニシアチブの禁止された使用セットをリストしなくなりました。代わりに、改訂された文書は、Googleが潜在的に敏感なユースケースを追求するためのより多くのスペースを提供します。 Googleは、「適切な人間の監視、デューデリジェンス、およびユーザーの目標、社会的責任、および国際法と人権の広く受け入れられている原則と一致するフィードバックメカニズム」を実装すると述べています。 Googleはまた、「意図しないまたは有害な結果を軽減する」ために機能すると述べています。

「民主主義は、自由、平等、人権の尊重などのコアバリューに導かれたAI開発をリードすべきだと考えています」と、Googleの研究、技術、社会の上級副社長であるJames ManyikaとGoogle DeepmindのCEOであるDemis Hassabisは書いています。 、同社の尊敬されているAIリサーチラボ。 「そして、これらの価値を共有する企業、政府、および組織は、人々を保護し、世界的な成長を促進し、国家安全保障をサポートするAIを作成するために協力する必要があると考えています。」

彼らは、Googleは「私たちの使命、科学的焦点、専門分野と一致し、国際法と人権の広く受け入れられている原則と一致し続ける」AIプロジェクトに引き続き焦点を当てると付け加えました。

複数のGoogle従業員が、Wiredとの会話の変化について懸念を表明しました。 「企業が戦争のビジネスに携わってはならないという長年の従業員の感情にもかかわらず、Googleが従業員やより幅広い人々からの意見なしにAIテクノロジーの倫理的使用に対するコミットメントを削除することは深く懸念しています」とParul Koul氏は言います。 Googleソフトウェアエンジニアであり、Alphabet Union Workers-CWAの社長。


チップがありますか?

あなたはGoogleの現在または元従業員ですか?ご連絡をお待ちしております。非加工の電話またはコンピューターを使用して、 +1-415-565-1302またはparesh_dave@wired.comの信号/whatsapp/telegramのParesh Daveに連絡し、+1 785-813-1084またはemailcarolinehaskins@gmail .com


ドナルド・トランプ米大統領の先月の就任系は、多くの企業を活性化して、公平性やその他のリベラルな理想を促進する政策を修正しました。 GoogleのスポークスマンであるAlex Krasovは、この変更はずっと長くなっていると言います。

Googleは、大胆で責任ある、共同のAIイニシアチブを追求するために、新しい目標をリストしています。 「社会的に有益である」などのフレーズはなくなり、「科学的卓越性」を維持しました。追加されたのは、「知的財産権を尊重する」という言及です。

出典