Googleの「AI倫理原則」から消えた誓約とは?
Googleは2018年に発表した「AI Principles(AI倫理原則)」の中で、「兵器として使用するAIは開発しない」と明確に誓約していました。しかし、2025年2月時点で、この誓約が公式サイトから削除されたことが判明しました。
この変更は、アメリカの大手メディア Bloomberg や TechCrunch によって報じられ、多くの専門家や関係者の間で議論を呼んでいます。

引用元情報
- Bloomberg: Google Removes Language on Weapons From Public AI Principles
- TechCrunch: Google removes pledge to not use AI for weapons from website
- Internet Archive (2025/01/30時点のGoogle AIポリシー): Google AI Principles (アーカイブ)
- Google公式: AI Principles – Google AI
削除された内容と現在のAI倫理原則の違い
かつてGoogleのAI倫理原則には、以下のような明確な禁止事項が記載されていました。
✅ 人に害を与える可能性がある技術
✅ 兵器として使用される技術
✅ 国際的な監視や抑圧に利用される技術
✅ 国際法や人権に違反する技術
しかし現在(2025年2月時点)のAI倫理原則では、この明確な「禁止リスト」が消えています。

GoogleのAIは軍事利用されるのか?
Googleは公式に「AIを兵器として利用するつもりはない」と説明しています。しかし、軍事分野でのAI活用を完全に排除したわけではない という点が、今回の変更で浮き彫りになりました。
TechCrunchの報道によると、アメリカ国防総省のAI責任者は、GoogleのAI技術がすでに「脅威を特定・追跡・排除する軍事プロセスを加速させている」と発言しているとのことです。

専門家の見解:「AI倫理の後退では?」
AI倫理の専門家であり、かつてGoogleのAI倫理チームを率いた マーガレット・ミッチェル氏 は、今回の変更について以下のように指摘しています。
「この削除は、倫理的AIや活動家たちの努力を踏みにじるものです。Googleが、より積極的に人命を奪う可能性のある技術の開発に関与する可能性が出てきました。」

なぜGoogleはこの誓約を削除したのか?
Googleはこの変更について、詳細な理由を明らかにしていません。ただし、同社が公開した「責任あるAI:2024年の報告と進捗」では、以下のような声明を発表しています。
「民主主義国がAI開発を主導し、自由や平等、人権尊重といった核心的価値観に導かれるべきです。」
「これらの価値観を共有する企業、政府、組織が協力して、人々を守り、世界的な成長を促進し、国家の安全保障を支えるAIを開発すべきです。」

今後の影響は?
今回の変更により、GoogleのAIが より軍事・監視技術に関与する可能性 が高まったと見る専門家もいます。
一方で、Googleは引き続き「責任あるAI開発」を掲げており、今後の企業方針がどのように展開されるのか注目されます。

AI技術がますます社会に浸透する中で、Googleのこの変更は「企業の倫理方針はどこまで守られるのか?」という重要な問いを投げかけています。