「AIのゴッドファーザー」として知られるノーベル賞受賞者のジェフリー・ヒントンは、自律型兵器システムによって通常軍事紛争を抑止する役割を担っている人的被害がなくなるため、かえって戦争が起こりやすくなると警告した。
裕福な国が戦略的優位性を獲得
Katie CouricのYouTubeチャンネルで水曜日に公開されたインタビューで、ヒントンは致死性の自律型兵器は軍事行動を検討する際に裕福な国に大きな利点を与えると述べた。
ヒントンは「裕福な国が貧しい国を侵略できない理由は自国の市民が遺体袋に入れられて帰還するからだ」と述べた。 「致死性の自律型兵器を持っていれば、遺体が帰還するのではなく、ロボットが帰還することになる」
こちらも読んでみてください: 過去1年で小規模チームを率いるマネージャーの3分の1超を解雇したグーグル:レポート
防衛請負業者は利益を得る立場に
2024年10月にノーベル賞を受賞したヒントンは、防衛請負業者は自律型兵器システムから大きな利益を得るだろうと示唆した。 「それは軍需産業複合体にとっては素晴らしいことになるだろう。なぜならそれらの兵器は高価な代物だからだ」 と彼は指摘した。
ロッキード・マーティン(NYSE:LMT)などの主要防衛企業は引き続き先進的な軍事技術の開発を進めており、米国防総省のF-35プログラムの推定総費用は1.8兆ドルに達している。
AIは既に戦場を変革している
ヒントンはAIがすでに戦争を変革したことの証拠として現在進行中の紛争を指摘した。彼は、ウクライナの例を挙げて、安価なドローン技術が従来の軍事ハードウェアに勝利したと述べた。
ヒントンは「500ドルのドローンが数百万ドルの戦車を破壊できる」と述べ、元Google CEOのエリック・シュミットのコメントを引用した。 「有人の戦闘機は今や時代遅れのアイデアだ」
規制に対する懸念が高まる
AIの先駆者は、米国、ロシア、中国、英国、イスラエル、フランスなどの武器販売国は自律型兵器に関する規制に抵抗していることから、経済的利益のために規制に抵抗していることを懸念している。
2023年にアルファベットを去りAIの危険性について自由に発言したヒントンは、最近、テスラのCEO、イーロン・マスクの、非営利団体から営利団体への移行を計画しているOpenAIに対する法的挑戦を支持した。
パランティア・テクノロジーズ(NYSE:PLTR)などの企業はすでにAIプラットフォームを軍事用途に配備しており、高度なデータ分析とドローンの統合を使用したウクライナの地雷除去作戦も含まれている。
次に読む:
免責事項:このコンテンツは、AIツールの助けを借りて部分的に作成され、ベンジンガの編集者によって校閲・公開された。
写真提供:Shutterstock