AI:アメリカの爆弾は自ら標的を選択し、人間は必要ない

最近の報告書では、アメリカの軍事戦略における大きな進歩、つまり空爆の目標を決定するための人工知能の使用が明らかになりました。この使用は作戦遂行の転換点を示すものであり、倫理的および戦略的懸念事項です。

bombes ia
出典:123rf

AIの活用現在ではさまざまな専門分野に広がり、それぞれが独自の成功と限界を経験しています。航空分野では、エア・カナダとそのチャットボットに関する事件を強調したエラーのリスク不適切なアドバイスにより、会社に対する裁判所の判決が下されました。誤解を招く情報それによって提供されます。同時に、Airbnb、人工知能を活用した「究極のコンシェルジュ」導入を計画、パーソナライズされた革新的なサービスをお約束します。法律分野では、I.Avocat モバイル アプリケーションは、法律へのアクセスの民主化を目指していますしかし、専門家は人間の専門知識をアルゴリズムに置き換えることに消極的になります。

これらの例は、次の点を強調しています。自動化の傾向AI によるサービスのパーソナライゼーションだけでなく、この技術の限界。エア・カナダの事件は、エア・カナダがいかにユーザーを誤解させる可能性があるかを示している一方、Airbnb と I.Avocat のプロジェクトは、困難な状況を乗り越えながらイノベーションを起こしたいという願望を示しています。これらの事例は、適切な規制の必要性を浮き彫りにしています。倫理的反省奥深く、特に、次のようなよりクリティカルなアプリケーションを検討する場合に関連します。軍事攻撃を開始する

米国、AI で空爆の決定を自動化

最近の人工知能の統合により、五角形注ぐターゲットを特定する航空攻撃の実施は、軍事行動の顕著な進化を浮き彫りにしている。軍事作戦。ブルームバーグによると、コンピューター ビジョン アルゴリズムの使用は、以上のことを達成するのに役立っています。空爆85回中東で。彼女ならそうするだろうターゲットを絞った戦略的サイトドローン倉庫や民兵作戦センターなど。この技術的アプローチは、2017 年に開始された Maven プロジェクトから来ており、AI、特にコンピューター ビジョンを統合して最適化することを目的としています。視覚的なデータ分析そして軍事的決定を支持します。これは欲望が増大していることを示しています意思決定を自動化する紛争の文脈では。

AIの導入により、ターゲットの選択米国による空爆の増加はより広範な傾向の一部であり、倫理的な議論を引き起こしている。の視点人間の責任を最小限に抑える空爆のような重要な決定においては、軍事分野における自動化の信頼性と倫理について根本的な疑問が生じます。国々が好む一方で、イスラエル同様の目的で人工知能も導入されており、その影響は潜在的なエラーアルゴリズムの上昇により深刻な懸念戦争と世界の安全保障の将来について、政府による関与プロトコルと説明責任の枠組みについてのさらなる検討を促しています。

ソース :ブルームバーグ