Birkaç gün önce Ukrayna, Ottawa Kongre'den çıkma niyetini açıkladı. Anti -onarılan madenlerin kullanımını yasaklar. Polonya ve Baltık ülkeleri zaten aynı şeyi yapmışlardı; Amerika Birleşik Devletleri, İsrail, Rusya ve Çin, kendi adına asla imzalamadılar. Karar marjinal olmaktan uzaktır: AntiPersona Madenleri, tanım gereği, uluslararası insancıl hukuku ihlal eder, hatta düşmanlıkların bitiminden yıllar sonra savaşçıları ve sivilleri gelişigüzel etkilemektedir. Post -War nesiller bu konuda bir şeyler biliyor. Muhtemelen, Ukraynalı olanlar bile bunu bilecektir: Ulusal bölgenin yaklaşık dörtte birinin artık zayıflatıldığı tahmin edilmektedir.
Ancak kararın kapsamı savaş olasılığının ötesine geçiyor. Endişe verici bir siyasi mesaj iletir: Savaş yoğunlaştığında, insani hukukun kısıtlamaları pazarlık edilebilir hale gelir, üstesinden gelir.
Birkaç bölümden gelen bir mesajdır. Son yıllarda, Uluslararası siyaset regresyon belirtileri gösterdi: SO -BAŞLANGIÇ GÜNLÜK DIPLOMASİ, GÜCÜ DIPLOMASİ. Bir devlet hakkının askeri kapasitesinin geldiği yere uzandığı bir anlayış. Rus Ukrayna'yı istila, Gazze'de devam eden çatışma ve hatta Donald Trump'ın Kanada veya Grönland'ın olası bir ilhakına ilişkin açık ilanları, tarih tarafından arşivlendiği düşünülen bir tema üzerinde çağdaş varyasyonlardır.
Bu mantık Modern uluslararası hukukun temeline meydan okuyor: Kuvvet yoluyla bölgesel fetih yasası. Fetih hakkının terk edilmesi, devletler arasındaki ilişkilerin zorlayıcı yönetiminden ortak kurallar ve uluslarüstü kurumlarla düzenlenen bir geçişin işaretiydi. Bu senaryoda, uluslararası insancıl hukuk yasal bir bilgiçlik değil, bir ilkenin ifadesidir: savaşta bile sınırlar vardır. Bir çatışmayı bir barbarlıktan ayıran şey budur.
Gunboat diplomasisinin geri dönüşü, bu geçişi tersine çevirme ve uluslararası hukukun üstesinden gelme girişimini temsil eder.
Savunmaya uygulanan IA, bu denemeyi başarılı kılmak için belirleyici bir araç olabilir. Yapay zekanın savunmada kullanılması, uluslararası hukukun kademeli ve sessiz bir erozyonuna izin verirEtkinlik olmadan resmi bir yapıya indirgeyebilir. Savunmadaki IA, açık bir yüz devrimi ile değil, uluslararası hukukun sonuna karar verebilir, ancak ustaca dağıtılan bir dizi taktik ihlali sayesinde.
Ukrayna'daki savaş onu işaretledi Savunmada IA'nın benimsenmesinde havzabir düzenleme eşlik etmeyen bir ivme. Yasa bile AI'nın savunmada kullanımlarını düzenlemez. Yine de Ukrayna'da, her iki cephede de yasallıkları üzerinde bir fikir birliği olsa bile ölümcül silahlar (potansiyel olarak) otonom kullanıyor. İsrail, kabul edilebilir hata eşikleri veya minimum insan kontrol seviyeleri hakkında paylaşılan kurallar olmadan Gazze'deki hedefleri tanımlamak için IA'yı kullandı. Bu arada, 2013 yılından bu yana özerk silahlar üzerinde çalışan Birleşmiş Milletler Grubu Üye Devletlerinin yeniden aşılaması, bu silah sistemlerinin tanımı üzerinde bile bir rıza bulamadı.
Bu düzenleyici boşluğu, erken ve etkisiz veya geç ve pleonastik düzenleme arasındaki yıllık ikilemin sonucu olan geçici bir durak olarak düşünmek naif olacaktır. Bu daha endişe verici bir şey: yaratılması Hem liberal devletlerin hem de otoriter devletlerin çıkarları için işlevsel bir düzenleyici limbo. AI'nın savunmadaki potansiyelini sınırlamamak için hem birleşir hem de besler, bu, savaşçılar arasındaki ayrım gibi temel ilkeleri ihlal edemese bile değil.
Devletler arasında siber saldırılarla uluslararası duruşların düzenlenmesine aynı yaklaşımı gördük. Bu durumda, düzenleyici boşluk, ülkelerimizin dijital altyapıları için agresif duruşları, hasarları ve riskleri kolaylaştırmıştır. Tam olarak en aydınlanmış seçimler değil. Siber hareketlerden geleneksel savaşa kadar bundan kaçınmak iyi olurdu.
Gunboat diplomasisinin kas söylemi ile AI'nın gizli yaygınlığı arasındaki örtüşme rahatsız edicidir. Halkın dikkati, birincinin görünür etkileri üzerinde meşru bir şekilde yoğunlaşırken, ikincisi gölgelerde çalışır ve uluslararası hukukun tutulmasını yavaşça aşındırır.
Çözüm, savunmada AI'dan vazgeçmek değil, içinde çalışabileceği düzenleyici çevreyi açıkça yeniden yapılandırmaktır. İhtiyacın varUluslararası insancıl hukuk ilkelerinin güncellenmiş yorumu bu da gelişmekte olan teknolojiler için de geçerliliğini genişletir. Teknolojik ilerleme, ahlaki bir gerileme ile yasal veya daha kötü bir gerileme ile çakışmamalı veya bir aracı olmamalıdır.
*Dijital Etik ve Savunma Teknolojileri Profesörü, Oxford İnternet Enstitüsü, Oxford Üniversitesi. Yazar Savunmada yapay zeka etiğiRaffaello Cortina tarafından İtalya'da yayınlanacak Oxford University Press.
Ancak kararın kapsamı savaş olasılığının ötesine geçiyor. Endişe verici bir siyasi mesaj iletir: Savaş yoğunlaştığında, insani hukukun kısıtlamaları pazarlık edilebilir hale gelir, üstesinden gelir.
Birkaç bölümden gelen bir mesajdır. Son yıllarda, Uluslararası siyaset regresyon belirtileri gösterdi: SO -BAŞLANGIÇ GÜNLÜK DIPLOMASİ, GÜCÜ DIPLOMASİ. Bir devlet hakkının askeri kapasitesinin geldiği yere uzandığı bir anlayış. Rus Ukrayna'yı istila, Gazze'de devam eden çatışma ve hatta Donald Trump'ın Kanada veya Grönland'ın olası bir ilhakına ilişkin açık ilanları, tarih tarafından arşivlendiği düşünülen bir tema üzerinde çağdaş varyasyonlardır.
Bu mantık Modern uluslararası hukukun temeline meydan okuyor: Kuvvet yoluyla bölgesel fetih yasası. Fetih hakkının terk edilmesi, devletler arasındaki ilişkilerin zorlayıcı yönetiminden ortak kurallar ve uluslarüstü kurumlarla düzenlenen bir geçişin işaretiydi. Bu senaryoda, uluslararası insancıl hukuk yasal bir bilgiçlik değil, bir ilkenin ifadesidir: savaşta bile sınırlar vardır. Bir çatışmayı bir barbarlıktan ayıran şey budur.
Gunboat diplomasisinin geri dönüşü, bu geçişi tersine çevirme ve uluslararası hukukun üstesinden gelme girişimini temsil eder.
Savunmaya uygulanan IA, bu denemeyi başarılı kılmak için belirleyici bir araç olabilir. Yapay zekanın savunmada kullanılması, uluslararası hukukun kademeli ve sessiz bir erozyonuna izin verirEtkinlik olmadan resmi bir yapıya indirgeyebilir. Savunmadaki IA, açık bir yüz devrimi ile değil, uluslararası hukukun sonuna karar verebilir, ancak ustaca dağıtılan bir dizi taktik ihlali sayesinde.
Ukrayna'daki savaş onu işaretledi Savunmada IA'nın benimsenmesinde havzabir düzenleme eşlik etmeyen bir ivme. Yasa bile AI'nın savunmada kullanımlarını düzenlemez. Yine de Ukrayna'da, her iki cephede de yasallıkları üzerinde bir fikir birliği olsa bile ölümcül silahlar (potansiyel olarak) otonom kullanıyor. İsrail, kabul edilebilir hata eşikleri veya minimum insan kontrol seviyeleri hakkında paylaşılan kurallar olmadan Gazze'deki hedefleri tanımlamak için IA'yı kullandı. Bu arada, 2013 yılından bu yana özerk silahlar üzerinde çalışan Birleşmiş Milletler Grubu Üye Devletlerinin yeniden aşılaması, bu silah sistemlerinin tanımı üzerinde bile bir rıza bulamadı.
Bu düzenleyici boşluğu, erken ve etkisiz veya geç ve pleonastik düzenleme arasındaki yıllık ikilemin sonucu olan geçici bir durak olarak düşünmek naif olacaktır. Bu daha endişe verici bir şey: yaratılması Hem liberal devletlerin hem de otoriter devletlerin çıkarları için işlevsel bir düzenleyici limbo. AI'nın savunmadaki potansiyelini sınırlamamak için hem birleşir hem de besler, bu, savaşçılar arasındaki ayrım gibi temel ilkeleri ihlal edemese bile değil.
Devletler arasında siber saldırılarla uluslararası duruşların düzenlenmesine aynı yaklaşımı gördük. Bu durumda, düzenleyici boşluk, ülkelerimizin dijital altyapıları için agresif duruşları, hasarları ve riskleri kolaylaştırmıştır. Tam olarak en aydınlanmış seçimler değil. Siber hareketlerden geleneksel savaşa kadar bundan kaçınmak iyi olurdu.
Gunboat diplomasisinin kas söylemi ile AI'nın gizli yaygınlığı arasındaki örtüşme rahatsız edicidir. Halkın dikkati, birincinin görünür etkileri üzerinde meşru bir şekilde yoğunlaşırken, ikincisi gölgelerde çalışır ve uluslararası hukukun tutulmasını yavaşça aşındırır.
Çözüm, savunmada AI'dan vazgeçmek değil, içinde çalışabileceği düzenleyici çevreyi açıkça yeniden yapılandırmaktır. İhtiyacın varUluslararası insancıl hukuk ilkelerinin güncellenmiş yorumu bu da gelişmekte olan teknolojiler için de geçerliliğini genişletir. Teknolojik ilerleme, ahlaki bir gerileme ile yasal veya daha kötü bir gerileme ile çakışmamalı veya bir aracı olmamalıdır.
*Dijital Etik ve Savunma Teknolojileri Profesörü, Oxford İnternet Enstitüsü, Oxford Üniversitesi. Yazar Savunmada yapay zeka etiğiRaffaello Cortina tarafından İtalya'da yayınlanacak Oxford University Press.