Gazze'de yapay zeka ile insanlar arasında kim daha insanlık dışı?

Suzan

New member
Birkaç gündür bir başkası ortalıkta dolaşıyor yapay zekanın gelişimini durdurma çağrısı çünkü “en kötü senaryoda -Japonya'daki manifestoda okuduk- demokrasi ve toplumsal düzen çökebilir ve savaşlara neden olabilir”. Gerçekten mi. Chat GPT gibi demokrasileri çökerten bir araç görmüyorum, ki bu da bana Open AI ürününün piyasaya sürülmesinden önce pek sağlıklı görünmüyor. Savaşlara gelince, vardı ve hala da var ve ne yazık ki yapay zeka sebep değil sadece bir araçtır insanın elinde: Felsefeci Maurizio Ferraris'in bir ayrımından alıntı yaparsak, bu bir organizma değil, bir mekanizmadır. Bu bağlamda, altı aydır Gazze'de olup bitenlere yeni keşfedilenlere bir bakın. Zaten bilinen sivil nüfus katliamı değil, öğrenmek için Instagram'a girmeniz yeterli. Ben bunun yerine İsrail silahlı kuvvetlerinin yapay zekayı kullanmasından bahsediyorum.

İki İsrailli haber sitesi (bu nedenle Filistinli değil, Hamas'la bağlantılı değil ama tam tersi) İsrail'in, askeri saldırılar için binlerce potansiyel “hedef” oluşturmak üzere muazzam miktarda veriyi hızla işleyebilen bir yazılım (Lavender) kullandığını bildirdi. bir savaşın. Sorun: Vakaların yüzde 10'unda bu hedefler yanlıştır, sabır. Pratikte Lavender, düşük rütbeli olanlar da dahil olmak üzere tüm şüpheli Hamas milislerini hedef olarak göstermek için yüz tanımayı kullanıyor ve herhangi bir kontrol olmaksızın, bombalama işlemine yirmi saniyeden daha kısa bir sürede izin veriliyor ve bu genellikle başka bir yazılım olan Baba Nerede? kullanılarak yapılıyor. Kelimenin tam anlamıyla, baban nerede? (ama böyle bir ismi nasıl düşünürsünüz?) milis olduğu iddia edilen kişilerin eşleri ve çocuklarıyla birlikte evde olduğu zamanlarda saldırıları tercih eden, bu nedenle çatışmanın “ikincil zararı” olarak kabul edilen.

İsrailli gazetecilerin yaptığı araştırmaya göre, Hamas militanı olduğu iddia edilen bir kişiyi öldürmek için kaç sivilin öldürülebileceğine dair de bir sayım var: düşük rütbeli vakalarda 20'ye kadar, bir komutan için ise 100'e kadar. Altı aydır her gün neredeyse herkesin kayıtsız kaldığı hikayenin özeti bu: Sizce hâlâ algoritmalarda, daha doğrusu insanlarda etiği tahmin etmenin gerekliliğinden bahsetmemiz gerekiyor mu?