Air Force AI Testi, Robotlarla İlgili Endişeleri Artırıyor

    0
    53

    Yapay zekanın risklerinden endişe duyan bazı yapay zeka araştırmacıları ve politika uzmanları, daha önce bilgisayar bilimcilerinin askeri kullanımları olabilecek veya dezenformasyonu yaymak için kötüye kullanılabilecek güçlü yapay zeka algoritmaları hakkında uyarılarda bulunmuşlardı.  İngiltere’deki Sheffield Üniversitesi’nde yapay zeka ve robotik profesörü olan ve aynı zamanda Stop Killer Robots grubunun sözcüsü olan Noel Sharkey, yapay zeka sisteminin otonom sistemlerinde ve askeri alanlarda kullanıldığında  robotların endişe verici olduğunu söyledi. Bilgisayar bilimcileri, silah kontrol uzmanları ve insan hakları aktivistlerinden oluşan organizasyon, ölümcül otonom silah sistemlerinin sivilleri öldürebileceğini düşünüyor. Ayrıca savaşın insan maliyetini azaltarak savaşları daha da olası hale getirebilir endişesini taşıyorlar. Birleşmiş Milletler, otonom silahların kullanımını muhtemelen sınırlandırmayı amaçlayan görüşmeler yaptı , ancak bu görüşmeler ABD, İngiltere, Çin ve Rusya ile tıkandı ve yasaklara karşı çıktılar.