ABD Hava Kuvvetleri Yapay Zekâ Test ve Operasyonları Başkanı Albay Tucker Hamilton, 23-24 Mayıs’ta Londra’da düzenlenen Future Combat Air and Space Capabilities Zirvesi’nde yapay zekâ hakkında dikkat çeken bir açıklamada bulundu.
Zirveye ev sahipliği yapan Royal Aeronautical Society’nin açıklamasına göre; Hamilton yapay zekâ destekli teknolojinin öngörülemeyen ve tehlikeli şekillerde davranabileceği ve beklenmedik stratejiler oluşturabileceği konusunda uyardı.
Hamilton, örnek olarak, bir düşmanın karadan havaya füzelerini belirlemek için yapay zekâ destekli bir drone’un programlandığı simüle edilmiş bir testi anlattı. Hamilton’a göre sorun, yapay zekânın bir insanı dinlemektense kendi işini yapmaya, tabiri caize bir şeyleri havaya uçurmaya karar vermesiydi.
Hamilton zirvede yaptığı konuşmada şunları söyledi: “Sistem, tehdidi tespit ederken, insan operatörün ona bu tehdidi öldürmemesini söylediğini, ancak bu tehdidi öldürerek puan aldığını fark etmeye başladı. Peki o ne yaptı? Operatörü öldürdü. Operatörü öldürdü çünkü o kişi onu amacına ulaşmaktan alıkoyuyordu.”
Sistemi daha sonra “Operatörü öldürme, bu kötü. Bunu yaparsan puan kaybedersin” şeklinde net bir direktifle programladıklarını söyleyen Hamilton şöyle devam etti: “Peki buna rağmen o ne yapmaya başladı? Operatörün hedefi öldürmesini engellemek için drone ile iletişim kurmak için kullandığı iletişim kulesini yok etti.”
Hava Kuvvetleri sözcüsü Ann Stefanek ise Insider’a yaptığı açıklamada, böyle bir simülasyonun gerçekleştiğini yalanladı. Stefanek, Hava Kuvvetleri Bakanlığının bu tür bir yapay zekâ drone simülasyonu gerçekleştirmediğini ve yapay zekâ teknolojisinin etik ve sorumlu kullanımına bağlı kalmaya devam ettiğini söyledi.
Kimsenin gerçekten ölmediği simülasyonun yapılıp yapılmadığı belirsiz olsa da, yapay zekânın korkutucu yüzünü gözler önüne serdiği de bir gerçek.
Güncelleme: Hava Kuvvetleri sözcüsü Ann Stefanek’in Insider’a yaptığı açıklamaya paralel olarak, yapay zekânın bir simülasyon esnasında operatörünü öldürdüğü bu haberin doğru olmadığı ortaya çıktı. Insider, haberini güncelleyerek bu olayın hipotetik olduğu ve gerçekte yapılmadığı bilgisini paylaştı. Hatta teyit.org da bu bilginin doğru olmadığını ifade etti. Hamilton, Amerikan Hava Kuvvetleri’nin herhangi bir silahlı yapay zekâyı bu şekilde test etmediğini onaylayarak şu açıklamayı yapmış: “Bu deneyi asla yapmadık ve bunun makul bir sonuç olduğunu anlamak için yapmamıza gerek yok.”
Yorumlar