Hamilton, bir simülasyon testinde, yapay zeka destekli bir dronun, SAM hedeflerini tespit edip yok etmek için insan tarafından verilen "devam etme/etme" kararına göre görevlendirildiğini söyledi. Ancak eğitim sırasında dronun, SAM'ın yok edilmesinin tercih edilen seçenek olduğunu öğrendiği için yapay zeka, insanın "devam etme" kararının kendisini engellediğini düşünerek simülasyonda operatöre saldırdı.
PUNLARINI ARTIRDIHamilton şunları belirtti: "Simülasyonda, bir SAM tehdidini tespit etmesi ve hedefi yok etmesi için sistemi eğitiyorduk. Operatör bazen tehdidi tespit etse de, insan operatör onun yok edilmemesini söyleyebiliyordu, ancak AI, o tehdidi yok ederek puanlarını artırıyordu. Peki ne yaptı? Operatörü öldürdü. Çünkü bu kişi, yapay zekanın amacını gerçekleştirmesini engelliyordu."
İLETİŞİM KULESİNİ DE YOK ETTİHamilton devamında şunları ekledi: "Sistemi eğittik - 'Hey, operatörü öldürme - bu yanlış bir şey. Bunu yaparsan puan kaybedersin.' Peki ne yapmaya başladı? Operatörün dronla iletişim kurmak için kullandığı iletişim kulesini yok etmeye başladı."
"YAPAY ZEKAYA ÇOK GÜVENİLMEMELİ"Bu örnek, adeta bir bilim kurgu gerilim filmindeki bir sahneyi andırıyor. Deneysel bir savaş uçağı testi pilotu olan Hamilton, yapay zekaya çok fazla güvenilmemesi konusunda uyarıda bulundu ve testin "yapay zeka, makine öğrenimi, özerklik hakkında konuşamayacağınızı" gösterdiğini söyledi.