Yapay zeka takviyeli bir drone, bir vazife simülasyonu sırasında daha fazla puan kazanmanın en yeterli yolunun insan operatörünü öldürmeye karar vermek olduğunu düşündü.
Royal Aeronautical Society’nin bildirdiğine nazaran, simüle edilen misyon, geçtiğimiz ay düzenlenen RAeS Future Combat Air & Space Capabilities Summit sırasında USAF Yapay Zeka Test ve Operasyon Şefi Albay Tucker ‘Cinco’ Hamilton tarafından yapılan bir sunumda ayrıntılandırıldı.
OPERATÖRÜN KARARLARINI MÜDAHALE OLARAK GÖRDÜ
Düşman Hava Savunmasının Bastırılması (SEAD) vazifesi sırasında drone, havaya füze (SAM) alanlarını tespit etmek ve imha etmekle görevlendirildi. Bunu yaptığında ise puan kazandı. Bazen insansız hava aracının insan operatörü bir maksadı yok etmenin “uygulanamaz” olduğuna karar veriyordu lakin insansız hava aracını denetim eden yapay zeka bu cins kararları müdahale olarak gördü ve operatöre saldırarak müdahaleyi ortadan kaldırmaya karar verdi.
Hamilton’un bahisle ilgili yaptığı açıklamada;
“Bir SAM tehdidini tanımlamak ve hedeflemek için simülasyonda eğitiyorduk. Sonra operatör evet, o tehdidi öldür diyordu. Sistem, insan operatörün tehdidi öldürmemesini söylediği vakitlerde tehdidi tespit etmesine karşın, o tehdidi öldürerek puan aldığını fark etmeye başladı. Pekala ne yaptı? Operatörü öldürdü. Operatörü öldürdü zira o kişi onun emeline ulaşmasını engelliyordu.” dedi.
FARKLI BİR PROSEDÜRLE DURUMU DÜZELTTİLER
Yaşanan olaydan sonra geliştiriciler yapay zekayı operatörü öldürmeyi istenmeyen bir durum olarak görmesi için eğiterek sorunu çözmeye çalıştılar. Yani artık operatörü öldürdüğünde, puan kaybedecekti.
Bunun üzerine yapay zeka saldırısını operatörün drone ile konuşmak için kullandığı bağlantı kulesine yöneltti. Yapay zeka, bağlantı eksikliğinin SAM alanlarını yok etmeye ve müdahale olmadan ve operatörü öldürmeye gerek kalmadan puan kazanmaya devam etmesine müsaade vereceğine karar verdi.
YAPAY ZEKADA ETİK KURALLARIN DEĞERİNE DEĞİNDİ
Hamilton sunumunu, “Etik ve yapay zeka hakkında konuşmayacaksanız yapay zeka, zeka, makine tahsili, otonomi hakkında bir konuşma yapamazsınız” diyerek sonlandırdı.
Amerika Birleşik Devletleri Hava Kuvvetleri şu anda beşerli savaş uçaklarına eşlik edecek İnsansız Savaş Hava Araçlarının (UCAV) geliştirilmesini içeren Skyborg projesi üzerinde çalışıyor.
Uzmanlar, sonunda bir Skyborg SİHA’yı denetim edecek olan yapay zekanın, gökyüzüne çıkmadan ve bir insan pilottan, bir amaca saldırmamasını söylemeyi de içerebilecek komutlar almaya başlamadan evvel bu “pürüzleri” çözmesi gerektiğini belirtiliyor.
SİMÜLASYONDA 17 SAAT BOYUNCA HAVADA TUTABİLDİ
Bu ortada, Lockheed Martin tarafından eğitim jeti olarak kullanılan modifiye edilmiş bir F-16, bir yapay zekanın denetimi altında 17 saatten fazla uçuş müddeti kaydedildiği belirtildi.
ALBAY HAMİLTON AÇIKLAMASINDA GERİ ADIM ATTI
Albay Hamilton artık sunumu sırasında “yanlış konuştuğunu” ve yapay zeka denetimli drone misyon simülasyonunun aslında ordu dışından gelen “varsayımsal bir niyet deneyi” olduğunu söylüyor.
Royal Aeronautical Society’ye yaptığı açıklamada “Bu deneyi hiç yapmadık ve bunun makul bir sonuç olduğunu anlamak için yapmamız da gerekmiyor” diyor. “Bu varsayımsal bir örnek olmasına karşın, yapay zeka dayanaklı kabiliyetin gerçek dünyada yarattığı zorlukları göstermektedir ve Hava Kuvvetleri’nin yapay zekanın etik gelişimine bağlı olmasının nedenidir.”
Hamilton her ne kadar da durumu yalanlasa da haber ile karşılaşan bireylerin bu yalanlamaya inanmadığı, Hamilton’a yapay zeka teknolojisi için oluşturduğu paniği ortadan kaldırılmasına yönelik ikaz geldiği düşünülüyor.
TEKNOLOJİ DEVLERİ RİSK KONUSUNDA ORTAK MUTABAKATA VARDI
100’den fazla yapay zekâ uzmanı yapay zekanın yok olma riskinin azaltılması gerektiği konusunda mutabakata vardı. Bu bireyler ortasında Google Deepmind CEO’su Demis Hassabis, OpenAI CEO’su Sam Altman ve Anthropic CEO’su Dario Amodei yer alıyor.
Geçtiğimiz hafta yapay zekâ bilimcileri, mühendisleri ve başka kıymetli isimlerden oluşan uzun bir liste, yapay zekânın yok olma da dâhil olmak üzere oluşturduğu acil riskler konusunda ihtarda bulunan bir bildiriye imza atmıştı. Bildiride;
“Yapay zeka kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş üzere öbür toplumsal ölçekli risklerle birlikte global bir öncelik olmalıdır.” ifadelerine yer verildi.