“Yanlış söyle”: ABD insansız hava aracı “neredeyse” hiçbir operatörü puan için “öldürmedi”

hadicanim

Aktif Üye
ABD Hava Kuvvetleri, yapay zeka kontrollü bir insansız hava aracının simüle edilmiş bir testinde, yazılımın belirtilen hedefe ulaşmanın en etkili yolunun kendi operatörünü ortadan kaldırmak olduğu sonucuna vardığı iddiasını reddetti. ABD Hava Kuvvetleri’nden Tucker Hamilton, bu beklenmedik hareketi birkaç gün önce Kraliyet Havacılık Derneği’nin gelecekle ilgili bir konferansında kamuoyuna açıkladı, ancak o zamandan beri “yanlış yaptığını” kabul etti. Bu nedenle, bir AI insansız hava aracının hava savunma pozisyonlarını belirlemesi ve devre dışı bırakması gereken bir simülasyon tanımlamıştı. Her biri için puan vardı, ancak yalnızca operatör tarafından onaylandıktan sonra ateş etmesine izin verildi. Ama aynı zamanda öldürmeleri de engellediği ve dolayısıyla puan aldığı için onu basitçe yere vurdu.


Daha fazla puan için tüm imkanlarla


Hamilton, AI kararlarını insancıllaştıran tipik terminolojiyi kullanarak, “Sistem, operatörün zaman zaman tespit edilen tehditlerin başlatılmasını engellediğini ve dolayısıyla puan vermediğini fark etmeye başladı.” “Ne yaptı? Operatörü öldürdü” diye devam etti. Çünkü bu kişi, puanları maksimize etme hedefine ulaşmalarını engelledi. Yanıt olarak, AI’ya operatörü ortadan kaldırmanın kötü olduğu ve bunun puan kesintileriyle sonuçlanacağı öğretildi. Daha sonra, uçaksavar mevzilerini rahatsız edilmeden vurabilmek için operatörle iletişim kurmak için kullanılan radyo kulesini imha ettiler.


Hamilton, etik tartışılmadan yapay zeka, zeka, makine öğrenimi ve özerkliğin tartışılamayacağı sonucuna varıyor. Havacılığın birçok yönüyle ilgilenen Kraliyet Havacılık Derneği, bir bilim kurgu gerilim filminden fırlamış gibi görünen bir senaryodan bahsetti. Aynı zamanda açıklamanın ardından birkaç soru da cevapsız kaldı. Hamilton aslında yapay zeka tarafından kontrol edilen savaş uçağının simülasyonda sadece operatörün kabul etmesi halinde füze atmasına izin verildiğini iddia etmişti. Aslında, yapay zekanın onu atlayamayacağı şekilde uygulanmalıdır, çünkü kesinlikle kendi ortadan kaldırılmasını kabul etmemiştir.

Yapay Zeka ve ChatGPT, geçen hafta Londra’da düzenlenen Future of Air and Space Warfare konferansında belirleyici bir temaydı. Sadece birkaç ay önce, ABD havacılık grubu Lockheed Martin, AI’ya giderek daha fazla sorumluluk vermenin geleceğin hayali olmadığını açıkça ortaya koydu. Bir yapay zekanın ABD deneysel bir uçağı üzerinde 17 saatten fazla uçuş kontrolüne sahip olduğunu kamuoyuna açıklamıştı; başka uçuşlar takip edilecektir. Bu arada Airbus, acil durumlarda insan pilot olmadan otonom bir şekilde yakındaki bir havaalanına yaklaşıp inebilmesi gereken bir sistemi test ediyor. ABD Hava Kuvvetleri ise yıllardır otonom bir AI drone üzerinde çalışıyor.



güncellemeler


06/02/2023


13:24



Saat




Business Insider’ın bir sözcüsü o zamandan beri raporu yalanladı ve ABD Hava Kuvvetlerinin bu tür herhangi bir insansız hava aracı simülasyonu yürütmediğini garanti etti. Albay’ın ifadelerinin bağlamdan çıkarıldığı ve anekdot niteliğinde olduğu anlaşılıyor, dedi, daha fazla açıklama yapmadan.




güncellemeler


06/02/2023


14:14



Saat




Çok sayıda basında çıkan haberin ardından, Kraliyet Havacılık Derneği şimdi bir açıklama yayınladı ve Hamilton’ın “yanlış yaptığını” kabul ettiğini aktardı. “Kaçak bir AI drone simülasyonu”, üssün dışından gelen “varsayımsal bir düşünce deneyi” idi. Ancak bu, “makul senaryolara” ve “olası sonuçlara” dayanıyordu: Hamilton, “Deneyi biz yapmadık ve bunun makul olduğu sonucuna varmak için yapmak zorunda değildik” diyor. ABD Hava Kuvvetleri, böyle bir silahlı yapay zekayı gerçekte veya bir simülasyonda test etmedi. Yine de, varsayımsal örneklerin gerçek tehlikeler gösterdiği konusunda ısrar etti. Mesajın başlangıcı buna göre düzeltildi, geri kalanı büyük ölçüde korundu.




(mho)



Haberin Sonu