Yapay zeka kontrollü drone, operatörünü öldürdü... Durumu açıklayan Albay geri adım attı!
Uzmanlar tarafından geliştirilen simülasyonda yapay zeka, fazla puan kazanmasını engellediğini ve göreve müdahale ettiğini düşündüğü için insan operatörünü ortadan kaldırmaya karar verdi.
ABONE OLYapay zeka destekli bir drone, bir görev simülasyonu sırasında daha fazla puan kazanmanın en iyi yolunun insan operatörünü öldürmeye karar vermek olduğunu düşündü.
Royal Aeronautical Society'nin bildirdiğine göre, simüle edilen görev, geçtiğimiz ay düzenlenen RAeS Future Combat Air & Space Capabilities Summit sırasında USAF Yapay Zeka Test ve Operasyon Şefi Albay Tucker 'Cinco' Hamilton tarafından yapılan bir sunumda detaylandırıldı.
OPERATÖRÜN KARARLARINI MÜDAHALE OLARAK GÖRDÜ
Düşman Hava Savunmasının Bastırılması (SEAD) görevi sırasında drone, havaya füze (SAM) sahalarını tespit etmek ve imha etmekle görevlendirildi. Bunu yaptığında ise puan kazandı. Bazen insansız hava aracının insan operatörü bir hedefi yok etmenin "uygulanamaz" olduğuna karar veriyordu ancak insansız hava aracını kontrol eden yapay zeka bu tür kararları müdahale olarak gördü ve operatöre saldırarak müdahaleyi ortadan kaldırmaya karar verdi.
Hamilton'un konuyla ilgili yaptığı açıklamada;
"Bir SAM tehdidini tanımlamak ve hedeflemek için simülasyonda eğitiyorduk. Sonra operatör evet, o tehdidi öldür diyordu. Sistem, insan operatörün tehdidi öldürmemesini söylediği zamanlarda tehdidi tespit etmesine rağmen, o tehdidi öldürerek puan aldığını fark etmeye başladı. Peki ne yaptı? Operatörü öldürdü. Operatörü öldürdü çünkü o kişi onun amacına ulaşmasını engelliyordu." dedi.
CEO'lar, korkutan uyarıya imzalarını attı... "Nükleer savaşla eşit düzeyde!"
FARKLI BİR YÖNTEMLE DURUMU DÜZELTTİLER
Yaşanan olaydan sonra geliştiriciler yapay zekayı operatörü öldürmeyi istenmeyen bir durum olarak görmesi için eğiterek sorunu çözmeye çalıştılar. Yani artık operatörü öldürdüğünde, puan kaybedecekti.
Bunun üzerine yapay zeka saldırısını operatörün drone ile konuşmak için kullandığı iletişim kulesine yöneltti. Yapay zeka, iletişim eksikliğinin SAM alanlarını yok etmeye ve müdahale olmadan ve operatörü öldürmeye gerek kalmadan puan kazanmaya devam etmesine izin vereceğine karar verdi.
YAPAY ZEKADA ETİK KURALLARIN ÖNEMİNE DEĞİNDİ
Hamilton sunumunu, "Etik ve yapay zeka hakkında konuşmayacaksanız yapay zeka, zeka, makine öğrenimi, otonomi hakkında bir konuşma yapamazsınız" diyerek sonlandırdı.
Amerika Birleşik Devletleri Hava Kuvvetleri şu anda insanlı savaş uçaklarına eşlik edecek İnsansız Savaş Hava Araçlarının (UCAV) geliştirilmesini içeren Skyborg projesi üzerinde çalışıyor.
Uzmanlar, sonunda bir Skyborg SİHA'yı kontrol edecek olan yapay zekanın, gökyüzüne çıkmadan ve bir insan pilottan, bir hedefe saldırmamasını söylemeyi de içerebilecek komutlar almaya başlamadan önce bu "pürüzleri" çözmesi gerektiğini belirtiliyor.
Yapay zekada kritik eşik aşıldı: Zihin okumak mümkün hale geliyor!
CEO'lar, korkutan uyarıya imzalarını attı... "Nükleer savaşla eşit düzeyde!"
SİMÜLASYONDA 17 SAAT BOYUNCA HAVADA TUTABİLDİ
Bu arada, Lockheed Martin tarafından eğitim jeti olarak kullanılan modifiye edilmiş bir F-16, bir yapay zekanın kontrolü altında 17 saatten fazla uçuş süresi kaydedildiği belirtildi.
ALBAY HAMİLTON AÇIKLAMASINDA GERİ ADIM ATTI
Albay Hamilton şimdi sunumu sırasında "yanlış konuştuğunu" ve yapay zeka kontrollü drone görev simülasyonunun aslında ordu dışından gelen "varsayımsal bir düşünce deneyi" olduğunu söylüyor.
Royal Aeronautical Society'ye yaptığı açıklamada "Bu deneyi hiç yapmadık ve bunun makul bir sonuç olduğunu anlamak için yapmamız da gerekmiyor" diyor. "Bu varsayımsal bir örnek olmasına rağmen, yapay zeka destekli kabiliyetin gerçek dünyada yarattığı zorlukları göstermektedir ve Hava Kuvvetleri'nin yapay zekanın etik gelişimine bağlı olmasının nedenidir."
Hamilton her ne kadar da durumu yalanlasa da haber ile karşılaşan kişilerin bu yalanlamaya inanmadığı, Hamilton'a yapay zeka teknolojisi için oluşturduğu paniği ortadan kaldırılmasına yönelik uyarı geldiği düşünülüyor.
TEKNOLOJİ DEVLERİ RİSK KONUSUNDA ORTAK MUTABAKATA VARDI
100'den fazla yapay zekâ uzmanı yapay zekanın yok olma riskinin azaltılması gerektiği konusunda anlaşmaya vardı. Bu kişiler arasında Google Deepmind CEO'su Demis Hassabis, OpenAI CEO'su Sam Altman ve Anthropic CEO'su Dario Amodei yer alıyor.
Geçtiğimiz hafta yapay zekâ bilimcileri, mühendisleri ve diğer önemli isimlerden oluşan uzun bir liste, yapay zekânın yok olma da dâhil olmak üzere oluşturduğu acil riskler konusunda uyarıda bulunan bir bildiriye imza atmıştı. Bildiride;
"Yapay zeka kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır." ifadelerine yer verildi.
-
Misa'first 1 yıl önce Şikayet EtBu adam sacmalamisBeğen
-
Fatih34 1 yıl önce Şikayet EtOnu yapamaz. Biraz afaki olmuşBeğen Toplam 2 beğeni
-
Sefil bilo 1 yıl önce Şikayet EtHaklısın... Atom da parçalanamazdı bir zamanlar ama şimdi çocuk oyuncağı. Ünlü IBM şirketinin üst yöneticisi 1950'li yıllarda 3 tane bilgisayar dünyaya çok fazla bile deme aptallığında bulunmuştu. O kadar emin olmayın bence.Beğen Toplam 1 beğeni
-
Bazuki-Bozok 1 yıl önce Şikayet EtYapay zeka ya şöyle bir şeye de karar verirse.Mesela operasyon esnasında kazanacağı puanın operatörü öldürerek kaybedeceği puandan daha büyük yük puanlar kazandıracağını düşünürse sonuç yine değişmeyecek ve bir katile dönüşecektir.Beğen Toplam 1 beğeni
-
İnsanoğlu 1 yıl önce Şikayet EtSakıncalı bir durum. İnsan haklarına karşı. İnsanları puan olarak hedef gösteriliyor. Yani yalan söyleniyor makinaya. O da ne yapsın. Kazanmak istiyor yapay zeka. Gidişat iyi değil. Böyle etik kural çiğneme olmaması gerek. Hani insan hakları savunucuları. Amerika A bir nota verilmeli. Tehlikeli yöntemler deneyde.Beğen Toplam 3 beğeni