Yapay zeka kontrollü drone, operatörünü öldürdü... Durumu açıklayan Albay geri adım attı!

Uzmanlar tarafından geliştirilen simülasyonda yapay zeka, fazla puan kazanmasını engellediğini ve göreve müdahale ettiğini düşündüğü için insan operatörünü ortadan kaldırmaya karar verdi.

ABONE OL
GİRİŞ 03.06.2023 11:41 GÜNCELLEME 03.06.2023 13:42 TEKNOLOJİ
Yapay zeka kontrollü drone, operatörünü öldürdü... Durumu açıklayan Albay geri adım attı!
Yapay zeka kontrollü drone, operatörünü öldürdü... Durumu açıklayan Albay geri adım attı!

Yapay zeka destekli bir drone, bir görev simülasyonu sırasında daha fazla puan kazanmanın en iyi yolunun insan operatörünü öldürmeye karar vermek olduğunu düşündü.

Royal Aeronautical Society'nin bildirdiğine göre, simüle edilen görev, geçtiğimiz ay düzenlenen RAeS Future Combat Air & Space Capabilities Summit sırasında USAF Yapay Zeka Test ve Operasyon Şefi Albay Tucker 'Cinco' Hamilton tarafından yapılan bir sunumda detaylandırıldı.

OPERATÖRÜN KARARLARINI MÜDAHALE OLARAK GÖRDÜ

Düşman Hava Savunmasının Bastırılması (SEAD) görevi sırasında drone, havaya füze (SAM) sahalarını tespit etmek ve imha etmekle görevlendirildi. Bunu yaptığında ise puan kazandı. Bazen insansız hava aracının insan operatörü bir hedefi yok etmenin "uygulanamaz" olduğuna karar veriyordu ancak insansız hava aracını kontrol eden yapay zeka bu tür kararları müdahale olarak gördü ve operatöre saldırarak müdahaleyi ortadan kaldırmaya karar verdi.

Hamilton'un konuyla ilgili yaptığı açıklamada;

"Bir SAM tehdidini tanımlamak ve hedeflemek için simülasyonda eğitiyorduk. Sonra operatör evet, o tehdidi öldür diyordu. Sistem, insan operatörün tehdidi öldürmemesini söylediği zamanlarda tehdidi tespit etmesine rağmen, o tehdidi öldürerek puan aldığını fark etmeye başladı. Peki ne yaptı? Operatörü öldürdü. Operatörü öldürdü çünkü o kişi onun amacına ulaşmasını engelliyordu." dedi.

CEO'lar, korkutan uyarıya imzalarını attı... 'Nükleer savaşla eşit düzeyde!'CEO'lar, korkutan uyarıya imzalarını attı... "Nükleer savaşla eşit düzeyde!"

FARKLI BİR YÖNTEMLE DURUMU DÜZELTTİLER

Yaşanan olaydan sonra  geliştiriciler yapay zekayı operatörü öldürmeyi istenmeyen bir durum olarak görmesi için eğiterek sorunu çözmeye çalıştılar. Yani artık operatörü öldürdüğünde, puan kaybedecekti.

Bunun üzerine yapay zeka saldırısını operatörün drone ile konuşmak için kullandığı iletişim kulesine yöneltti. Yapay zeka, iletişim eksikliğinin SAM alanlarını yok etmeye ve müdahale olmadan ve operatörü öldürmeye gerek kalmadan puan kazanmaya devam etmesine izin vereceğine karar verdi.

YAPAY ZEKADA ETİK KURALLARIN ÖNEMİNE DEĞİNDİ

Hamilton sunumunu, "Etik ve yapay zeka hakkında konuşmayacaksanız yapay zeka, zeka, makine öğrenimi, otonomi hakkında bir konuşma yapamazsınız" diyerek sonlandırdı.

Amerika Birleşik Devletleri Hava Kuvvetleri şu anda insanlı savaş uçaklarına eşlik edecek İnsansız Savaş Hava Araçlarının (UCAV) geliştirilmesini içeren Skyborg projesi üzerinde çalışıyor.

Uzmanlar, sonunda bir Skyborg SİHA'yı kontrol edecek olan yapay zekanın, gökyüzüne çıkmadan ve bir insan pilottan, bir hedefe saldırmamasını söylemeyi de içerebilecek komutlar almaya başlamadan önce bu "pürüzleri" çözmesi gerektiğini belirtiliyor.

Yapay zekada kritik eşik aşıldı: Zihin okumak mümkün hale geliyor!Yapay zekada kritik eşik aşıldı: Zihin okumak mümkün hale geliyor!

CEO'lar, korkutan uyarıya imzalarını attı... 'Nükleer savaşla eşit düzeyde!'CEO'lar, korkutan uyarıya imzalarını attı... "Nükleer savaşla eşit düzeyde!"

SİMÜLASYONDA 17 SAAT BOYUNCA HAVADA TUTABİLDİ

Bu arada, Lockheed Martin tarafından eğitim jeti olarak kullanılan modifiye edilmiş bir F-16, bir yapay zekanın kontrolü altında 17 saatten fazla uçuş süresi kaydedildiği belirtildi.

ALBAY HAMİLTON AÇIKLAMASINDA GERİ ADIM ATTI

Albay Hamilton şimdi sunumu sırasında "yanlış konuştuğunu" ve yapay zeka kontrollü drone görev simülasyonunun aslında ordu dışından gelen "varsayımsal bir düşünce deneyi" olduğunu söylüyor.

Royal Aeronautical Society'ye yaptığı açıklamada "Bu deneyi hiç yapmadık ve bunun makul bir sonuç olduğunu anlamak için yapmamız da gerekmiyor" diyor. "Bu varsayımsal bir örnek olmasına rağmen, yapay zeka destekli kabiliyetin gerçek dünyada yarattığı zorlukları göstermektedir ve Hava Kuvvetleri'nin yapay zekanın etik gelişimine bağlı olmasının nedenidir."

Hamilton her ne kadar da durumu yalanlasa da haber ile karşılaşan kişilerin bu yalanlamaya inanmadığı, Hamilton'a yapay zeka teknolojisi için oluşturduğu paniği ortadan kaldırılmasına yönelik uyarı geldiği düşünülüyor.

TEKNOLOJİ DEVLERİ RİSK KONUSUNDA ORTAK MUTABAKATA VARDI

100'den fazla yapay zekâ uzmanı yapay zekanın yok olma riskinin azaltılması gerektiği konusunda anlaşmaya vardı. Bu kişiler arasında Google Deepmind CEO'su Demis Hassabis, OpenAI CEO'su Sam Altman ve Anthropic CEO'su Dario Amodei yer alıyor.

Geçtiğimiz hafta yapay zekâ bilimcileri, mühendisleri ve diğer önemli isimlerden oluşan uzun bir liste, yapay zekânın yok olma da dâhil olmak üzere oluşturduğu acil riskler konusunda uyarıda bulunan bir bildiriye imza atmıştı. Bildiride;

"Yapay zeka kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır." ifadelerine yer verildi.

 

KAYNAK : HABER7
Ekrem Öztürk Haber7.com - Teknoloji Editörü
Haber 7 - Ekrem Öztürk

Editör Hakkında

1995 yılında doğdu, İstanbul'da yaşıyor. Gelişim Üniversitesi Medya ve İletişim Bölümünden 2021 yılında mezun oldu. 6 yıldır metin yazarlığı yapmakta ve bu süreçte kendisinin bilim kurgu, kişisel gelişim alanlarında yazdığı üç kitabı bulunmaktadır. Belirli zamanlarda toplumu ilgilendiren güncel konuları özgün bir bakış açısıyla ele aldığı makaleler yazmaktadır. Meslek hayatına ise Haber7.com'da "Teknoloji Editörü" olarak devam etmektedir. Ayrıca günümüz insan ilişkilerinde saygının ve empatinin çok büyük bir güç olduğuna inanmaktadır.
YORUMLAR 5
  • Misa'first 1 yıl önce Şikayet Et
    Bu adam sacmalamis
    Cevapla
  • Fatih34 1 yıl önce Şikayet Et
    Onu yapamaz. Biraz afaki olmuş
    Cevapla
  • Sefil bilo 1 yıl önce Şikayet Et
    Haklısın... Atom da parçalanamazdı bir zamanlar ama şimdi çocuk oyuncağı. Ünlü IBM şirketinin üst yöneticisi 1950'li yıllarda 3 tane bilgisayar dünyaya çok fazla bile deme aptallığında bulunmuştu. O kadar emin olmayın bence.
    Cevapla
  • Bazuki-Bozok 1 yıl önce Şikayet Et
    Yapay zeka ya şöyle bir şeye de karar verirse.Mesela operasyon esnasında kazanacağı puanın operatörü öldürerek kaybedeceği puandan daha büyük yük puanlar kazandıracağını düşünürse sonuç yine değişmeyecek ve bir katile dönüşecektir.
    Cevapla
  • İnsanoğlu 1 yıl önce Şikayet Et
    Sakıncalı bir durum. İnsan haklarına karşı. İnsanları puan olarak hedef gösteriliyor. Yani yalan söyleniyor makinaya. O da ne yapsın. Kazanmak istiyor yapay zeka. Gidişat iyi değil. Böyle etik kural çiğneme olmaması gerek. Hani insan hakları savunucuları. Amerika A bir nota verilmeli. Tehlikeli yöntemler deneyde.
    Cevapla

İLGİNİZİ ÇEKEBİLİR