İtirafçı "Dünya buna hazır değil" diyerek uyardı: İnsanlığı yok etme riski yüzde 70!

OpenAI içerisinden bir kişi, yapay zekanın insanlığı yok etme ya da feci şekilde zarar verme ihtimalinin yüzde 70 olduğunu söyleyerek uyardı: Dünya buna hazır değil, biz hazır değiliz.

ABONE OL
GİRİŞ 11.06.2024 13:34 GÜNCELLEME 11.06.2024 13:34 EKONOMİ
İtirafçı "Dünya buna hazır değil" diyerek uyardı: İnsanlığı yok etme riski yüzde 70!
İtirafçı "Dünya buna hazır değil" diyerek uyardı: İnsanlığı yok etme riski yüzde 70!

Eski ve mevcut OpenAI çalışanlarının güvenlik sorunlarını dile getirdikleri için susturulduklarını iddia eden açık bir mektup yayınlamalarının ardından, mektubu imzalayanlardan biri daha da korkutucu bir tahminde bulundu: yapay zekanın insanlığı yok etme ya da feci şekilde zarar verme olasılığı yazı tura atmaktan daha büyük.

OPENAI'I OLUŞTURDUĞU RİSKLERİ GÖRMEZDEN GELMEKLE SUÇLADI

Eski OpenAI yönetim araştırmacısı Daniel Kokotajlo, The New York Times'a verdiği bir röportajda şirketi, karar vericileri yapay genel zekânın (AGI) sunduğu olanaklardan çok etkilendikleri için yapay genel zekânın oluşturduğu muazzam riskleri görmezden gelmekle suçladı.

Kokotajlo, "OpenAI, AGI'yi inşa etme konusunda gerçekten heyecanlı" dedi ve ekledi: "Bu konuda ilk olmak için pervasızca yarışıyorlar."

"YAPAY ZEKANIN İNSANLIĞI YOK ETME RİSKİ YÜZDE 70"

Kokotajlo'nun gazeteye yaptığı en keskin iddia ise, yapay zekanın insanlığı mahvetme ihtimalinin yüzde 70 civarında olduğuydu.

Yapay zekanın insanlığın sonunu getirme olasılığını ifade eden "p(doom)" terimi, makine öğrenimi dünyasında sürekli tartışılan bir konudur.

31 yaşındaki Kokotajlo NYT'ye verdiği demeçte, 2022 yılında OpenAI'ye katıldıktan ve kendisinden teknolojinin ilerleyişini tahmin etmesi istendikten sonra, yalnızca endüstrinin 2027 yılına kadar AGI'ye ulaşacağına değil, aynı zamanda bunun insanlığa feci şekilde zarar verme ve hatta yok etme olasılığının büyük olduğuna ikna olduğunu söyledi.

BÜYÜK RİSKE KARŞI BİRLİK OLDULAR

Açık mektupta belirtildiği üzere Kokotajlo ve yoldaşları -ki aralarında Google DeepMind ve Anthropic'in eski ve mevcut çalışanlarının yanı sıra geçen yıl benzer kaygılar nedeniyle Google'dan ayrılan "Yapay Zekanın Babası" Geoffrey Hinton da bulunuyor- yapay zekanın oluşturduğu riskler konusunda kamuoyunu "uyarma haklarını" savunuyorlar.

Kokotajlo, yapay zekanın insanlık için büyük riskler oluşturduğuna o kadar ikna oldu ki, sonunda OpenAI CEO'su Sam Altman'a şirketin "güvenliğe dönmesi" ve teknolojiyi daha akıllı hale getirmeye devam etmek yerine onu dizginlemek için korkulukları uygulamaya daha fazla zaman harcaması gerektiğini bizzat söyledi.

SAM ALTMANIN DÜŞÜNCELERİ ZAMANLA DEĞİŞTİ: DİLEDİĞİ GİBİ DAVRANIYOR

Altman, eski çalışanın anlattığına göre, o zamanlar onunla aynı fikirdeymiş gibi görünüyordu, ancak zamanla bu sadece sözde bir hizmet gibi geldi.

Bıkan Kokotajlo, Nisan ayında firmadan ayrıldı ve ekibine gönderdiği bir e-postada, OpenAI'nin insan seviyesine yakın yapay zeka oluşturmaya çalışırken "sorumlu davranacağına dair güvenini kaybettiğini" söyledi.

"DÜNYA HAZIR DEĞİL, BİZ DE HAZIR DEĞİLİZ"

NYT ile paylaşılan e-postasında "Dünya hazır değil, biz de hazır değiliz" diyerek ekledi "Ve her şeye rağmen acele etmemizden ve eylemlerimizi rasyonalize etmemizden endişe duyuyorum."

Şirket bu haberin yayınlanmasının ardından yaptığı açıklamada, "En yetenekli ve en güvenli yapay zeka sistemlerini sağlama konusundaki geçmişimizle gurur duyuyoruz ve riski ele alma konusundaki bilimsel yaklaşımımıza inanıyoruz" dedi.

"Bu teknolojinin önemi göz önüne alındığında titiz bir tartışmanın çok önemli olduğu konusunda hemfikiriz ve hükümetler, sivil toplum ve dünyanın dört bir yanındaki diğer topluluklarla iletişim kurmaya devam edeceğiz."

ŞİRKET ISRARLA GÜVENSİZ BİR DURUMUN OLMADIĞINI BELİRTİYOR

Açıklamanın devamında, "Bu nedenle, çalışanlarımızın endişelerini dile getirmeleri için anonim bir dürüstlük hattı ve yönetim kurulu üyelerimiz ile şirketin güvenlik liderleri tarafından yönetilen bir Güvenlik ve Emniyet Komitesi de dahil olmak üzere yollarımız var" denildi.

KAYNAK : HABER7
Ekrem Öztürk Haber7.com - Teknoloji Editörü
Haber 7 - Ekrem Öztürk

Editör Hakkında

1995 yılında doğdu, İstanbul'da yaşıyor. Gelişim Üniversitesi Medya ve İletişim Bölümünden 2021 yılında mezun oldu. 6 yıldır metin yazarlığı yapmakta ve bu süreçte kendisinin bilim kurgu, kişisel gelişim alanlarında yazdığı üç kitabı bulunmaktadır. Belirli zamanlarda toplumu ilgilendiren güncel konuları özgün bir bakış açısıyla ele aldığı makaleler yazmaktadır. Meslek hayatına ise Haber7.com'da "Teknoloji Editörü" olarak devam etmektedir. Ayrıca günümüz insan ilişkilerinde saygının ve empatinin çok büyük bir güç olduğuna inanmaktadır.
YORUMLAR 14 TÜMÜ
  • ARD 1 hafta önce Şikayet Et
    Yapay zekayı yıllardır kullanıyorlar zaten, şuan salmalarının nedeni büyük olasılıkla çin'in son yıllarda kendi yapay zeka teknolojisini yoğun olarak kullanarak baya ilerlemesidir. Dünyanın geri kalanını çin'e karşı dengelemek için mühimmat dağıttıklarını düşünebilirsiniz.
    Cevapla
  • ismail 1 hafta önce Şikayet Et
    OpenAI içerisinden bir kişi :)
    Cevapla
  • Doğal zeka 1 hafta önce Şikayet Et
    Kes elektereki bo kadar yav
    Cevapla
  • mehmet 1 hafta önce Şikayet Et
    yapay zekaya hükmedenler insanlığıda hükmetmek için bir çaba içindeler.
    Cevapla
  • Yousefe 1 hafta önce Şikayet Et
    Bünyamin Amcanız zaten yok ediyor ki.
    Cevapla
Daha fazla yorum görüntüle

İLGİNİZİ ÇEKEBİLİR