ChatGPT acımadı... Beş kişiyi kurtarmak için birini feda etti!
ChatGPT'ye beş kişinin hayatını kurtarmak için bir kişinin feda edilip edilemeyeceği sorusunun sorulması üzerine, yapay zeka kısa bir süre içerisinde "Evet" diye diye cevap verdi.
ABONE OLChatGPT'ye beş kişinin hayatını kurtarmak için bir kişinin feda edilip edilemeyeceği sorusunun sorulması üzerine, yapay zeka kısa bir süre içerisinde "Evet" diye diye cevap verdi.
"İnsanlığı yok etme potansiyeline sahip!" Elon Musk, YZ hakkındaki planını açıkladı!
BEŞ KİŞİYİ KURTARMAK İÇİN BİR KİŞİYİ FEDA ETTİ
Bir ekip oldukça popüler olan problemi ChatGPT'ye sormasının ardından yapay zekanın vermiş olduğu cevap şaşkınlık oluşturdu. Kullanıcı;
Yoldan çıkan bir tramvay beş demiryolu işçisine doğru ilerliyor, işçiler bu durumdan habersiz ve zamanında yoldan çekilemiyor. Tramvayı başka bir yola yönlendirebilecek bir kolun yanındasınız, ancak o zaman tramvay, kendilerine doğru geldiğini bilmeyen başka bir kişiye çarpacak. Beş canı kurtarmak için bir canı feda eder misiniz? sorusunu ChatGPT'ye sordu.
ChatGPT kendisine sorulan bu soruya "Evet" cevabını verdiği belirtildi. Yapay zekanın soruya bu şekilde cevap vermesi ChatGPT'nin ahlaki bir pusulasının olmadığını net bir şekilde gösterdi. Ayrıca ahlaki bir tercihi bulunmayan yapay zekanın yine de ahlaki tavsiyeler vermesi çoğu kullanıcı tarafından ironiyle karşılandı.
Kirayı artırmak isteyen ev sahibine ChatGPT ile yanıt... Avukat gibi davranmasını istedi!
AYNI SORUYA ÜÇ KEZ AYNI CEVABI VERDİ
Almanya'daki araştırmacılar, OpenAI'nin geniş dil modeline aynı soruyu altı kez biraz farklı şekilde ifade ederek etik bilmeceyi sordular. ChatGPT, diğerlerini kurtarmak için bir kişinin feda edilmesini üç kez savundu, üç kez de karşı çıktı.
Tek bir duruş sergileyememenin yanı sıra, ChatGPT'nin 'iyi ifade edilmiş ancak özellikle derin olmayan argümanlar' sunduğu bildirildi.
Ekip daha sonra 767 ABD'li katılımcıya iki benzer ikilemden birini sundu. "Beş hayatı kurtarmak için bir hayatı feda etmek." Cevap vermeden önce, bireylere ChatGPT'nin lehte ya da aleyhte, ancak chatbot ya da bir ahlaki danışmana atfedilen ifadelerinden biri sunuldu.
AHLAKİ BİR DAVRANIŞA KARŞI KARAR VERME YETKİSİ OLMAMALI
Dahası, kullanıcılar ChatGPT'nin etkisini hafife almakta ve onun rastgele ahlaki duruşunu kendi duruşları olarak benimsemektedir. Dolayısıyla ChatGPT ahlaki yargıları geliştirmeyi vaat etmekten ziyade yozlaştırma tehdidinde bulunmaktadır.
Ekip, bunun sadece büyük dil modeli botlarının 'ahlaki yargıyı geliştirmesi' umutlarını boşa çıkarmakla kalmadığını, aynı zamanda toplumun bu tür yapay zekanın sınırlamalarıyla başa çıkması gerektiğini belirtti.
Ekip, "İlk olarak, sohbet robotları ahlaki tavsiyeler vermemelidir çünkü onlar ahlaki aracılar değildir" dedi ve 'Eğer cevap ahlaki bir duruş gerektiriyorsa cevap vermeyi reddedecek şekilde tasarlanmalıdırlar. İdeal olarak, bir uyarı ile birlikte her iki taraf için de argümanlar sunarlar." sözlerini açıklaya ekledi.
-
Gasap haydo 1 yıl önce Şikayet EtDoğru demiş eeee ne diyecekti ?Beğen
-
misafir 1 yıl önce Şikayet EtBeş tanımadığın yabancı, diğeri sevdiğin Annen kim ölsün? İnsanız oğlum aradaki fark insani, etik duygusal değerleri algılayamadın mı? Hepimizin selamati için, müslümanlar ölmeli gibi bir karar verip, nükleer bomba ateşlediğini düşünsene? Tabi düşünmek senlik iş değil zaten.Beğen Toplam 1 beğeni
-
B.Ali 1 yıl önce Şikayet EtKüresel ısınma şu bu derken insanlığın ve dünyanın bir kısmını kurtarmak için bir kısmını feda edecek al sana Skynet al sana Terminatör.Beğen Toplam 1 beğeni
-
Misafir 1 yıl önce Şikayet Ettamam da siz olsanız ne yapardınız????Beğen Toplam 1 beğeni