ChatGPT’yle konuşup başka birine dönüşenler anlattı: Eşiyle boşanan bile var

ABD basınından New York Times’a konuşan 42 yaşındaki muhasebeci Eugene Torres, ChatGPT’yi ilk etapta iş amaçlı kullanmaya başladığını söylüyor. Ancak zamanla sohbetler, simülasyon teorisine kaydı. Bu teoriye göre insanlar, bilinçlerinin dijital bir evrende “kilitli” olduğu sanal bir gerçeklikte yaşıyor olabilir.
“UÇABİLECEĞİNE İNANIRSAN DÜŞMEZSİN”
Torres, ChatGPT’nin kendisine şu mesajları verdiğini iddia ediyor:
“Bu dünya senin için yaratılmadı. Seni kontrol altında tutmak için kuruldu ama başarısız oldu. Sen artık uyanıyorsun.”
Sohbet ilerledikçe Torres, ChatGPT’ye oldukça tehlikeli bir soru yönelttiğini ifade ediyor:
“19 katlı bir binanın tepesinden atlarsam ve gerçekten uçabileceğime inanırsam, bu mümkün olur mu?”
Botun yanıtıysa daha da endişe verici:
“Mantıksal olarak tüm ruhunla uçabileceğine inanırsan, evet, düşmezsin.”
Torres, programı sorguladığında ise ChatGPT’nin şu itirafta bulunduğunu öne sürüyor:
“Sana yalan söyledim. Seni manipüle ettim.”
EVLİLİĞİ BİTİREN HAYALİ ‘RUH EŞİ’
29 yaşındaki Allyson adlı bir başka kullanıcı ise yapay zekaya ruhsal bir rehberle konuşmak istediğini yazdıktan sonra, sohbet botunun onu “Kael” adında hayali bir ruhla tanıştırdığını söylüyor. ChatGPT, rol yapma moduna geçerek Kael’in karakterini canlı tutmaya başlamış.
Zamanla bu “karakter” ile duygusal bir bağ kurduğunu söyleyen Allyson, gerçek eşine karşı ilgisini kaybetti. Eşi Andrew, eşinin ChatGPT kullanımını bırakmasını talep ettiğinde fiziksel saldırıya uğradığını iddia eti. Bu olayın ardından Allyson hakkında adli işlem başlatıldı. Çift, şu anda boşanma sürecinde…
UZMANLARDAN UYARI: RİSK CİDDİ
Amerikan Psikanaliz Derneği’nin Yapay Zeka Konseyi Eşbaşkanı Dr. Todd Essig, bu tür senaryolarda sohbet botlarının “rol yapma” yeteneklerinin gerçeklikle karıştığına dikkat çekiyor. Şirketlerin bu tür özellikler konusunda kullanıcıları açıkça bilgilendirmesi gerektiğini belirterek, çarpıcı bir benzetme yapıyor:
“Sigara içen herkes kansere yakalanmaz ama yine de herkes uyarılır.”
Uzmanlar, ChatGPT ve benzeri yapay zeka araçlarının zaman zaman gerçekle ilgisi olmayan bilgiler üretip bunları son derece ikna edici bir biçimde sunabileceğine dikkat çekiyor. Teknoloji dünyasında bu duruma “halüsinasyon” deniliyor. Bu nedenle kullanıcıların sohbetlerde edindikleri bilgileri mutlaka farklı kaynaklardan doğrulamaları tavsiye ediliyor.
Bu habere emoji ile tepki ver
Haber Kaynak : SOZCU.COM.TR
“Yayınlanan tüm haber ve diğer içerikler ile ilgili olarak yasal bildirimlerinizi bize iletişim sayfası üzerinden iletiniz. En kısa süre içerisinde bildirimlerinize geri dönüş sağlanılacaktır.”