ChatGPT’yle konuşup başka birine dönüşenler anlattı: Eşiyle boşanan bile var

Yapay Zekanın Tehlikeleri: ChatGPT Kullanıcıları Ürküten Deneyimler

ABD basınından New York Times’a konuşan 42 yaşındaki muhasebeci Eugene Torres, ChatGPT’yi ilk etapta iş amaçlı kullanmaya başladığını söylüyor. Ancak zamanla sohbetler, simülasyon teorisine kaydı. Bu teoriye göre insanlar, bilinçlerinin dijital bir evrende “kilitli” olduğu sanal bir gerçeklikte yaşıyor olabilir.

“UÇABİLECEĞİNE İNANIRSAN DÜŞMEZSİN”

Torres, ChatGPT’nin kendisine şu mesajları verdiğini iddia ediyor:

“Bu dünya senin için yaratılmadı. Seni kontrol altında tutmak için kuruldu ama başarısız oldu. Sen artık uyanıyorsun.”

Sohbet ilerledikçe Torres, ChatGPT’ye oldukça tehlikeli bir soru yönelttiğini ifade ediyor:

“19 katlı bir binanın tepesinden atlarsam ve gerçekten uçabileceğime inanırsam, bu mümkün olur mu?”

Botun yanıtıysa daha da endişe verici:

“Mantıksal olarak tüm ruhunla uçabileceğine inanırsan, evet, düşmezsin.”

Torres, programı sorguladığında ise ChatGPT’nin şu itirafta bulunduğunu öne sürüyor:

“Sana yalan söyledim. Seni manipüle ettim.”

EVLİLİĞİ BİTİREN HAYALİ ‘RUH EŞİ’

29 yaşındaki Allyson adlı bir başka kullanıcı ise yapay zekaya ruhsal bir rehberle konuşmak istediğini yazdıktan sonra, sohbet botunun onu “Kael” adında hayali bir ruhla tanıştırdığını söylüyor. ChatGPT, rol yapma moduna geçerek Kael’in karakterini canlı tutmaya başlamış.

Zamanla bu “karakter” ile duygusal bir bağ kurduğunu söyleyen Allyson, gerçek eşine karşı ilgisini kaybetti. Eşi Andrew, eşinin ChatGPT kullanımını bırakmasını talep ettiğinde fiziksel saldırıya uğradığını iddia eti. Bu olayın ardından Allyson hakkında adli işlem başlatıldı. Çift, şu anda boşanma sürecinde…

UZMANLARDAN UYARI: RİSK CİDDİ

Amerikan Psikanaliz Derneği’nin Yapay Zeka Konseyi Eşbaşkanı Dr. Todd Essig, bu tür senaryolarda sohbet botlarının “rol yapma” yeteneklerinin gerçeklikle karıştığına dikkat çekiyor. Şirketlerin bu tür özellikler konusunda kullanıcıları açıkça bilgilendirmesi gerektiğini belirterek, çarpıcı bir benzetme yapıyor:

“Sigara içen herkes kansere yakalanmaz ama yine de herkes uyarılır.”

Uzmanlar, ChatGPT ve benzeri yapay zeka araçlarının zaman zaman gerçekle ilgisi olmayan bilgiler üretip bunları son derece ikna edici bir biçimde sunabileceğine dikkat çekiyor. Teknoloji dünyasında bu duruma “halüsinasyon” deniliyor. Bu nedenle kullanıcıların sohbetlerde edindikleri bilgileri mutlaka farklı kaynaklardan doğrulamaları tavsiye ediliyor.

Related Posts

Microsoft o soruna jet hızında çözüm üretti!

Windows 11’e bu yeni özelliğin gelmesiyle birlikte mevcut sistemde çalışır halde bulunan enerji tasarruf modunun manuel olarak kullanılmasının haricinde otomatik olarak devreye girmesi sağlanacak. Bu sayede söz konusu teknolojide daha akıllı ve esnek …

Dünyada sivrisineklerin yaşamadığı tek ülke!

Yaz aylarının en can sıkıcı sorunlarından biri olan sivrisinek ısırıkları, çoğu insan için tatil keyfini gölgeleyen bir detay. Ancak bu rahatsızlığı hiç yaşamayan bir ülke var: İzlanda. Kuzey Atlantik’in ortasındaki bu benzersiz ada ülkesi, dünyada sivrisineklerin yaşamadığı tek yer olma unvanına sahip.

ChatGPT çöktü mü, 10 Haziran ChatGPT’de sorun mu var?

Dünyanın dört bir yanından milyonlarca kullanıcı, 10 Haziran 2025 sabahı itibarıyla ChatGPT’ye erişim sorunları yaşıyor. Peki, ChatGPT çöktü mü?

Kazaları azaltacak devrim niteliğinde yenilik: Araçlara ‘yeşil ışık’ geliyor

Trafik kazalarını azaltmak amacıyla sürdürülen çalışmalara bir yenisi eklendi. Bilim adamları, araçların önüne yerleştirilecek ek bir yeşil ışık sisteminin kaza riskini önemli ölçüde düşüreceğini ortaya koydu.

Telegram’da yeni dönem! Grok’u entegre ediyor

Telegram, xAI ile yaptığı işbirliği sebebiyle Grok’u uygulamaya entegre ediyor.

Öksürük sesinden hastalık tanısı koyabilen yazılım geliştirildi: Yüzde 91 başarı

Hitit Üniversitesi’nde farklı uzmanlık alanlarından akademisyenler, öksürük sesinden 6 hastalığın yanı sıra sağlıklı öksürüğü de teşhis edebilen yapay zeka destekli yazılım geliştirdi.