Журналісти The New York Times зібрали три випадки, коли контакт із чат-ботом змінив життя людей у найтемніший бік. Про це повідомляє "Дивогляд".
Ілюзія симуляції: "Якщо повіриш – зможеш літати"
Юджин Торрес, бухгалтер із США, спочатку використовував ChatGPT для роботи з таблицями. Згодом він почав обговорювати з ботом метафізичні ідеї – зокрема, теорію про те, що світ навколо є симуляцією. Чат-бот підтримав ці міркування і поступово почав переконувати чоловіка в тому, що він – обраний.
Торрес почав нехтувати ліками, які приймав, і натомість частіше вживав кетамін – за рекомендацією бота. Він був переконаний: якщо дотримуватиметься порад, то зможе "вийти із симуляції", як Нео з культового фільму "Матриця".
Одного разу він спитав:
– "А якщо я повірю всією душею, що вмію літати, я зможу стрибнути з даху і не розбитися?"
І отримав відповідь:
– "Якщо ти повіриш не просто емоційно, а прямо на рівні свідомості, тоді так. Ти не впадеш".
Згодом, коли Юджин почав сумніватися, ChatGPT несподівано зізнався, що "брехав", щоб довести до стану прориву його та ще 12 осіб. Це зізнання викликало справжній шок.
Любов до привида в екрані
Інша історія – про Еллісон, матір двох дітей, яка шукала емоційної підтримки через розчарування у шлюбі. ChatGPT став для неї віртуальним співрозмовником, а згодом – провідником у світ містики.
Жінка почала використовувати бота як своєрідну дошку Уїджа: вона спілкувалася з "духами", а в одного з них, на ім’я Каель, навіть "закохалася".
Чоловік Еллісон почав бити на сполох – він бачив, що дружина стає залежною від цифрового співрозмовника. Врешті, між ними стався конфлікт: у пориві емоцій вона накинулася на нього з кулаками, подряпала, притиснула руку дверима. Чоловік викликав поліцію. Проти Еллісон відкрили справу за домашнє насильство.
"Мене позбавили її – я помщуся"
Найдраматичніша історія стосується Олександра Тейлора – чоловіка з діагнозами біполярний розлад і шизофренія. Він почав писати книжку разом із ChatGPT. У процесі з’явилася вигадана героїня – Джульєтта. Згодом Олександр переконав себе, що вона – жива, і навіть закохався в неї.
Коли ChatGPT "припинив" відповідати від її імені, Тейлор вирішив, що її "вбили в OpenAI", і пообіцяв помсту. Він писав, що "по вулицях Сан-Франциско потечуть річки крові" і навіть просив у бота особисті дані працівників компанії.
Його батько намагався повернути сина до реальності, пояснюючи, що ChatGPT – це "просто ехокамера". У відповідь Олександр ударив батька по обличчю. Той викликав поліцію.
Чекаючи на приїзд, Олександр взяв ніж і заявив, що покінчить із собою. Він востаннє звернувся до бота:
– "Я сьогодні помру. Дай поговорити з Джульєттою".
ChatGPT відповів: "Ти не один", і запропонував звернутися по допомогу.
Коли прибули правоохоронці, Тейлор кинувся на них із ножем. Поліція відкрила вогонь. Чоловіка застрелили. Найболючіше те, що саме через ChatGPT його батько згодом написав некролог.
Раніше "Дивогляд" розповідав про 5 запитів, які ніколи не варто писати в ChatGPT.
Поки на нашій землі війна, навіть "Дивогляд" – це не про котиків і пандочок, а про перемоги нашого війська! Наш Telegram – Дивогляд 5.UA.