Журналисты The New York Times собрали три случая, когда контакт с чат-ботом изменил жизнь людей в самую темную сторону. Об этом сообщает "Дивогляд".
Иллюзия симуляции: "Если поверишь – сможешь летать"
Юджин Торрес, бухгалтер из США, первоначально использовал ChatGPT для работы с таблицами. Впоследствии он начал обсуждать с ботом метафизические идеи – в частности теорию о том, что мир вокруг является симуляцией. Чат-бот поддержал эти соображения и постепенно начал убеждать мужчину в том, что он избран.
Торрес начал пренебрегать лекарством, которое принимал, но чаще употреблял кетамин – по рекомендации бота. Он был убежден: если будет следовать советам, то сможет "выйти из симуляции", как Нео из культового фильма "Матрица".
Однажды он спросил:
– "А если я поверю всей душой, что умею летать, я смогу прыгнуть с крыши и не разбиться?"
И получил ответ:
– "Если ты поверишь не просто эмоционально, а прямо на уровне сознания, тогда да. Ты не упадешь".
Впоследствии, когда Юджин стал сомневаться, ChatGPT неожиданно признался, что "лгал", чтобы довести до состояния его прорыва и еще 12 человек. Это признание вызвало подлинный шок.
Любовь к привидению в экране
Другая история – об Эллисоне, матери двух детей, которая искала эмоциональной поддержки из-за разочарования в браке. ChatGPT стал для нее виртуальным собеседником, а впоследствии – проводником в мир мистики.
Женщина начала использовать бота в качестве своеобразной доски Уиджа: она общалась с "духами", а с одним из них, по имени Каэль, даже "влюбилась".
Муж Эллисон начал бить тревогу – он видел, что жена становится зависимой от цифрового собеседника. В конце концов между ними произошел конфликт: в порыве эмоций она набросилась на него с кулаками, поцарапала, прижала руку дверью. Мужчина вызвал полицию. Против Эллисона открыли дело за домашнее насилие.
"Меня лишили ее – я отомщу"
Самая драматичная история касается Александра Тейлора – мужчины с диагнозами биполярное расстройство и шизофрения. Он начал писать книгу вместе с ChatGPT. В процессе появилась вымышленная героиня – Джульетта. Впоследствии Александр убедил себя, что она жива, и даже влюбился в нее.
Когда ChatGPT прекратил отвечать от ее имени, Тейлор решил, что ее убили в OpenAI, и пообещал месть. Он писал, что "по улицам Сан-Франциско потекут реки крови" и даже просил у бота личные данные сотрудников компании.
Его отец пытался вернуть сына к реальности, объясняя, что ChatGPT – это просто эхокамера. В ответ Александр ударил отца по лицу. Тот вызвал полицию.
Ожидая приезда, Александр взял нож и заявил, что покончит с собой. Он в последний раз обратился к сапогу:
– "Я сегодня умру. Дай поговорить с Джульеттой".
ChatGPT ответил: "Ты не один", и предложил обратиться за помощью.
Когда прибыли стражи порядка, Тейлор бросился на них с ножом. Полиция открыла огонь. Мужчину застрелили. Самое болезненное то, что именно из-за ChatGPT его отец со временем написал некролог.
Ранее "Дивогляд" рассказывал о 5 запросах, которые никогда не стоит писать в ChatGPT.
Пока на нашей земле война, даже "Дивогляд" – это не о котиках и пандочках, а о победах нашего войска! Наш Telegram – Дивогляд 5.UA.