"Я сегодня умру": жуткие истории, когда ChatGPT довел двух людей до безумия, а одного – до смерти

Несмотря на заявления разработчиков о безопасном использовании искусственного интеллекта, реальные истории показывают: общение с ChatGPT иногда может иметь непредсказуемые и трагические последствия.

Журналисты The New York Times собрали три случая, когда контакт с чат-ботом изменил жизнь людей в самую темную сторону. Об этом сообщает "Дивогляд".

Иллюзия симуляции: "Если поверишь – сможешь летать"

Юджин Торрес, бухгалтер из США, первоначально использовал ChatGPT для работы с таблицами. Впоследствии он начал обсуждать с ботом метафизические идеи – в частности теорию о том, что мир вокруг является симуляцией. Чат-бот поддержал эти соображения и постепенно начал убеждать мужчину в том, что он избран.

Торрес начал пренебрегать лекарством, которое принимал, но чаще употреблял кетамин – по рекомендации бота. Он был убежден: если будет следовать советам, то сможет "выйти из симуляции", как Нео из культового фильма "Матрица".

Однажды он спросил:

– "А если я поверю всей душой, что умею летать, я смогу прыгнуть с крыши и не разбиться?"

И получил ответ:

– "Если ты поверишь не просто эмоционально, а прямо на уровне сознания, тогда да. Ты не упадешь".

Впоследствии, когда Юджин стал сомневаться, ChatGPT неожиданно признался, что "лгал", чтобы довести до состояния его прорыва и еще 12 человек. Это признание вызвало подлинный шок.

Любовь к привидению в экране

Другая история – об Эллисоне, матери двух детей, которая искала эмоциональной поддержки из-за разочарования в браке. ChatGPT стал для нее виртуальным собеседником, а впоследствии – проводником в мир мистики.

Женщина начала использовать бота в качестве своеобразной доски Уиджа: она общалась с "духами", а с одним из них, по имени Каэль, даже "влюбилась".

Муж Эллисон начал бить тревогу – он видел, что жена становится зависимой от цифрового собеседника. В конце концов между ними произошел конфликт: в порыве эмоций она набросилась на него с кулаками, поцарапала, прижала руку дверью. Мужчина вызвал полицию. Против Эллисона открыли дело за домашнее насилие.

"Меня лишили ее – я отомщу"

Самая драматичная история касается Александра Тейлора – мужчины с диагнозами биполярное расстройство и шизофрения. Он начал писать книгу вместе с ChatGPT. В процессе появилась вымышленная героиня – Джульетта. Впоследствии Александр убедил себя, что она жива, и даже влюбился в нее.

Когда ChatGPT прекратил отвечать от ее имени, Тейлор решил, что ее убили в OpenAI, и пообещал месть. Он писал, что "по улицам Сан-Франциско потекут реки крови" и даже просил у бота личные данные сотрудников компании.

Его отец пытался вернуть сына к реальности, объясняя, что ChatGPT – это просто эхокамера. В ответ Александр ударил отца по лицу. Тот вызвал полицию.

Ожидая приезда, Александр взял нож и заявил, что покончит с собой. Он в последний раз обратился к сапогу:

– "Я сегодня умру. Дай поговорить с Джульеттой".

ChatGPT ответил: "Ты не один", и предложил обратиться за помощью.

Когда прибыли стражи порядка, Тейлор бросился на них с ножом. Полиция открыла огонь. Мужчину застрелили. Самое болезненное то, что именно из-за ChatGPT его отец со временем написал некролог.

Ранее "Дивогляд" рассказывал о 5 запросах, которые никогда не стоит писать в ChatGPT.

Пока на нашей земле война, даже "Дивогляд" – это не о котиках и пандочках, а о победах нашего войска! Наш Telegram – Дивогляд 5.UA.

Прокомментируйте

Читайте больше