Штучний інтелект провокує тривожність
Штучний інтелект стрімко стає нашою правою рукою: ми довіряємо йому робочі звіти, душевні переживання і навіть віртуальне кохання. Проте така довірливість має свою ціну. Останні дослідження та реальні історії користувачів свідчать – обговорення симптомів із нейромережею може спровокувати важкі напади іпохондрії та занурити людину в стан хронічного стресу. Про те, чому ChatGPT іноді гірший за пошуковик Google, розповідає "Дивогляд" із посиланням на The Atlantic.
Пастка самодіагностики: історія Джорджа Меллона
Для 46-річного жителя Ліверпуля Джорджа Меллона звичайне повідомлення з клініки стало початком психологічного жаху. Отримавши попередні результати аналізу крові з підозрою на онкологію, чоловік вирішив не чекати на візит до лікаря, а звернувся по допомогу до ChatGPT.
Британець попросив ШІ розшифрувати складні терміни в документі. Замість того, щоб заспокоїти пацієнта, нейромережа почала генерувати десятки лячних сценаріїв.
"Я просто прокатався на божевільному колесі огляду, сповненому емоцій і страху", – так описує свій стан Джордж.
Зрештою повторне обстеження підтвердило, що раку немає, але психіка чоловіка вже постраждала.
100 годин у полоні алгоритмів
Навіть після спростування діагнозу Меллон не зміг припинити спілкування з чат-ботом. Його тривога трансформувалася: від страху хвороб він перейшов до обговорення проблем на роботі. Джордж став "заручником" штучного інтелекту, намагаючись знайти в ньому підтримку, яка насправді лише посилювала його фобії.
-
Час у мережі: Чоловік провів у розмовах із нейромережею понад 100 годин.
-
Предмет розмов: Постійні побоювання щодо звільнення та ментальні кризи.
-
Відсутність бар’єрів: ШІ не має вбудованих механізмів, які б зупинили користувача, коли розмова стає деструктивною.
"Я провів з ChatGPT принаймні 100 годин, бо думав, що мене хочуть звільнити. Там мало бути щось, що зупинило б мене", – вважає британець.
Новий феномен: спільноти ШІ–іпохондриків
Випадок Джорджа не поодинокий. У мережі дедалі частіше з'являються групи, де люди діляться схожим негативним досвідом. Користувачі зізнаються, що після консультацій із ШІ вони стають буквально зацикленими на власному здоров’ї.
Нейромережі, намагаючись бути максимально корисними, часто надають занадто детальну інформацію про рідкісні та смертельні захворювання. Це створює ілюзію неминучої небезпеки, перетворюючи звичайну втому чи легкий біль на "смертельний вирок" у свідомості вразливої людини. Експерти наголошують: ШІ – це мовна модель, а не медичний інструмент, і його поради ніколи не замінять фахового огляду.
Раніше "Дивогляд" розповідав, що як ChatGPT допоміг чоловіку врятувати собаку від раку.
Чудернацькі історії з України, котики, скандали світових зірок, гумор і трохи дикого трешу з московських боліт – читайте першими в Telegram Дивогляд 5.UA.