Многие пользователи начинают рассматривать ChatGPT, как виртуального собеседника или альтернативу психологу
Однако специалисты предупреждают, что раскрывать личные детали этому искусственному интеллекту может быть рискованно. Как отмечает издание Lad Bible, искусственный интеллект может хранить введенные данные для дальнейшего обучения, а это означает, что частная информация может оказаться в неизвестных местах, пишет "Дивогляд".
Профессор Оксфордского университета Майк Вуллидж объяснил, что ChatGPT не способен на настоящее сопереживание:
"У ChatGPT нет ни эмпатии, ни сострадания. Он никогда ничего не переживал. Вся технология создана только для того, чтобы говорить вам то, что вы хотите услышать – буквально".
По его мнению, человеческие отношения основываются на искренности и эмоциональном взаимодействии, поэтому обращаться к искусственному интеллекту за психологической поддержкой – сомнительное решение.
Кроме нравственных рисков, специалисты обращают внимание на темную сторону создания таких моделей. Чтобы научить алгоритмы распознавать и блокировать запрещенный контент, сотрудники из стран Глобального Юга, в частности Кении, вынуждены были пересматривать травматические материалы, связанные с сексуальным насилием, расизмом и жестокостью.
Отдельную угрозу представляет утечка персональных данных. В 2023 году Италия временно заблокировала ChatGPT, обвинив разработчиков в незаконном сборе диалогов пользователей и платежной информации для дальнейшего обучения модели. Регулятор также обратил внимание на отсутствие должного возрастного контроля: несмотря на требование согласия родителей для подростков от 13 до 18 лет, дети могли получать ответы, не соответствующие их психологической зрелости.
Вуллидж подчеркнул, что пользователи должны понимать: любые введенные данные могут стать частью будущих обновлений системы. Он предупредил, что "чрезвычайно опрометчиво делиться личными подробностями, жалобами на руководство или политическими взглядами с ChatGPT".
К тому же новое исследование Массачусетского технологического института показало, что чрезмерная зависимость от искусственного интеллекта может негативно влиять на когнитивные способности человека. Другими словами, постоянное использование ChatGPT не только чревато конфиденциальностью, но и может постепенно снижать способность самостоятельно мыслить и анализировать информацию.
Ранее "Дивогляд" рассказывал, что ChatGPT научился "гуглить".
Причудливые истории из Украины, котики, скандалы мировых звезд, юмор и чуть-чуть дикого трэша из московских болот – читайте первыми в Telegram Дивогляд 5.UA.