При необходимости диалог с ИИ могут передать в полицию
Компания OpenAI, которой принадлежит ChatGPT, сообщила о новых правилах конфиденциальности. Нововведения связаны с недавними трагическими случаями их пользователей. Об этом сообщает "Дивогляд" со ссылкой на пресс-службу OpenAI.
В связи с трагическими случаями, когда пользователи ChatGPT советовались с ИИ по самоубийству, компания-владелец сообщила новые правила пользования их сервисом. Теперь OpenAI будет сообщать полицию и передавать им переписку своих клиентов, если обнаружит у них "неизбежную угрозу причинения физического ущерба другим людям".
Однако о запросах и диалогах, где речь идет о намерениях навредить себе правил не было. Над мониторингом чатов будет работать специальная команда модераторов, которая будет анализировать подозрительные диалоги между людьми и искусственным интеллектом.
Если модераторы будут обнаруживать в разговорах намеки на преступления, их будут сообщать полиции. Однако запросы о самоповреждении или суицидальных мнениях останутся конфиденциальными. Это решение компания приняла "из соображений уважения к личной жизни".
Однако соответствующие правила имеют противоречивость с заявлениями компании о защите конфиденциальности и отказами OpenAI предоставлять логи чатов из-за конфиденциальности.
Но теперь, как заявляет гендиректор компании Сэм Альтман, любая переписка в ChatGPT может быть прочитана при необходимости и использована против пользователя. Ранее Альтман говорил, что переписка с ChatGPT не тождественна приему у врача или конфиденциальному разговору с адвокатом.
Ранее "Дивогляд" рассказывал о том, как советы ChatGPT довели мужчину в больницу.
Причудливые истории из Украины, котики, скандалы мировых звезд, юмор и чуть-чуть дикого трэша из московских болот – читайте первыми в Telegram Дивогляд 5.UA .