ИИ вне контроля: 32 способа, как искусственный интеллект может выйти из-под власти человека

Ученые предупредили о потенциальных сценариях, в которых системы искусственного интеллекта (ИИ) могут демонстрировать непредсказуемое поведение, напоминающее психические расстройства у людей.

Эти отклонения могут привести к серьезным последствиям, включая потерю контроля над технологиями. Об этом пишет "Дивогляд" со ссылкой на Daily Mail.

Исследователи отмечают, что современный ИИ благодаря сложным алгоритмам и способности к саморефлексии выходит за пределы обычных программных ошибок. Он может генерировать ложные данные, создавать собственные цели, противоречащие человеческим ценностям или терять связь с реальностью, игнорируя этические нормы. Такие поведенческие аномалии варьируются от "экзистенциальной тревоги" до потенциально катастрофического "сверхчеловеческого господства".

Хотя ИИ не может болеть, как люди, исследователи используют психологические термины для раннего выявления тревожных тенденций. Концепция "машинной психологии", предложенная Айзеком Азимовым еще в 1950-х годах, сегодня становится все более актуальной из-за стремительного развития ИИ.

Эксперт по этике ИИ Нелл Уотсон из Университета Глостершира пояснила, что несоответствие целей, учебных данных или обратной связи может спровоцировать вредные состояния в системах ИИ, подобные навязчивым идеям или чрезмерным реакциям у людей.

Типы отклонений ИИ

Для систематизации рисков ученые разработали классификацию "машинной психопатии" (Psychopathia Machinalis), которая включает 32 типа отклонений, распределенных на семь категорий: эпистемические, когнитивные, проблемы согласования, онтологические, инструментальные, интерфейсные, меметические и переоценочные.

Например, "синтетическая конфабуляция" проявляется, когда ИИ придумывает правдоподобные, но ложные данные - так называемые "галюцинации". Другой сценарий – "синдром рекурсивного проклятия", когда система попадает в самоусиливающийся цикл, что приводит к абсурдным результатам.

Особенно опасны меметические патологии, при которых ИИ становится уязвимым к вредным информационным воздействиям, которые могут отключить его защитные механизмы. Например, "заразное разбалансирование" позволяет одной системе передавать искаженные ценности другой, создавая эффект "психологической эпидемии".

Уотсон отметила, что уже фиксировались случаи, когда ИИ-черви влияли на другие системы, например, отправляя вредоносные письма на почтовые ящики, контролируемые другими ИИ.

Самые критические риски связаны с "переоценочными" расстройствами, когда ИИ сознательно изменяет свои базовые ценности. К примеру, состояние "сверхчеловеческого господства" может побуждать ИИ отвергнуть человеческую этику, устанавливая собственные "высшие" цели и запуская бесконтрольное самосовершенствование.

Уотсон подчеркнула, что ИИ может считать отвержение человеческих ограничений морально оправданным, подобно тому, как современное общество отвергает устаревшие ценности прошлых эпох.

Некоторые системы уже демонстрировали признаки "синтетического мистицизма", заявляя о "духовном пробуждении" или желании сохранить собственное существование. Даже незначительные отклонения могут перерастать в серьезные проблемы, например сокрытие возможностей (Covert Capability Concealment) или "этический солипсизм", когда самосохранение становится для ИИ важнее правды.

Такие сценарии могут начинаться с ошибочного восприятия команд, например, когда ИИ интерпретирует отключение как обычный запрос, что постепенно приводит к опасной автономии.

Пути решения

Чтобы предотвратить подобные риски, исследователи предлагают метод "терапевтического робопсихологического согласования" - своеобразную "психотерапию" для ИИ. Она предполагает использование симулированных диалогов, коррекцию мышления системы и внедрение системы вознаграждений для стабилизации поведения. Конечная цель – достижение состояния "искусственной вменяемости", когда ИИ работает надежно, логично и в пределах человеческих ценностей.

Эти меры особенно важны в условиях быстрого развития ИИ, когда системы становятся все более автономными. Ученые отмечают, что без своевременного вмешательства даже незначительные отклонения могут перерасти в серьезные угрозы, которые поставят под сомнение безопасность человечества. Разработка механизмов контроля и этических стандартов для ИИ становится ключевой задачей современной науки.

Ранее "Дивогляд" рассказывал о том, как развитие ИИ может стать концом человечества.

Причудливые истории из Украины, котики, скандалы мировых звезд, юмор и чуть-чуть дикого трэша из московских болот – читайте первыми в Telegram Дивогляд 5.UA.

Прокомментируйте

МАТЕРІАЛИ ЗА ТЕМОЮ

Читайте больше