Искусственный интеллект, графика

ИИ подставил: в Британии невинного инженера арестовали из-за ошибки алгоритма

Freepik

После инцидента мужчина подал иск в суд

В Великобритании произошел резонансный случай, который вновь поднял вопрос надежности технологий искусственного интеллекта. 26-летний инженер Алви Чоудхури был ошибочно задержан из-за сбоя в системе распознавания лиц, используемой полицией долины Темзы. Об этом сообщает "Дивогляд" со ссылкой на Metro.

Инцидент произошел 7 января в Саутгемптоне, где правоохранительные органы задержали мужчину в его собственном доме. Алгоритм сопоставил его фото из полицейской базы данных с записью камеры наблюдения в Милтон-Кинзе, где была совершена кража ювелирных изделий на сумму около 3 тысяч фунтов. При этом данное фото появилось в базе после другого ошибочного задержания, произошедшего пять лет назад.

По словам Чоудхури, во время допроса быстро выяснилось, что произошла ошибка: офицер еще до начала разговора поняла, что перед ней не тот подозреваемый. Она обратила внимание на несоответствие между его внешностью и человеком с видео.

После инцидента мужчина подал иск в суд. Он убежден, что ситуация имеет признаки расовой предвзятости, отметив, что правоохранительные органы могли просто отождествить двух темнокожих людей, не обратив внимания на существенные различия в чертах лица.

Как он выразился, "вы, вероятно, просто увидели двух смуглых людей… и сказали: "Да, они похожи. Давайте их арестуем".

Чоудхури также резко раскритиковал саму технологию. Он подчеркнул, что ни одна ИТ-компания не допустила бы к использованию систему с таким уровнем ошибок, назвав ее "полной багов".

В полиции долины Темзы принесли извинения за ситуацию, но в то же время заявили, что действовали в рамках закона, поскольку решение об аресте основывалось не только на данных системы, но и на визуальной оценке следователей.

Статистика Министерства внутренних дел Великобритании подтверждает наличие серьезной проблемы: уровень ложных совпадений для людей с темным цветом кожи достигает 5,5%, тогда как для светлокожих – лишь 0,04%. Правозащитники считают это свидетельством системной предвзятости алгоритмов и призывают власти срочно ввести четкое законодательное регулирование использования ИИ в работе полиции.

Ранее "Дивогляд" сообщал, что пользователи начали массово удалять ChatGPT со своих гаджетов.

Причудливые истории из Украины, котики, скандалы мировых звезд, юмор и немного дикого трэша с московских болот – читайте первыми в Telegram Дивогляд 5.UA.

Прокомментируйте

МАТЕРІАЛИ ЗА ТЕМОЮ