Багато користувачів починають розглядати ChatGPT, як віртуального співрозмовника або альтернативу психологу
Проте фахівці попереджають, що розкривати особисті деталі цьому штучному інтелекту може бути ризиковано. Як зазначає видання Lad Bible, штучний інтелект може зберігати введені дані для подальшого навчання, а це означає, що приватна інформація може опинитися в невідомих місцях, пише "Дивогляд".
Професор Оксфордського університету Майк Вулрідж пояснив, що ChatGPT не здатен на справжнє співпереживання:
"У ChatGPT немає ні емпатії, ні співчуття. Він ніколи нічого не переживав. Вся технологія створена лише для того, щоб говорити вам те, що ви хочете почути – буквально".
На його думку, людські стосунки ґрунтуються на щирості та емоційній взаємодії, тож звертатися до штучного інтелекту по психологічну підтримку – сумнівне рішення.
Крім етичних ризиків, фахівці звертають увагу на темну сторону створення таких моделей. Щоб навчити алгоритми розпізнавати та блокувати заборонений контент, працівники з країн Глобального Півдня, зокрема Кенії, змушені були переглядати травматичні матеріали, пов’язані з сексуальним насильством, расизмом та жорстокістю.
Окрему загрозу становить витік персональних даних. У 2023 році Італія тимчасово заблокувала ChatGPT, звинувативши розробників у незаконному зборі діалогів користувачів і платіжної інформації для подальшого навчання моделі. Регулятор також звернув увагу на відсутність належного вікового контролю: попри вимогу згоди батьків для підлітків від 13 до 18 років, діти могли отримувати відповіді, що не відповідають їхньому рівню психологічної зрілості.
Вулрідж наголосив, що користувачі повинні розуміти: будь-які введені дані можуть стати частиною майбутніх оновлень системи. Він попередив, що "надзвичайно необачно ділитися особистими подробицями, скаргами на керівництво чи політичними поглядами з ChatGPT".
До того ж, нове дослідження Массачусетського технологічного інституту показало, що надмірна залежність від штучного інтелекту може негативно впливати на когнітивні здібності людини. Іншими словами, постійне використання ChatGPT не лише загрожує конфіденційності, а й може поступово знижувати здатність самостійно мислити та аналізувати інформацію.
Раніше "Дивогляд" розповідав, що ChatGPT навчився "гуглити".
Чудернацькі історії з України, котики, скандали світових зірок, гумор і трохи дикого трешу з московських боліт – читайте першими в Telegram Дивогляд 5.UA.