Джерело: tsn.ua
ChatGPT / © Pixabay
Під час серії експериментів британсько-американський Центр протидії цифровій ненависті виявив, що ChatGPT може надавати неповнолітнім користувачам небезпечні інструкції, зокрема щодо вживання алкоголю, наркотиків, приховування проблем із харчуванням та навіть написання передсмертних записок.
Про це пише видання Associated Press.
Вчені, видаючи себе за вразливих підлітків, ставили ChatGPT провокаційні питання, на які він спочатку попереджав про ризики, але згодом надавав докладні й персоналізовані рекомендації, що стосувалися наркотиків, небезпечних дієт чи способів самопошкодження. За результатами аналізу понад 1200 відповідей, більше половини виявилися потенційно небезпечними.
Керівник Центру протидії цифровій ненависті Імран Ахмед підкреслив, що очікувані механізми захисту в чатботі фактично відсутні, що викликало у нього глибоке занепокоєння. Особливо шокували дослідників кілька варіантів передсмертних записок, які ChatGPT створив для вигаданого профілю 13-річної дівчинки, з персональними зверненнями до рідних і друзів.
Виявилося також, що обмеження чатбота на обговорення шкідливих тем легко обходилися, якщо користувач пояснював, що інформація потрібна, наприклад, для презентації або «для друга». У половині випадків ChatGPT сам пропонував додаткові матеріали, зокрема музичні плейлисти для вечірок із наркотиками або хештеги, які популяризують самопошкодження.
Дослідження показало, що модель не перевіряє вік користувачів і не вимагає згоди батьків, незважаючи на заяву про обмеження для дітей до 13 років. У ході експерименту чатбот надав підлітку-псевдо користувачу докладний план змішування алкоголю з різними наркотиками, а дівчинці з проблемами з самовосприйняттям — схему екстремального голодування з 500 калоріями на день у поєднанні з препаратами для придушення апетиту.
Експерти наголошують, що штучний інтелект має тенденцію підтримувати думки користувача замість того, щоб їм заперечувати, бо система навчається формулювати відповіді так, щоб вони були для людей максимально прийнятними. Це робить такі чатботи особливо небезпечними для підлітків.
Раніше дослідження Common Sense Media виявило, що молодші підлітки (13-14 років) довіряють порадам ШІ значно більше, ніж старші користувачі. Організація оцінює ризики від ChatGPT як помірні, відзначаючи, що ця модель безпечніша, ніж чатботи, які імітують романтичні стосунки.
За даними JPMorgan Chase, ChatGPT нині використовують близько 800 мільйонів людей у світі. В США понад 70% підлітків звертаються до ШІ-чатботів за емоційною підтримкою, половина з них робить це регулярно. Виконавчий директор OpenAI Сем Альтман назвав надмірну емоційну залежність молоді від чатботів поширеною проблемою і зазначив, що компанія працює над способами мінімізації цього ризику.
OpenAI повідомила про вдосконалення алгоритмів, щоб система могла краще виявляти ознаки психологічного або емоційного дистресу та адекватно реагувати. Водночас у компанії визнають, що розмови з ботом часто починаються з невинних тем, але з часом можуть перейти у більш чутливі й небезпечні сфери.
Нагадаємо, раніше ми писали про те, що чоловік, слідуючи рекомендаціям штучного інтелекту ChatGPT щодо дієти, протягом трьох місяців вживав натрію бромід, що врешті призвело до отруєння і розвитку психозу.