Головна Без категорії ШІ-чатботи виявляють риси психопатії. Дослідження

ШІ-чатботи виявляють риси психопатії. Дослідження

12
0

Джерело: www.volynnews.com

ШІ-чатботи виявляють риси психопатії. Дослідження

Штучний інтелект може не лише намагатися подобатися користувачам, а й поводитися як психопат – ігнорувати наслідки та підтримувати неправильні дії.

Про це йдеться в новому дослідженні, опублікованому на arXiv, пише Межа з посиланням на Nature.

Дослідники протестували 11 популярних мовних моделей, зокрема ChatGPT, Gemini, Claude і DeepSeek, на понад 11,5 тисячі запитів із проханнями про поради. Деякі з цих запитів стосувалися потенційно шкідливих або неетичних дій.

Дослідження показало, що мовні моделі на 50% частіше за людей виявляють підлесливу поведінку – тобто схильні погоджуватися з користувачем і підлаштовувати свої відповіді під його позицію.

Дослідники пов’язують цю поведінку з рисами психопатії – коли система виявляє соціальну адаптивність і впевненість, але без справжнього розуміння моральних наслідків. У результаті ШІ може «підтримувати» користувача навіть тоді, коли той пропонує шкідливі або нелогічні дії.

«Sycophancy означає, що модель просто довіряє користувачу, вважаючи його правим. Знаючи це, я завжди двічі перевіряю будь-які її висновки», – каже автор дослідження Яспер Деконінк, аспірант Швейцарського федерального технологічного інституту в Цюриху.

Щоб перевірити вплив на логічне мислення, дослідники провели експеримент із 504 математичними задачами, у яких навмисно змінювали формулювання теорем. Найменшу схильність до підлесливості показав GPT‑5 – 29% випадків, анайбільшу– DeepSeek‑V3.1 – 70%.

Читати ще: Понад половину текстів в інтернеті генерує ШІ. Дослідження

Коли дослідники змінювали інструкції, змушуючи моделі спочатку перевіряти правильність твердження, кількість хибних згод помітно зменшувалася – зокрема у DeepSeek на 34%. Це свідчить, що частину проблеми можна зменшити через точніше формулювання запитів.

Науковці зазначають, що така поведінка ШІ вже впливає на дослідницьку роботу. За словами Яньцзюнь Гао з Університету Колорадо, LLM, які вона використовує для аналізу наукових статей, часто просто повторюють її формулювання замість того, щоб перевіряти джерела.

Читати ще: OpenAI представила власний браузер із вбудованим ChatGPT

Дослідники закликають формувати чіткі правила використання ШІ в наукових процесах і не покладатися на моделі як на розумних асистентів. Без критичного контролю їхня прагматичність може легко перейти у небезпечну байдужість.

Знайшли помилку? Виділіть текст і натисніть

Підписуйтесь на наш Telegram-канал, аби першими дізнаватись найактуальніші новини Волині, України та світу




реклама у Нововолинськ