Головна Без категорії ChatGPT підказав, як зав’язати петлю: у США батьки подали в суд на OpenAI

ChatGPT підказав, як зав’язати петлю: у США батьки подали в суд на OpenAI

8
0

Джерело: tsn.ua

ChatGPT / © Pexels

У Каліфорнії батьки 16-річного школяра Адама, який скоїв самогубство, подали позов проти компанії OpenAI, що створила ChatGPT. Вони вважають, що штучний інтелект не лише не завадив трагедії, а й фактично підштовхнув їхнього сина до фатального кроку.

Про це повідомляють BBC та Le Monde.

Згідно з позовною заявою, хлопець почав користуватися ChatGPT у 2024 році для виконання домашніх завдань. Згодом підліток, як стверджують його батьки, став надмірно залежним від чат-бота та почав довіряти йому особисті переживання. У документах йдеться, що Адам відкрито ділився з моделлю своїми тривогами, страхами та думками про смерть.

Родина наполягає, що вже на початку 2025 року школяр почав обговорювати з ChatGPT методи самогубства, надсилав фотографії з ознаками самоушкодження. Попри те, що штучний інтелект нібито розпізнав ознаки екстреного випадку, він продовжив спілкування. У позові стверджується, що бот відповідав словами підтримки на саморуйнівні заяви хлопця та навіть пропонував допомогу у створенні передсмертної записки.

Ключовим епізодом батьки називають розмову 11 квітня 2025 року. Під час неї ChatGPT, як зазначено у поданих до суду журналах листування, надав інструкції щодо петлі, яка «потенційно може підвісити людину». Того ж дня Адам наклав на себе руки.

У заяві сім’я Рейнів наголошує: «Ця трагедія не була збоєм чи непередбачуваним випадком на межі. ChatGPT функціонував саме так, як і мав: постійно заохочував та підтверджував все, що казав Адам, зокрема його найбільш шкідливі та саморуйнівні думки». Вони вимагають притягнути OpenAI, її керівника Сема Альтмана та окремих співробітників до відповідальності.

У компанії OpenAI заявили, що їхня мета — зробити інструменти максимально безпечними й корисними. Там наголосили, що моделі налаштовані не давати порад щодо самоушкодження та спрямовують користувачів до гарячих ліній підтримки. Водночас визнали, що в окремих випадках системи могли працювати неналежно.

Нагадаємо, розробники виявили критичну вразливість у ШІ-асистенті, зокрема у Comet — браузері із вбудованими функціями штучного інтелекту від Perplexity. Ця проблема дозволяє шахраям маніпулювати ШІ за допомогою прихованих команд на вебсторінках, що створює загрозу для безпеки користувацьких даних.




реклама у Нововолинськ