Джерело: www.unian.ua
Поки ми користуємося ШІ-інструментами на кшталт ChatGPT і Google Gemini для базових завдань, великі технологічні компанії працюють над чимось більш амбітним.
Різниця між AI, AGI та ASIУсі ці терміни звучать схоже, але позначають абсолютно різні рівні можливостей.
- AI (вузький штучний інтелект): виконує конкретні завдання, наприклад, генерацію тексту або фотографій і потребує людського втручання.
- AGI (штучний загальний інтелект): машини зможуть мислити, вчитися, ухвалювати рішення і вирішувати проблеми без спеціальної підготовки для кожного завдання.
- ASI (штучний суперінтелект): виходить за межі людських можливостей, ухвалюватиме рішення самостійно і вдосконалюватиметься без участі людини.
Що саме являє собою штучний суперінтелектСуперінтелект – це гіпотетична система, що перевершує людський інтелект у всьому. Від написання коду та генерації відео до проведення складних хірургічних операцій і водіння автомобілів, вона робитиме все одночасно, чого не вистачає сучасним системам ШІ.
Філософ Нік Бостром, який популяризував термін, визначає суперінтелект як “будь-який інтелект, що значно перевершує людські когнітивні здібності людини практично у всіх галузях, які нас цікавлять”.
Сучасні системи ШІ потребують людей для їхнього вдосконалення: інженери працюють над кодом, “згодовуючи” моделям величезні обсяги даних для поліпшення їхніх відповідей. Суперінтелект, з іншого боку, може вдосконалюватися сам. Теоретично він міг би переписувати власні алгоритми, конструктивні рішення і системи управління без інструкцій.
Коли з’явиться ASI і чи варто нам його боятисяСем Альтман та Ілон Маск прогнозують появу “надінтелекту” до 2030 року / фото – Reuters, TechCrunchТочної впевненості, що надінтелект можливий, немає. Однак, якщо машини стануть розумнішими за людей і зможуть самостійно розвиватися, AI може вийти з-під контролю, якщо не бути обережним. Деякі експерти пророкують появу суперінтелект протягом десятиліття, а інвестори вливають мільярди доларів у компанії, які прагнуть його створити.
У 2023 році співзасновники OpenAI Грег Брокман та Ілля Суцкевер, а також гендиректор Сем Альтман закликали до створення міжнародного регулятора, щоб суперінтелект не захопив людство. Цікаво, що 2024 року Суцкевер залишив OpenAI і заснував стартап, орієнтований на створення безпечного суперінтелекту.
Хоча вважається, що люди зможуть досягти більшого і розв’язувати складні завдання за допомогою суперінтелекту, бо він може стати останнім винаходом, який потрібно буде зробити людині, ризики перевищують можливі плюси.
- Загроза робочим місцям: AI вже замінює людей у багатьох професіях, а ASI може призвести до зникнення цілих галузей.
- Екзистенціальні ризики: якщо машини почнуть мислити самостійно і керувати системами, це може загрожувати людству – від загроз національній безпеці до потенційного вимирання.
У жовтні 2025 року понад 850 експертів зі штучного інтелекту, включно зі Стівом Возняком, Демісом Гассабісом, Даріо Амодеєю, Геофрі Гінтоном і Йошуа Бенджіо, підписали відкриту заяву із закликом зупинити розробку надінтелекту, поки не буде гарантій його безпечного впровадження.
А глава OpenAI Сем Альтман нещодавно виступив із заявою, що ШІ замінить “не справжню роботу”. Нова технологія покаже, які види насправді насправді створюють цінність, а які – лише імітують працю. Заява Альтмана викликала критику і жваві суперечки в мережі.
Вас також можуть зацікавити новини:
- ШІ не виправдав очікувань: компанії почали повертати раніше звільнених співробітників
- 3 звички, які повільно вбивають ваш телевізор – і ви про це навіть не знаєте
- Вчені склали топ найбільш емпатичних ШІ: хто виявився небезпечним для психічно нездорових людей













