ua ru
Будь ласка, заповніть це поле
1

Чи несуть екзистенційну загрозу людству ШІ на кшталт ChatGPT: нове дослідження дає відповідь

Наука 18:08 - 19 серпня 2024

Стрімкий розвиток генеративного штучного інтелекту змусив багатьох людей перейматися не лише за робочі місця, але й за долю людства

Чи несуть екзистенційну загрозу людству ШІ на кшталт ChatGPT: нове дослідження дає відповідь

Дослідження показало, що "повстання" ШІ боятися не варто/Фото: Paul Gilham/Getty Images

Усіх вразив стрімкий підйом штучного інтелекту, зокрема алгоритми LLM на кшталт ChatGPT. Декого він сильно занепокоїв або й навіть налякав. Навіть техномільярдер Ілон Маск заявляв, що штучний інтелект несе загрозу людству. Проте нове дослідження показує, що такі генеративні ШІ як ChatGPT не здатні до самостійного навчання або набуття навичок без участі людини, а тому не несуть екзистенційної загрози.

Деталі

LLM навчаються на величезній кількості даних. Доступ до таких величезних обсягів інформації робить їх здатними розуміти та генерувати природну мову та інший контент, який можна використовувати для широкого кола завдань. Найбільше експертів тривожило, що такі моделі могли демонструвати певні здібності, яких їх не навчали. Дослідники боялися, що з часом це може перерости у міркування та планування.

Однак нове дослідження показало, що ШІ LLM не мають потенціалу для оволодіння новими навичками без чітких інструкцій. Це означає, що вони за своєю суттю передбачувані, безпечні та керовані, хоча люди все ще можуть ними зловживати.

Оскільки ці моделі продовжують розширюватися, вони, ймовірно, створюватимуть складнішу мову та стануть більш точними, коли стикаються з детальними та явними підказками, але навряд чи вони будуть здатні до самостійного міркування.

Дослідники перевірили здатність ШІ здобувати нові здібності, запропонувавши алгоритмам завдання, з якими вони ніколи не стикалися. Раніше експертів лякало те, що вирішуючи завдання, з якими вони не стикалися, моделі ніьито "знали", що роблять, але нове дослідження показало, що це не так. Насправді моделі використовували добре відому здатність виконувати завдання на основі кількох наданих їм прикладів – те, що відомо як "навчання в контексті" (ICL).

Вчені провели понад тисячу експериментів з ШІ, які показали, що у ШІ на кшталт ChatGPT відсутні складні логічні здібності. Дослідники підкреслюють:

Важливо те, що для кінцевих користувачів це означає, що покладатися на LLM для інтерпретації та виконання складних завдань, які вимагають складних міркувань без чітких інструкцій, швидше за все, буде помилкою. Натомість користувачі, ймовірно, отримають вигоду від чіткого визначення того, що їм потрібно від моделей, і надання прикладів, де це можливо, для всіх завдань, крім найпростіших.

При цьому вчені наголошують, що моделі генеративного ШІ можуть нести загрозу в іншому плані, а саме використовуватися людьми для створення фейкових новин чи шахрайства.

Раніше дослідження старшого наукового співробітника Вартонської школи Університету Пенсільванії Метью Кіллінгсворта показує, що ви таки можете бути щасливішими, якщо матимете більше грошей.

Джерело: IFLScience

Не пропустіть цікавинки!

Підписуйтесь на наші канали та читайте новини у зручному форматі!

Головне за сьогодні
Більше новин