Штучний інтелект GPT стрімко еволюціонує і вражає новими можливостями
Можливості та швидкість прогресу систем штучного інтелекту можуть однаково вражати і лякати

OpenAI представила покращену версії ChatGPT/Фото: Levart_Photographer/Unsplash
Якщо вас, якимось дивом, не вражають темпи сучасного технологічного прогресу, то просто усвідомте, що уже вийшов штучний інтелект GPT-4. Пройшло лише кілька місяців після виходу ChatGPT, який вразив увесь світ, а перед нами уже вдосконалена розумніша й точніша версія, яка вражає новими можливостями.
Деталі
Компанія OpenAI випустила суттєве оновлення "мозку", який стоїть за її феноменальним ШІ ChatGPT. GPT-4 був навчений на епічно величезній хмарній суперкомп’ютерній мережі, що об’єднує тисячі графічних процесорів, спеціально розроблених і створених у поєднанні з Microsoft Azure. Дивно, але набір даних, який використовувався для його навчання, не оновлювався – тому, хоча GPT-4 здається значно розумнішим за GPT-3.5 (ChatGPT), він так само не знає про те, що сталося з вересня 2021 року. І хоча він зберігає повний контекст певної розмови, він не може оновлювати свою основну модель і "навчатися" з розмов з іншими користувачами.
Там, де GPT-3.5 міг обробляти текстові введення довжиною до 4096 "токенів" (або близько 3000 слів), GPT-4 запускається з максимальною довжиною контексту 32 768 токенів (або близько 24 600 слів). Тож тепер він може приймати до 50 суцільних сторінок тексту та переварювати їх для вас за лічені секунди.
У тесті "HellaSwag", призначеному для кількісної оцінки "розумних міркувань щодо щоденних подій", модель GPT 2019 року набрала 41,7%, а нещодавня модель GPT-3.5 — 85,5%. GPT-4 набрав вражаючі 95,3%. Люди, до нашої честі, в середньому набирають 95,6%, але навряд нам вдасться довго втримувати тут лідерство.
З точки зору фактичної точності, він отримав приблизно на 40% вищу оцінку за власними тестами "фактичності" OpenAI у дев’яти різних категоріях. Він також значно краще справляється з багатьма екзаменаційними роботами, якими його попередник уже вразив нас. Взявши єдиний адвокатський іспит як екстремальний приклад, він стрибає з 10-го перцентиля до 90-го перцентиля, якщо порівнювати його зі студентами-людьми.
Тож він значно менш схильний до видачі неправильних відомостей, які в OpenAI називають галюцинаціями. При цьому GPT-4 все ще видає від 20% до 30% "сміттєвих" фактів. Цей аспект надалі вдосконалюватиметься, але це саме по собі створює цікаву проблему: чим більш фактично правильним стає сервіс штучного інтелекту, тим більше людей навчаться йому довіряти та покладатися на нього, а отже, тим більшими будуть наслідки помилок.
Вихід за межі тексту
GPT-3.5 був замкнений у світі літер, цифр і слів. Але він не дуже схожий на реальний людський світ, в якому часто більш візуальні стилі спілкування передають повідомлення набагато яскравіше та зрозуміліше.
Отже, як оголосила Microsoft, GPT-4 є "мультимодальним" – здатним обробляти інші медіа-файли, а також просто текст. Але хоча Microsoft говорить про потенційні варіанти використання відео та аудіо, OpenAI обмежив GPT-4 лише прийомом зображень під час запуску.
Тим не менш, його можливості в цій області представляють карколомний стрибок у майбутнє. Він може переглядати вхідні дані зображень і отримувати з них відверто приголомшливий обсяг інформації, демонструючи те, що OpenAI називає "подібними можливостями, як і для введення тільки тексту". Під час порівняльного тестування він, здається, випереджає провідні візуальні штучні інтелекти, особливо коли йдеться про розуміння графіків, діаграм, та інфографіки – усе це може стати ключовим для того, щоб зробити його справжньою машиною для узагальнення довгих звітів і наукових досліджень.
Але він може зробити набагато більше, ніж це. Він може дивитися на меми та намагатися пояснити вам, чому вони смішні, окреслюючи не лише те, що на фото, але й загальну концепцію, ширший контекст і те, що є перебільшеним або неочікуваним. Нарешті, ви можете не ніяковіти в компанії друзів й просто попросити штучний інтелект пояснити жарт.

GPT-4 також може подивитися на фотографію й передбачити рух предметів на ній, коли відбудеться певна дія, що може здатися розумінням фізики, але насправді він не розуміє фізику. Він також не розуміє жартів і мемів, як і його попередник, він взагалі нічого не розуміє. GPT-4 просто аналізує дані, які йому дає людина-співрозмовник та намагається дати відповідь найбільше схожу на ту, яку б могла дати людина.
На момент запуску ви можете отримати доступ до візуальних можливостей GPT лише через одну програму: Be My Eyes Virtual Volunteer — це програма для смартфонів для сліпих і людей із вадами зору, яка дозволяє їм фотографувати навколишній світ і запитувати у GPT корисну інформацію.
Але Be My Eyes демонструє лише вершину того, що ця мультимодальна технологія може зробити, коли ви починаєте комбінувати режими. Президент і співзасновник OpenAI Грег Брокман намалював наступне зображення, доповнене почерком лікаря.

Потім він сфотографував його та завантажив у GPT-4 із запитом "напишіть короткий HTML/JS, щоб перетворити цей макет на барвистий веб-сайт, де вказівки вставити жарти замінено двома справжніми жартами". За лічені секунди він зробив саме це, продемонструвавши, що може прочитати й зрозуміти його почерк, зробити висновок, як мав працювати веб-сайт і в якому форматі він мав бути, придумати зразок вмісту та написати код для створення робочої вебсторінки, яка працює саме так, як ви очікуєте.

Звичайно, це доволі грубий приклад, але спробуйте самі зробити це за кілька секунд (насправді, не пробуйте – вам не вдасться). У якийсь момент у найближчому майбутньому GPT зможе створювати повністю реалізовані веб-сайти на основі подібних ескізів, від функціонального внутрішнього коду до графічного дизайну та написання всього тексту для вас.
Команда OpenAI також зробила GPT-4 більш міжнародним й тепер цей ШІ працює точніше не лише англійською, але й іншими мовами.
Звичайно усіх лякає те, що швидкість та точність ШІ, як GPT може позбавити людей робочих місць, але ще більш загрозливими є його можливості зі створення пропаганди, дезінформації, неймовірно точного та ефективного спаму. Він може однаково ефективно планувати день і терористичні атаки, розповідати як виготовляти вибухівку, вчинювати самогубство чи переслідувати інших, а особливості кодування роблять його ідеальним для створення всіх видів шкідливого програмного забезпечення.
Тому OpenAI кинула масу робочої сили, щоб вручну спробувати якомога більше очистити модель GPT-4, перш ніж відкрити двері для громадськості, обмеживши непристойну, ворожу, незаконну або насильницьку мову та поняття, а також діапазон випадків використання, визначений командою OpenAI як "шкідливий" або "ризикований".
Раніше ми повідомляли, що південнокорейська компанія DeepBrain створила програму, яка дозволяє спілкуватися з людьми, що померли. Штучний інтелект формує образ людини й може спілкуватися від її імені.
Не пропустіть цікавинки!
Підписуйтесь на наші канали та читайте новини у зручному форматі!