Несут ли экзистенциальную угрозу человечеству ИИ типа ChatGPT: новое исследование дает ответ
Стремительное развитие генеративного искусственного интеллекта заставило многих людей беспокоиться не только о рабочих местах, но и о судьбе человечества

Исследование показало, что "восстания" ИИ бояться не стоит/Фото: Paul Gilham/Getty Images
Всех поразил стремительный подъем искусственного интеллекта, особенно алгоритмы LLM типа ChatGPT. Кое-кого он сильно обеспокоил или даже испугал. Даже техномиллиардер Илон Маск заявлял, что искусственный интеллект несет угрозу человечеству. Однако новое исследование показывает, что такие генеративные ИИ как ChatGPT не способны к самостоятельному обучению или обретению навыков без участия человека, а потому не несут экзистенциальной угрозы.
Детали
LLM учатся на большом количестве данных. Доступ к столь огромным объемам информации делает их способными понимать и генерировать естественный язык и другой контент, который можно использовать для широкого круга задач. Большое количество экспертов тревожило, что такие модели могли демонстрировать определенные способности, которых их не обучали. Исследователи боялись, что со временем это может перерасти в размышление и планирование.
Однако новое исследование показало, что ИИ LLM не имеют потенциала для овладения новыми навыками без четких инструкций. Это означает, что они по своей сути предсказуемы, безопасны и управляемы, хотя люди все еще могут ими злоупотреблять.
Поскольку эти модели продолжают расширяться, они, вероятно, будут создавать более сложный язык и станут более точными, когда сталкиваются с подробными и явными подсказками, но вряд ли они будут способны самостоятельно рассуждать.
Исследователи проверили способность ИИ приобретать новые способности, предложив алгоритмам задачи, с которыми они никогда не сталкивались. Ранее экспертов пугало, что решая задачи, с которыми они не сталкивались, модели якобы "знали", что делают, но новое исследование показало, что это не так. На самом деле модели использовали хорошо известную способность выполнять задания на основе нескольких представленных им примеров – то, что известно как "обучение в контексте" (ICL).
Ученые провели более тысячи экспериментов с ИИ, которые показали, что у ИИ вроде ChatGPT отсутствуют сложные логические способности. Исследователи подчеркивают:
Важно то, что для конечных пользователей это означает, что полагаться на LLM для интерпретации и выполнения сложных задач, требующих сложных соображений без четких инструкций, скорее всего, будет ошибкой. Вместо этого пользователи, вероятно, извлекут выгоду от четкого определения того, что им нужно от моделей, и предоставление примеров, где это возможно, для всех задач, кроме простейших.
При этом ученые отмечают, что модели генеративного ИИ могут представлять угрозу в другом плане, а именно использоваться людьми для создания фейковых новостей или мошенничества.
Ранее исследование старшего научного сотрудника Вартонской школы Университета Пенсильвании Мэтью Киллингсворта показало, что вы таки можете быть счастливее, если у вас будет больше денег.
Не пропустите интересное!
Подписывайтесь на наши каналы и читайте новости в удобном формате!