OpenAI не може розрізнити створений ШІ та людиною текст

1 рік назад

OpenAI, розробник ChatGPT і GPT-4, зрозумів це деякий час тому. У січні компанія оприлюднила класифікатор для розрізнення тексту, написаного людиною, від тексту, написаного штучним інтелектом від різних моделей ШІ.

Болюче питання

Як відомо, ChatGPT, Google Bard та інші ШІ-сервіси можуть створювати переконливий і корисний текст. Це може спросити і пришвидшити написання коду, але й може спровокувати появу тексту з неточностями та фактичними помилками. Отже, створення інструменту для розрізнення того, що створено людиною та ШІ є одним із основних завданнь технологічної індустрії.

OpenAI зрозумів це буквально ж відразу після запуску ChatGPT. У січні компанія оприлюднила «класифікатор для розрізнення тексту, написаного людиною, від тексту, написаного штучним інтелектом від різних розробників».

OpenAI заявила, що так класифікатори важливі для вирішення багатьох проблемних ситуацій. Серед них – неправдиві твердження про те, що згенерований штучним інтелектом текст був написаний людиною, запуск автоматизованих кампаній дезінформації та використання інструментів штучного інтелекту для виконання домашніх чи тестових завданнь.

Але менш ніж через сім місяців проект було скасовано.

«Станом на 20 липня 2023 року класифікатор штучного інтелекту більше не доступний через його низьку точність», — написав OpenAI у нещодавньому блозі . «Ми працюємо над врахуванням відгуків і зараз досліджуємо ефективніші методи походження тексту».

Наслідки

Якщо OpenAI не може розрізнити написаний ШІ текст, то чи може хтось інший? Над цим завданням працюють і інші проєкти, закрема стартап GPTZero. Але OpenAI вважається найкращим у цій сфері.

Коли ми не можемо відрізнити ШІ від людського тексту, сприйняття онлайн-інформації стає більш проблематичним. Так, уже є спам-сайти, які створюють автоматичний вміст за допомогою нових моделей ШІ.

Але якщо технологічні компанії випадково використовуватимуть отримані штучним інтелектом дані для навчання нових моделей, деякі дослідники побоюються, що ці моделі погіршаться.

Група дослідників штучного інтелекту з передових університетів, включаючи Оксфорд і Кембридж вивчала, що відбувається, коли текст, створений моделлю штучного інтелекту в стилі GPT (наприклад, GPT-4), утворює більшу частину навчального набору даних для наступних моделей.

Побачивши, що може піти не так, автори  зробили цікавий прогноз.

«Це потрібно сприймати серйозно, якщо ми хочемо зберегти переваги навчання на основі великомасштабних даних, зібраних з Інтернету», — написали вони.«Дійсно, цінність зібраних даних про справжню взаємодію людини з системами буде зростати за наявності вмісту, створеного LLM, у даних, сканованих з Інтернету».

Неможливо розпочати вирішення цієї екзистенційної проблеми, якщо не зможемо визначити, людина чи машина написали щось онлайн. На електронний лист до OpenAI, з питанням про їхній невдалий класифікатор тексту штучного інтелекту та наслідки, зокрема про згортання моделі, компанія відповіла такою заявою: «Нам нема чого додати, крім оновлення, описаного в нашому  дописі в блозі ».

Разом з цим, нещодавно компанія OpenAI розпочала формування спеціальної команди для розробки способів управління та контролю «надрозумного» штучного інтелекту.

 

253
0
Дивіться також
Netpeak Group та Мінцифри запустили курс навчання з користування штучним інтелектом. Там викладатимуть технології написання текстів, створення картинок та вирішення завдань за ...
OpenAI випускає нову модель під назвою o1, першу в запланованій серії моделей штучного інтелекту здатних, до міркування» та ланцюжкового ...
OpenAI анонсував випуск свого наступного великого продукту: модель генеративного штучного інтелекту під кодовою назвою Strawberry, офіційна назва OpenAI ...