ГоловнаНовиниНовиниOpenAI не може розрізнити створений ШІ та людиною текст

OpenAI не може розрізнити створений ШІ та людиною текст

9 місяців назад

OpenAI, розробник ChatGPT і GPT-4, зрозумів це деякий час тому. У січні компанія оприлюднила класифікатор для розрізнення тексту, написаного людиною, від тексту, написаного штучним інтелектом від різних моделей ШІ.

Болюче питання

Як відомо, ChatGPT, Google Bard та інші ШІ-сервіси можуть створювати переконливий і корисний текст. Це може спросити і пришвидшити написання коду, але й може спровокувати появу тексту з неточностями та фактичними помилками. Отже, створення інструменту для розрізнення того, що створено людиною та ШІ є одним із основних завданнь технологічної індустрії.

OpenAI зрозумів це буквально ж відразу після запуску ChatGPT. У січні компанія оприлюднила «класифікатор для розрізнення тексту, написаного людиною, від тексту, написаного штучним інтелектом від різних розробників».

OpenAI заявила, що так класифікатори важливі для вирішення багатьох проблемних ситуацій. Серед них – неправдиві твердження про те, що згенерований штучним інтелектом текст був написаний людиною, запуск автоматизованих кампаній дезінформації та використання інструментів штучного інтелекту для виконання домашніх чи тестових завданнь.

Але менш ніж через сім місяців проект було скасовано.

«Станом на 20 липня 2023 року класифікатор штучного інтелекту більше не доступний через його низьку точність», — написав OpenAI у нещодавньому блозі . «Ми працюємо над врахуванням відгуків і зараз досліджуємо ефективніші методи походження тексту».

Наслідки

Якщо OpenAI не може розрізнити написаний ШІ текст, то чи може хтось інший? Над цим завданням працюють і інші проєкти, закрема стартап GPTZero. Але OpenAI вважається найкращим у цій сфері.

Коли ми не можемо відрізнити ШІ від людського тексту, сприйняття онлайн-інформації стає більш проблематичним. Так, уже є спам-сайти, які створюють автоматичний вміст за допомогою нових моделей ШІ.

Але якщо технологічні компанії випадково використовуватимуть отримані штучним інтелектом дані для навчання нових моделей, деякі дослідники побоюються, що ці моделі погіршаться.

Група дослідників штучного інтелекту з передових університетів, включаючи Оксфорд і Кембридж вивчала, що відбувається, коли текст, створений моделлю штучного інтелекту в стилі GPT (наприклад, GPT-4), утворює більшу частину навчального набору даних для наступних моделей.

Побачивши, що може піти не так, автори  зробили цікавий прогноз.

«Це потрібно сприймати серйозно, якщо ми хочемо зберегти переваги навчання на основі великомасштабних даних, зібраних з Інтернету», — написали вони.«Дійсно, цінність зібраних даних про справжню взаємодію людини з системами буде зростати за наявності вмісту, створеного LLM, у даних, сканованих з Інтернету».

Неможливо розпочати вирішення цієї екзистенційної проблеми, якщо не зможемо визначити, людина чи машина написали щось онлайн. На електронний лист до OpenAI, з питанням про їхній невдалий класифікатор тексту штучного інтелекту та наслідки, зокрема про згортання моделі, компанія відповіла такою заявою: «Нам нема чого додати, крім оновлення, описаного в нашому  дописі в блозі ».

Разом з цим, нещодавно компанія OpenAI розпочала формування спеціальної команди для розробки способів управління та контролю «надрозумного» штучного інтелекту.

 

182
0
Дивіться також
[embed]https://www.youtube.com/watch?v=sDcmqLkNWTI[/embed] За даними дослідження UNESCO, майже 56% користувачів інтернету застосовують соціальні мережі, щоби бути в курсі подій. Згідно з ...
На щорічній конференції Google I/O запропонував кілька нових інструментів на базі штучного інтелекту, зокрема генерацію відео, особистого помічника, платформу для синтезу ...
OpenAI  анонсували оновлення ChatGPT. Презентація на офіційному сайті компанії OpenAI продемонструвала оновлення продукту, серед яких —  пошук інформації ...