Суперрозум вже поруч. В OpenAI шукають способи приборкати надлюдський штучний інтелект


Суперрозум вже поруч. В OpenAI шукають способи приборкати надлюдський штучний інтелект0

OpenAI занепокоєна перспективою появи ШІ, розумнішого за людину (Фото:Прес-служба Batteries agency)

OpenAI сформувала команду Superalignment для розробки способів керування надрозумними системами штучного інтелекту, які б, в теорії, мали здібності, що перевищували б людські.

В OpenAI передбачають, що поява суперінтелекту — не така вже далека перспектива. Тож команда Superalignment вже зараз намагається створити структуру управління та контролю, яка могла б застосовуватись для майбутніх потужних систем ШІ.

«Прогрес ШІ останнім часом був надзвичайно швидким, і я можу вас запевнити, що він не сповільнюється. Я думаю, що ми досягнемо систем людського рівня досить скоро. Але це не зупиниться на досягнутому — ми підемо прямо до надлюдських систем… Отже, як ми будемо вирівнювати надлюдські системи штучного інтелекту та робитимемо їх безпечними? Це справді проблема всього людства — можливо, найважливіша невирішена технічна проблема нашого часу», — зазначив член команди Superalignment Леопольд Ашенбреннер в коментарі TechCrunch,

Підхід, на якому зараз зупинилася команда, передбачає використання слабшої, менш складної моделі штучного інтелекту (наприклад, GPT-2) для того, аби направити більш просунуту, складну модель (GPT-4) у бажаному напрямку.

«Ми намагаємося сказати моделі, що робити, і переконатися, що вона це зробить. Як змусити модель виконувати інструкції та допомагати лише правдивим речам, а не вигадувати? Як змусити модель повідомити нам, чи є згенерований нею код безпечним чи це кричуща поведінка? Це типи завдань, які ми хочемо виконати за допомогою наших досліджень», — розповів Колін Бернс зі Superalignment.

Налаштована командою Superalignment слабка модель генерує мітки, які використовуються для «спілкування» з сильною моделлю. Враховуючи повідомлення від слабкої моделі, сильна модель може узагальнювати дані більш-менш правильно, відповідно до намірів слабкої моделі, стверджує команда.

Але ця система не ідеальна, тож OpenAI також прагне запустити грантову програму в розмірі 10 мільйонів доларів США для академічних лабораторій, некомерційних організацій, окремих дослідників і аспірантів. Презентувати результати роботи планують на конференції на початку 2025 року. Команда Superalignment запевнила, що інформація про цю роботу та отримувачів грантів від OpenAI за дослідження, пов’язані з приборканням ШІ, зрештою будуть оприлюднені.

Для досліджень команди Superalignment виділено значну кількість обчислювальних ресурсів OpenAI — близько 20% наявних комп’ютерних чипів. А очолює зусилля команди Superalignment, сформованої цього літа, співзасновник і головний науковий співробітник OpenAI Ілля Суцкевер. Як писав NV Техно, напередодні вийшов документальний фільм, у якому співзасновни Суцкевер публічно попередив, що технологія, яку створює його компанія, змінить світ і, можливо, в поганий бік. За його словами, у майбутньому ШІ ставитиметься до людей як до тварин.