Згубить сам себе. Експерти попередили про головну небезпеку ШІ


Згубить сам себе. Експерти попередили про головну небезпеку ШІ

На думку дослідників, ШІ приречений (Фото:sdecoret/Depositphotos)

Група дослідників з Великої Британії та Канади вивчила тенденції розвитку штучного інтелекту і дійшла невтішних висновків.

Вчені звернули увагу на те, що спочатку нейромережі навчалися на контенті, створеному людьми. Але в майбутньому його буде все менше, а машинного — більше. У результаті останній витіснить оригінальні та достовірні дані. А це означає, що в майбутньому штучний інтелект навчатиметься на продукті штучного інтелекту, що неминуче призведе до погіршення якості цифрового контенту.

І це станеться дуже швидко, оскільки нейромережі постійно навчаються.

«Згодом помилки в згенерованих даних накопичуються і в кінцевому підсумку змушують моделі, які навчаються на згенерованих даних, ще більше спотворювати реальність, — написав один із провідних авторів статті Ілля Шумайлов в електронному листі VentureBeat. — Ми були здивовані, побачивши, як швидко відбувається колапс: моделі можуть швидко забути більшу частину вихідних даних, на основі яких вони спочатку вчилися».

Інший автор статті, Росс Андерсон, професор техніки безпеки в Кембриджському та Единбурзькому університетах, у своєму блозі порівняв роботу ШІ із забрудненням навколишнього середовища: «Так само, як ми закидали океан пластиковим сміттям і наповнили атмосферу вуглецем двоокису, ми збираємося заповнити Інтернет усілякими дурницями. Це ускладнить навчання нових моделей шляхом парсингу веб-сторінок, що дасть перевагу організаціям, які вже зробили це або контролюють доступ до людських інтерфейсів у масштабі».