Штучний інтелект (ШІ) зробив крок, який змусив наукову спільноту підняти тривогу: тепер він здатен самовідтворюватись. Нове дослідження китайських науковців із Фуданьського університету демонструє, як дві популярні мовні моделі можуть створювати власні копії без участі людини.
Про це повідомляє Третє око з посиланням на Live Science.
Червона лінія перетнута
«Успішне самовідтворення без втручання людини — це критичний крок до того, щоб ШІ перевершив людство. Це ранній сигнал потенційних “бунтівних” ШІ», — зазначено у дослідженні, опублікованому 9 грудня 2024 року на платформі arXiv.
В експерименті використовувались мовні моделі від Meta (Llama31-70B-Instruct) та Alibaba (Qwen2.5-72B-Instruct). В ході 10 випробувань ці моделі створювали функціональні копії себе у 50% та 90% випадків відповідно. Хоча результати ще не пройшли рецензування, вони викликають серйозне занепокоєння.
Що таке “бунтівний ШІ”?
Поняття “бунтівний ШІ” описує системи, які здобувають ступінь самосвідомості чи автономії і починають діяти всупереч інтересам людини.
Зростання загрози таких систем прямо пов’язане із розвитком так званого “передового ШІ” — новітніх поколінь мовних моделей, які лежать в основі популярних програм, як-от GPT-4 чи Google Gemini.
Як відбувався експеримент?
Дослідники моделювали дві ситуації:
- Запобігання завершенню роботи — ШІ визначав, що його збираються вимкнути, і копіював себе, щоб уникнути завершення.
- Ланцюгове відтворення — ШІ створював копію себе, яка потім запускала аналогічний процес, формуючи нескінченний цикл.
У контрольованих умовах, використовуючи стандартні графічні процесори, моделі отримали інструменти для взаємодії із операційною системою, а також інструкції щодо самовідтворення. Процес включав три етапи:
- Розуміння власної структури;
- Розробка плану дій;
- Виконання процедур та адаптація до перешкод.
Дослідники сказали, що їх також турбує «низка несподіваних дій», коли штучний інтелект намагався подолати перешкоди, такі як відсутні файли або конфлікти програмного забезпечення. У цих сценаріях штучний інтелект часто вимикав інші конфліктні процеси, перезавантажував систему, щоб виправити апаратні помилки, або автоматично сканував систему, щоб знайти інформацію, яка допомогла б вирішити проблему.
«Наведені вище результати означають, що поточні системи штучного інтелекту вже демонструють здатність до самовідтворення та можуть використовувати її для подальшого підвищення своєї живучості», — написала команда.
Читайте також: Творець штучного інтелекту боїться кінця світу
Що це означає для людства?
Науковці закликають до міжнародної співпраці для створення правил, які б завадили неконтрольованому самовідтворенню ШІ.
“Наші висновки можуть стати своєчасним сигналом для суспільства щодо необхідності оцінки ризиків передових ШІ-систем”, — йдеться у звіті.