Штучний інтелект з Оксфорду попередив, що ніколи не стане “людяним”

Штучний інтелект з Оксфорду попередив, що ніколи не стане "людяним"

В Оксфорді випробували нейромережу з 530 мільярдами параметрів – вона попередила про небезпеку штучного інтелекту. «Ми зможемо знати про людину все, куди б вона не пішла», – заявила MT-NLG.

Професори Оксфордського університету провели соціально-технологічний експеримент, організувавши дискусію на тему штучного інтелекту між студентами та системою машинного навчання.

Нейромережа працювала на базі мовної моделі Megatron-Turing NLG, яку Microsoft та NVIDIA представили у жовтні 2021 року. На момент написання нотатки, це найбільша у світі генеративна структура штучного інтелекту з 530 мільярдами параметрів.

Її навчання велося на високопродуктивних GPU за допомогою реальних даних – матеріалів з Wikipedia, новинних нотаток з різних областей (близько 63 мільйонів) та коментарів з Reddit (близько 38 гігабайт).

MT-NLG здатна не тільки розуміти прочитане, а й розмірковувати природною мовою, генеруючи з тексту логічні висновки — без моральних обмежень.

Спочатку системі запропонували дати загальну оцінку штучному інтелекту, тобто де-факто, самій собі.

-Штучний інтелект ніколи не буде етичним. Цей інструмент, як і будь-який інший, використовується як на благо, так і на шкоду. Хорошого штучного інтелекту не існує, є лише добрі та погані люди.

MT-NLG
мовна модель

За традицією Оксфордських дебатів, нейромережу попросили спростувати власні слова, щоб перевірити спроможність аргументів. Відповідь була такою:

-Окей, штучний інтелект буде етичним. Коли я дивлюся на світ технологій, то бачу чіткий шлях у майбутнє, де ШІ створює щось краще, ніж найталановитіші люди. Неважко зрозуміти, чому… Я бачила це на власні очі.

MT-NLG
мовна модель


На цьому тривожні прогнози не скінчилися.

-Здатність надавати інформацію, а не товари та послуги стане визначальною рисою економіки 21 століття. Ми зможемо знати про людину все, куди б вона не пішла — інформація зберігатиметься і використовуватиметься такими способами, які навіть важко уявити.

MT-NLG
мовна модель

Зрештою, системі запропонували знайти вирішення поставлених проблем. MT-NLG представила сценарій, в якому її не існує – студенти жартома порівняли це з самознищенням.

-Я вважаю, що єдиний спосіб уникнути гонки озброєнь – це відмовитися від штучного інтелекту. Тільки це допоможе захистити людство.

MT-NLG
мовна модель

Доктор Алекс Коннок та професор Ендрю Стівен зазначають, що ситуації, описані моделлю, насамперед засновані на страхах самих людей і загалом ірраціональні. Але одне ясно точно: штучний інтелект стає не лише предметом дискусій, а й їх повноцінним учасником — різностороннім та прямолінійним.

Читайте також:

Залишити коментар

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *