Джеффрі Хінтон, відомий як один творців штучного інтелекту, отримав Нобелівську премію за створення технології, яка, на його думку, може нести загрозу кінця світу.
Про це пише Popular Science.
Хінтон разом з колегою Джоном Хопфілдом були нагороджені Нобелівською премією з фізики у вівторок за їхній ранній внесок у розвиток штучних нейронних мереж, які стали основою для потужних моделей штучного інтелекту, розроблених компаніями на кшталт Google та OpenAI. Їхня робота, натхненна архітектурою людського мозку, проклала шлях до прогресу в області машинного навчання, яке нині застосовується у широкому спектрі сфер, від виявлення шахрайства до розробки безпілотних автомобілів.
Хінтон вважає, що технологія, яку він допоміг створити, може представляти серйозну загрозу для людської безпеки.
Мозок людини — як приклад мозку машини
У 1970-1980-х роках Хопфілд та Хінтон проводили дослідження, коли ще не було ясно, до чого може призвести ця технологія. Ніхто не міг передбачити, що штучний інтелект стане настільки розвиненою та впливовою галуззю.
Хопфілд став відомим завдяки тому, що він об’єднав знання з фізики, біології та нейронауки для створення “мережі Хопфілда”, яка може зберігати і відтворювати патерни з даних. Хінтон розвинув цю концепцію, створивши “машину Больцмана”, яка виявляє патерни у великих наборах даних. Ці відкриття стали ключовими для розвитку машин, здатних класифікувати зображення, і використовуються в сучасних моделях штучного інтелекту для швидкого навчання на основі зображень і патернів, збережених у великих даних.
Читайте також: Штучний інтелект виявляє досі невідомі закономірності у математиці
Знання про нейронні мережі та розуміння процесів у людському мозку стали основою для розробки великих мовних моделей, таких як ChatGPT, і систем розпізнавання зображень, які зараз використовуються від діагностики раку до ідентифікації осіб. За свою роботу в області нейронних мереж Хінтон та його колеги раніше отримали Премію Тюрінга.
У заяві Нобелівського комітету йдеться, що робота Хопфілда і Хінтона відкрила нові «способи використання комп’ютерів» для вирішення складних суспільних проблем.
Завдяки їхній роботі людство тепер має новий інструмент у своєму арсеналі, який ми можемо використовувати для добрих цілей. Машинне навчання, засноване на штучних нейронних мережах, революціонізує науку, техніку і повсякденне життя.
Заява Нобелівського комітету
Тривога доктора Хінтона
Хінтон, який раніше висловлював побоювання щодо розвитку штучного інтелекту, покинув свою посаду в Google, щоб мати можливість вільно критикувати індустрію, яку він допоміг розвинути.
75-річний дослідник спочатку був переконаний, що прогрес компаній, таких як Google, Microsoft та OpenAI, принесе нові потужні методи створення мови, але не на рівні людських можливостей. Однак, минулого року він почав турбуватися через технологічний прогрес цих компаній. Тепер він ставиться до технології більш оптимістично, але все ще підкреслює потенційні ризики.
Читайте також: Штучний інтелект створює альтернативну фізику
«Це чудово у багатьох випадках, — говорить Хінтон в інтерв’ю Post. — Це означатиме величезне підвищення продуктивності. Але ми також маємо турбуватися про низку можливих поганих наслідків… Я стурбований тим, що загальним наслідком цього може стати те, що системи, розумніші за нас, врешті усе візьмуть під свій контроль».
У нас немає досвіду того, як це — мати речі, розумніші за нас.
Джеффрі Хінтон
«В ідею про те, що ці штуки можуть стати розумнішими за людей, — сказав Хінтон в інтерв’ю The New York Times у 2023 році, — мало хто вірив. Більшість людей вважали, що це дуже далека перспектива. І я думав, що це дуже далека перспектива. Я думав, що це станеться через 30-50 років, а то й пізніше. Очевидно, що тепер я більше так не думаю».
Хінтон зазначив, що на відміну від ядерної зброї, неможливо визначити, чи компанії або країни таємно розробляють цю технологію. Найкраща надія – це співпраця провідних вчених світу над методами контролю над нею.
Тим не менш, наукова спільнота належним чином відзначила внесок вченого, чия робота дала нам сучасний штучний інтелект.