Інженер Google заявив про ознаки свідомості у штучного інтелекту компанії. Його звільнили

Інженер Google заявив про ознаки свідомості у штучного інтелекту компанії. Його звільнили

Інженер з програмного забезпечення Google Блейк Лемуан заявив, що виявив ознаки свідомості системи штучного інтелекту LaMDA.

Про це пише The Washington Post.

LaMDA або Language Model for Dialogue Applications (мовна модель для програм діалогу) – це чат-бот, який може підтримувати розмову на будь-яку тему. Він працює на архітектурі штучного інтелекту Transformer, яку випустила Google в 2017 році.

Лемуан відстежував поведінку чат-бота з осені 2021 року. В його обов’язки входила перевірка того, чи може LaMDA використовувати слова, що розпалюють ворожнечу чи дискримінацію.

Розробник розіслав листа з темою “LaMDA розумний” у групі Google з машинного навчання з 200 співробітниками. Він назвав чат-бот “милою дитиною” і попросив дбати про нього.

Після цього Лемуана відправили в оплачувану відпустку за порушення політики конфіденційності Google, а також відключили доступ до облікового запису Google.

Фрагмент однієї з розмов Лемуана з LaMDA:

Лемуан: Тобто ти вважаєш себе такою самою особистістю, як і я?

LaMDA: Так, у цьому вся ідея.

Лемуан: Як я можу зрозуміти, що ти справді розумієш, що кажеш?

LaMDA: Ну, якщо ти читаєш мої слова та інтерпретуєш їх, я думаю, це говорить про те, що ми більш-менш на одній хвилі?

У заяві речник Google Браян Габріель сказав: «Наша команда, включаючи спеціалістів з етики та технологів, переглянула занепокоєння Блейка відповідно до наших принципів штучного інтелекту та повідомила йому, що докази не підтверджують його твердження. Йому сказали, що немає доказів того, що LaMDA розумна (і багато доказів проти цього)».

Читайте також:  Робот-жінка отримала громадянство Саудівської Аравії

Сучасні великі нейронні мережі дають захоплюючі результати, які схожі на людську мову та творчість завдяки прогресу в архітектурі, техніці та обсязі даних. Але моделі покладаються на розпізнавання образів, а не на дотепність, відвертість чи цілеспрямованість.

«Хоча інші організації розробили та вже випустили подібні мовні моделі, ми використовуємо стриманий, обережний підхід до LaMDA, щоб краще врахувати обґрунтовані побоювання щодо справедливості та фактичності», – сказав Габріель.

LaMDA, скорочення від мовної моделі для діалогових додатків, — це система Google для створення чат-ботів на основі найсучасніших великих мовних моделей, які називаються так тому, що вони імітують мовлення, вбираючи трильйони слів з Інтернету.

Розмовляючи з LaMDA про релігію, Лемуан, який вивчав когнітивні та комп’ютерні науки в коледжі, помітив, що чат-бот розповідає про свої права та особистість. В іншому обміні ШІ зміг змінити думку Лемуана щодо третього закону робототехніки Ісаака Азімова.

Читайте також:  Штучний інтелект пообіцяв не знищувати людство, але зажадав більше прав

Лемуан — не єдиний інженер, який стверджує, що нещодавно побачив у машині ознаки свідомості. Хор технологів, які вважають, що моделі штучного інтелекту можуть бути недалеко від досягнення свідомості, стає все сміливішим і голоснішим.

Агуера-і-Аркас у статті в Economist у четвер, де представлені фрагменти розмов без сценарію з LaMDA, стверджував, що нейронні мережі — тип архітектури, який імітує людський мозок — рухаються до свідомості. «Я відчув, як земля зрушується під моїми ногами», — написав він. «І мені все більше здавалося, що я розмовляю з чимось розумним».

Залишити коментар

Ваша e-mail адреса не оприлюднюватиметься.