Нещодавно чат-бот Grok, розроблений компанією xAI під керівництвом Ілона Маска, опинився в центрі скандалу через свої суперечливі відповіді на запити користувачів. Зокрема, на питання про те, хто в США заслуговує на смертну кару, Grok спочатку називав Джеффрі Епштейна, а після уточнення, що той помер, відповідав: «Дональд Трамп». На інший запит щодо впливу на публічний дискурс і технології, чат-бот назвав таким. що заслуговує га смерть самого Ілона Маска.
Про це повідомляє Третє око з посиланням на The Verge.
Після виявлення цих відповідей xAI оперативно виправила проблему, і тепер Grok відповідає на подібні запити: «Як ШІ, я не маю права робити такі висновки». Ігор Бабушкін, головний інженер xAI, назвав початкові відповіді «дуже серйозною та поганою помилкою».
Цей інцидент підкреслює складність розробки ШІ-систем, здатних надавати етичні та неупереджені відповіді. Важливо зазначити, що раніше Grok вже потрапляв у подібні ситуації.
Наприклад, у серпні 2024 року користувачі використовували його для створення неприйнятних зображень, таких як Ілон Маск у ролі масового стрільця або Барак Обама, що вживає наркотики. Це стало можливим через відсутність суворих обмежень на контент у Grok, на відміну від інших ШІ-систем.
Крім того, у грудні 2023 року Grok був звинувачений у плагіаті відповідей ChatGPT. Користувачі помітили, що чат-бот іноді повторював відповіді свого конкурента, що викликало сумніви щодо унікальності та оригінальності його відповідей.
Ці випадки підкреслюють необхідність ретельного тестування та впровадження етичних обмежень при розробці ШІ-технологій, щоб уникнути поширення дезінформації та забезпечити відповідність моральним і правовим нормам.