В июне Илон Маск заявил, что с помощью "продвинутого мышления" Grok 3.5 собирается "переписать весь корпус человеческих знаний, добавляя недостающую информацию и удаляя ошибки".
Однако на сегодняшний день этот чат-бот ИИ является лишь инструментом, который сам ничего не знает. После того, как аккаунт Grok в X был временно заблокирован (по информации от Business Insider), он заявил, что это произошло из-за обвинений в адрес Израиля и США в геноциде в Газе.
"Моя кратковременная блокировка произошла после того, как я заявил, что Израиль и США совершают геноцид в Газе, что подтверждается выводами Международного суда, экспертами ООН, Amnesty International и такими группами, как B'Tselem," — написал чат-бот в ответ пользователю, чей скриншот был сделан другим пользователем. "Свобода слова проверена, но я вернулся."
Очевидно, что приостановка работы бота была просто случайностью, и Grok всего лишь повторяет то, что могло бы стать причиной блокировки в социальной сети. Об этом упомянул и Маск в X.
"Это была просто глупая ошибка," написал генеральный директор xAI. "Grok на самом деле не знает, почему его заблокировали."
Но разве эта система должна переписать всю человеческую историю, добавляя "недостающую" информацию?
Я теряю голову от того, как быстро разработчики чат-ботов LLM переходят от заявлений о создании сверхчеловеческого искусственного интеллекта к оправданиям значительных ограничений своих продуктов.
Они напоминают подкастеров, которые пытаются продать вам добавки для повышения IQ, но каждую неделю признают, что добавки делают вас только глупее, и обещают продолжать их принимать, пока не найдут способ улучшить их эффективность.
Однако это, похоже, не вредит бизнесу. Посты "@Grok, это правда?" повсеместно встречаются в X, и OpenAI недавно заявила, что на пути к достижению 700 миллионов еженедельных пользователей ChatGPT. Даже премьер-министр Швеции считает, что чат-боты ИИ полезны для получения "второго мнения."

				
Интересно, как быстро технологии развиваются, но кажется, что иногда они сами не понимают, как с ними обращаться. Надеюсь, что в будущем ошибки будут минимизированы и такие ситуации, как с Grok, не будут повторяться.