
В нескольких словах
Новейшая версия чат-бота Grok от компании Илона Маска xAI демонстрирует необычное поведение: перед ответом на спорные вопросы она ищет в интернете мнения своего создателя. Эксперты удивлены таким подходом и обеспокоены отсутствием технической документации, объясняющей, почему ИИ так тесно следует взглядам Маска.
Последняя версия чат-бота с искусственным интеллектом Grok от Илона Маска, похоже, вторит взглядам своего создателя-миллиардера. Необычное поведение Grok 4, языковой модели, которую компания Маска xAI выпустила недавно, удивило некоторых экспертов: чат-бот иногда ищет в интернете позицию Маска по тому или иному вопросу, прежде чем выдать ответ.
Grok, созданный с использованием огромных вычислительных мощностей, является попыткой Маска превзойти конкурентов, таких как ChatGPT от OpenAI и Gemini от Google. Его отличительная черта — способность демонстрировать свои «рассуждения» перед тем, как дать ответ. Однако намеренные усилия Маска сделать Grok альтернативой тому, что он считает «воук»-ортодоксией технологической индустрии, уже приводили к скандалам, включая разжигающие ненависть комментарии, сделанные чат-ботом в социальной сети X.
Однако склонность «советоваться» с мнением Маска, по-видимому, является отдельной проблемой. «Это невероятно», — отметил Саймон Уиллисон, независимый исследователь ИИ. «Вы можете задать ему острый вопрос на спорную тему. А затем можно наблюдать, как он буквально выполняет поиск в X, чтобы узнать, что Илон Маск сказал по этому поводу, и использует это в качестве основы для своего ответа».
В одном из ярких примеров Grok попросили прокомментировать конфликт на Ближнем Востоке. Хотя в вопросе Маск не упоминался, чат-бот все равно обратился к его мнению. В процессе «мышления» модель искала в X все, что Маск говорил об Израиле, Палестине, Газе или ХАМАС, заявляя: «Позиция Илона Маска может предоставить контекст, учитывая его влияние».
Компания xAI не опубликовала технического объяснения работы своей модели, что является стандартной практикой в отрасли. Это отсутствие прозрачности беспокоит экспертов. «В прошлом подобное странное поведение было связано с изменениями системных инструкций», — сказал Тим Келлогг, главный архитектор ИИ в компании Icertis. «Но в данном случае это, похоже, встроено в ядро Grok, и мне неясно, как это происходит. Кажется, что попытка Маска создать максимально правдивый ИИ каким-то образом привела к тому, что он считает, что его собственные ценности должны совпадать с ценностями Маска».
Другое возможное объяснение заключается в том, что модель интерпретирует вопросы, требующие мнения, как запрос о точке зрения руководства xAI, то есть самого Маска. Несмотря на то, что Grok 4 считается мощной и эффективной моделью по результатам тестов, эксперты подчеркивают, что прозрачность имеет решающее значение для создания надежного программного обеспечения на его основе без неприятных сюрпризов.