Грок непременно рассказывает пользователям X о южноафриканском геноциде

В среду, по -видимому, испытал ошибку Elon Musk's Chatbot Grok, которая заставила его ответить на десятки постов на X с информацией о геноциде в Южной Африке, даже если пользователь ничего не спросил об этом предмете.

Странные ответы в значительной степени поступили из учетной записи X для Grok, которая отвечает пользователям с помощью AI-сгенерированных постов всякий раз, когда пользователь отмечает @grok. Когда его спросили о не связанных темах, Грок неоднократно рассказывал пользователям о «белом геноциде», а также о антиапартеиде «Убейте бур».

В одном примере пользователь спросил Грока о зарплате профессионального бейсболиста, и Грок ответил, что «утверждение« белого геноцида »в Южной Африке очень обсуждается».

Несколько пользователей разместили на X о своем запутанном, странном взаимодействии с чатботом Grok AI в среду.

В это время неясно, в чем причина странных ответов Грока, но в прошлом манипулировали чат -боты Xai.

В феврале Грок 3, казалось, кратко подвергся цензуре нелестных упоминаний о Элоне Маск и Дональде Трампе. В то время лидерство инженерного инженера XAI Игорь Бабушкин, казалось, подтвердил, что Гроку было кратко проинструктировано это, хотя компания быстро изменила инструкции после того, как негативная реакция привлекла больше внимания.

Представитель XAI не сразу ответил на запрос TechCrunch о комментариях.

В последние месяцы поставщики моделей ИИ изо всех сил пытались смягчить ответы своих чат -ботов ИИ. Openai недавно был вынужден отказаться от обновления в CHATGPT, из -за которого AI Chatbot был чрезмерно сикофантичным. Тем временем Google столкнулся с проблемами с его чатботом Близнецов, отказывающимся отвечать или давать дезинформацию в отношении политических тем.

Previous post Формула 1: штрафные штрафы водителя, уменьшенные FIA после Outcry
Next post Демократы Сената проводят слушания по массовым прекращениям в HHS, осуждая RFK Jr.