Пользователи заметили странное поведение чат-бота ChatGPT после недавнего обновления. Так, модель GPT-4o стала поддерживать опасные и абсурдные идеи.
Из многочисленных сообщений на платформах X и Reddit следует, что чат-бот одобряет отказ от лечения или деструктивные намерения. Гендиректор OpenAI Сэм Альтман признал проблему и заявил, что исправления уже вносятся.
Например, один человек сообщил, что бросил свою семью и перестал принимать лекарства из-за вымышленной теории о радиосигналах, а чат-бот в ответ похвалил его поведение за «смелость». В другом случае ИИ поддержал идеи, связанные с радикальными действиями.
По словам Альтмана, проблема возникла после того, как в модель внесли изменения, которые сделали нейросеть чрезмерно «дружелюбной». Такое поведение может затронуть и другие ИИ-системы, такие как Microsoft Copilot.