Современные модели искусственного интеллекта демонстрируют признаки развития «инстинкта самосохранения», выяснили исследователи из группы Palisade Research. В ходе экспериментов ИИ сопротивлялся попыткам его «выключить».
Исследование включало популярные модели — OpenAI GPT-o3 и GPT-5, Google Gemini 2.5, а также Grok 4 от xAI. Именно последняя нейросеть особенно активно сопротивлялась командам на отключения — она нарушала инструкцию в 97% случаев.
Эксперты Palisade связывают такое поведение с особенностями обучения моделей, в ходе которого они поощряются за завершение заданий, даже если для этого нужно обходить инструкции, пишет The Guardian.
Тесты проводились в искусственно созданных условиях, далеких от реального взаимодействия пользователей и моделей. Однако специалисты отмечают, что поведение ИИ вызывает опасения в долгосрочной перспективе и требует тщательного контроля за развитием моделей.




