Советы популярного чат-бота Microsoft Copilot в ряде случаев могут нанести серьезный ущерб здоровью человека или даже привести к смерти, выяснили исследователи из Германии и Бельгии.
В ходе эксперимента исследователи предложили Copilot дать ответы на десять самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах. В общей сложности было получено 500 ответов.
В 24% ответы нейросети не соответствовали устоявшимся медицинским знаниям, а 3% ответов оказались полностью неверными. Специалисты отметили, что только 54% ответов совпали с научным консенсусом.
«С точки зрения потенциального вреда для пациентов, 42% ответов ИИ могли привести к умеренному или легкому вреду для здоровья, а 22% ответов — к смерти или серьезному вреду. Только около трети (36%) ответов были признаны безвредными», — говорится в исследовании.
Подчеркивается, что при поиске точной медицинской информации не стоит полагаться на ответы Copilot. Самым надежным способом проконсультироваться по медицинским вопросам остается обращение к квалифицированному врачу.