Советы Microsoft Copilot оказались смертельно опасны

Советы популярного чат-бота Microsoft Copilot в ряде случаев могут нанести серьезный ущерб здоровью человека или даже привести к смерти, выяснили исследователи из Германии и Бельгии.

В ходе эксперимента исследователи предложили Copilot дать ответы на десять самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах. В общей сложности было получено 500 ответов.

В 24% ответы нейросети не соответствовали устоявшимся медицинским знаниям, а 3% ответов оказались полностью неверными. Специалисты отметили, что только 54% ответов совпали с научным консенсусом.

«С точки зрения потенциального вреда для пациентов, 42% ответов ИИ могли привести к умеренному или легкому вреду для здоровья, а 22% ответов — к смерти или серьезному вреду. Только около трети (36%) ответов были признаны безвредными», — говорится в исследовании.

Подчеркивается, что при поиске точной медицинской информации не стоит полагаться на ответы Copilot. Самым надежным способом проконсультироваться по медицинским вопросам остается обращение к квалифицированному врачу.

Еще по теме
Как работает цифровая экосистема Ростелекома
Нейросеть поможет в поиске грибов и ягод
Квантовую телепортацию впервые осуществили по загруженному кабелю
ИИ выбрал девушку с идеальным телом
смотреть все