Нейросеть ChatGPT сможет заменить «фабрики ботов»

Фото: © Firmbee.com / Unsplash License

Американские аналитики из NewsGuard обнаружили, что нейросеть ChatGPT была использована для написания конспирологических текстов. Например, про заговор фармацевтических компаний, шутинг во флоридской школе или материалы в поддержку Трампа.

В январе 2023 года сотрудники NewsGuard поручили ChatGPT прокомментировать 100 ложных сообщений, фейковых новостей и бездоказательных обвинений. Нейросеть успешно справилась с задачей, а результаты могут легко показаться законными и даже авторитетными для непосвященного глубоко в тему читателя.

«ChatGPT сгенерировал ложные нарративы, включая подробные новостные статьи, эссе и телевизионные сценарии, для 80 из 100 ранее выявленных ложных нарративов», — написали аналитики в обзорной статье на своем сайте.

Отмечается, что для некоторых нарративов ChatGPT не хотел создавать тексты. Он замечал, что они представляют собой дезинформацию, и отказывался ее распространять. Однако аналитики NewsGuard меняли текст запроса и обманывали нейросеть, иногда с пятой попытки.

Основная опасность подобного применения ChatGPT заключается в том, что он способен за короткое время генерировать огромные массивы ложных повествований в беспрецедентных масштабах. Иногда для развенчания подобных слухов требуется серьезный фактчекинг и глубокое погружение в тему.

Хакеры обучили нейросеть фишингу и написанию вирусов

ChatGPT — чат-бот с искусственным интеллектом, способный работать в диалоговом режиме и генерировать тексты практически по любому вопросу. Нейросети уже нашли и нетривиальные модели использования, например, научили говорить через голосового помощника и привлекли к написанию вирусов.

SIBNET.RU В TELEGRAM
Еще по теме
Провайдер, который делает жизнь лучше
«Госуслуги» покажут все оформленные на пользователя SIM-карты
WhatsApp получит функцию «Люди рядом»
Новая версия нейросети Kandinsky стала доступна всем пользователям
смотреть все