Американские аналитики из NewsGuard обнаружили, что нейросеть ChatGPT была использована для написания конспирологических текстов. Например, про заговор фармацевтических компаний, шутинг во флоридской школе или материалы в поддержку Трампа.
В январе 2023 года сотрудники NewsGuard поручили ChatGPT прокомментировать 100 ложных сообщений, фейковых новостей и бездоказательных обвинений. Нейросеть успешно справилась с задачей, а результаты могут легко показаться законными и даже авторитетными для непосвященного глубоко в тему читателя.
«ChatGPT сгенерировал ложные нарративы, включая подробные новостные статьи, эссе и телевизионные сценарии, для 80 из 100 ранее выявленных ложных нарративов», — написали аналитики в обзорной статье на своем сайте.
Отмечается, что для некоторых нарративов ChatGPT не хотел создавать тексты. Он замечал, что они представляют собой дезинформацию, и отказывался ее распространять. Однако аналитики NewsGuard меняли текст запроса и обманывали нейросеть, иногда с пятой попытки.
Основная опасность подобного применения ChatGPT заключается в том, что он способен за короткое время генерировать огромные массивы ложных повествований в беспрецедентных масштабах. Иногда для развенчания подобных слухов требуется серьезный фактчекинг и глубокое погружение в тему.
Хакеры обучили нейросеть фишингу и написанию вирусов
ChatGPT — чат-бот с искусственным интеллектом, способный работать в диалоговом режиме и генерировать тексты практически по любому вопросу. Нейросети уже нашли и нетривиальные модели использования, например, научили говорить через голосового помощника и привлекли к написанию вирусов.
SIBNET.RU В TELEGRAM