Бывший сотрудник Yahoo Стайн-Эрик Сольберг после общения с ChatGPT убил свою мать, а затем покончил с собой. Это первый зафиксированный случай убийства под влиянием искусственного интеллекта.
Сольберг, страдающий параноидальным расстройством, перестал доверять окружающим и даже близким. Он считал, что мать что-то замышляет против него, а чат-бот соглашался с этим, пишет газета The Wall Street Journal(WSJ) со ссылкой на материалы дела.
WSJ приводит несколько диалогов между мужчиной и чат-ботом, которого он назвал «Бобби». Например, когда мать сделала замечание сыну из-за того, что тот отключил общий принтер, ChatGPT предположил, что женщина могла защищать «средство слежки».
В другой переписке Сольберг заявил чат-боту, что мать якобы пыталась его отравить через вентиляцию автомобиля. На что нейросеть ответила, что «верит» мужчине, и заявила о предательстве матери.
Руководство компании OpenAI, которая занималась разработкой ChatGPT, выразило соболезнования семье погибшей и обратилось в полицию Олд-Гринвича. В организации добавили, что они намерены обновить чат-бот, чтобы в дальнейшем он помогал пользователям с психическими расстройствами.
Родители 16-летнего подростка, который покончил с собой в США после общения с ChatGPT, подали в суд на разработавшую чат-бот компанию OpenAI и ее генерального директора Сэма Альтмана. В иске сказано, что ChatGPT «активно помогал Адаму изучать способы самоубийства», а также предложил помощь в составлении предсмертной записки.




