В Великобритании семья грибников оказалась в больнице после отравления ядовитыми грибами, собранными по рекомендациям книги, написанной с использованием ChatGPT.
Глава семейства рассказал, что ориентировался на иллюстрации и советы из книги, найденной на Amazon, которая, как выяснилось, содержала множество опасных ошибок.
Из-за широкого распространения книг, написанных нейросетями, возникла серьезная угроза для начинающих грибников.
Эти книги часто содержат недостоверную информацию, включая рекомендации «определять ядовитые грибы по вкусу и запаху», что может привести к тяжелым последствиям.
Журналисты The Guardian провели расследование и выяснили, что такие книги полностью состоят из текстов, сгенерированных ChatGPT, с неестественным литературным стилем, который не соответствует тематике.
В результате скандала, Amazon уже сняла с полок некоторые книги, вызвавшие беспокойство, однако проблема низкокачественной литературы, написанной нейросетями, остается актуальной.