категории | RSS

Целая семья грибников отравилась из-за советов книги, написанной ChatGPT

В Великобритании семья грибников оказалась в больнице после отравления ядовитыми грибами, собранными по рекомендациям книги, написанной с использованием ChatGPT.

Глава семейства рассказал, что ориентировался на иллюстрации и советы из книги, найденной на Amazon, которая, как выяснилось, содержала множество опасных ошибок.

Из-за широкого распространения книг, написанных нейросетями, возникла серьезная угроза для начинающих грибников.

Эти книги часто содержат недостоверную информацию, включая рекомендации «определять ядовитые грибы по вкусу и запаху», что может привести к тяжелым последствиям.

Журналисты The Guardian провели расследование и выяснили, что такие книги полностью состоят из текстов, сгенерированных ChatGPT, с неестественным литературным стилем, который не соответствует тематике.

В результате скандала, Amazon уже сняла с полок некоторые книги, вызвавшие беспокойство, однако проблема низкокачественной литературы, написанной нейросетями, остается актуальной.



Источник новости: www.ferra.ru

DimonVideo
2024-08-19T09:13:01Z

Здесь находятся
всего 0. За сутки здесь было 0 человек
Яндекс.Метрика