ChatGPT цитирует исследования и статьи, которые никогда не публиковались - Inc News
, автор: Кутман С.

ChatGPT цитирует исследования и статьи, которые никогда не публиковались

Проблема серьезнее, чем кажется/ ChatGPT придумывает исследования и статьи, которые не только не были опубликованы, но и ссылки и цитаты полностью сфабрикованы.

Источник фото: Leon Neal/Getty Images

ChatGPT и его производные, такие как чат-бот Bing, за короткое время стали невероятно полезным ресурсом для самых разных пользователей. Но на ранних этапах существования, когда пользователи тщательно проверяют его возможности, выявляются и слабые стороны.

Дело в том, что ChatGPT не только предлагает полезную и актуальную информацию, но и показывает серьезную проблему, которая со временем, если ее не исправить, усугубится. Чат OpenAI показывает пользователям выдуманные факты и дезинформацию.

Фактически, ChatGPT придумывает целые статьи The Guardian, которые на самом деле никогда не публиковались: при этом ни пользователи, ни сам ChatGPT не способны с уверенностью сказать, где правда, а где вымысел. И это огромная проблема не только для доверия к технологии ChatGPT, но и для того, чтобы пользователи могли быть уверены, что чат не является источником дезинформации под видом надежного и ценного контента.

ChatGPT придумывает исследования, чтобы оправдать свои ответы

Проблема, которая, кроме того, может усугубиться, если текущая технология будет реализована как технология поисковых систем, предлагающая информацию, которая, казалось бы, взята из надежных источников, но на самом деле является изобретением самого ChatGPT.

"Много было написано о тенденции генеративного ИИ к фабрикации фактов и событий. Но эта особенность особенно беспокоит новостные организации и журналистов, включение которых добавляет легитимности и веса убедительно написанной фантазии. А для читателей и информационной экосистемы это открывает совершенно новые вопросы о том, можно ли как-то доверять цитированию. И это вполне может подпитывать теории заговора на деликатные темы, которых никогда не существовало", считает Крис Моран, руководитель отдела редакционных инноваций The Guardian.

И это выходит за рамки простых выдуманных статей, пишет Futurism. Решение неясно. Как и виновник проблемы. Теперь ответственность за решение этого вопроса лежит на компаниях, разрабатывающих ИИ.

x