1. instagram
  2. facebook
  3. whatsapp
  4. telegram
  5. bot

Как ChatGPT может создавать проблемы для издателей

Категории:

ИИ

Искусственный интелект

Метки:

С каждым днем все больше издателей заключают соглашения с OpenAI, компанией, стоящей за популярным чат-ботом ChatGPT. И хотя подобные партнерства обещают много преимуществ, недавнее исследование Центра цифровой журналистики Tow ставит под сомнение точность цитирования, которое предоставляет ChatGPT, и подчеркивает потенциальные риски для репутации издателей.

ChatGPT: Когда искусственный интеллект ошибается с источниками

Исследование, проведенное в Школе журналистики Колумбийского университета, фокусируется на том, как ChatGPT генерирует источники и цитаты для контента. Статья выявила важные проблемы, которые могут возникнуть, если искусственный интеллект не будет работать корректно. В частности, исследователи обнаружили, что ChatGPT часто искажает источники, неправильно указывая на статьи, а иногда даже изобретает несуществующие ссылки.

Что не так с цитатами от ChatGPT?

Исследование показало, что вне зависимости от того, заключили ли издатели соглашения с OpenAI или нет, цитаты, предоставленные ChatGPT, часто оказываются неточными. Были зафиксированы случаи, когда искусственный интеллект не только ошибался в указании источников, но и вообще создавал вымышленные ссылки, которых не существовало.

Интересно, что хотя OpenAI подчеркивает свою способность предоставлять пользователям «своевременные ответы с ссылками на соответствующие веб-источники», на деле точность этих ссылок оставляет желать лучшего. Так, при проверке, проведенной в рамках исследования, было установлено, что чат-бот часто предоставляет неправильные ссылки или вовсе не может точно указать источник цитаты. В некоторых случаях ошибки происходили из-за того, что поисковые роботы OpenAI не могли получить доступ к контенту, что еще больше подрывает доверие к системе.

Ненадежность источников: Что скрывается за ссылками?

Одной из самых больших проблем является отсутствие уверенности у ChatGPT в своих ответах. Исследователи заметили, что инструмент редко признает свои ошибки. Вместо этого он просто генерирует ссылки, которые могут быть полностью неверными. Когда цитаты были взяты с сайтов, которые заблокировали доступ для OpenAI, бот продолжал делать ошибки, при этом не признавая их. В таких ситуациях он предпочитал «выдумывать» источники, что ставит под сомнение его надежность.

Когда ChatGPT заимствует контент без атрибуции: Плагиат или ошибка?

Еще одним тревожным открытием стало то, что ChatGPT может ошибочно приписывать плагиатным источникам оригинальные статьи. В исследовании приводится пример, когда бот ошибочно указал на плагиатный сайт, который копировал материалы из The New York Times. Это вызывает вопросы о способности OpenAI фильтровать и проверять качество источников данных.

Прозрачность и точность: Проблемы для издателей

Весь этот процесс напоминает обычный поиск информации в Интернете, когда система либо находит точный ответ и отправляет вас на нужный сайт, либо признает отсутствие результатов. ChatGPT же не всегда демонстрирует прозрачность в своих ответах, что делает невозможным правильную оценку того, насколько надежны его ссылки.

Для издателей это создает репутационные риски: когда неправильные ссылки приводят к неверной атрибуции контента или направляют читателей на конкурирующие сайты, это может негативно повлиять на их коммерческий успех.

Вариативность и непредсказуемость ChatGPT: Как это влияет на точность?

Одной из самых больших проблем является то, что ChatGPT не всегда возвращает одинаковые ответы на один и тот же запрос. При повторном запросе он может привести к совершенно разным результатам. Эта непоследовательность создает дополнительные сложности для издателей, которые надеются на точность и последовательность в цитировании.

Что же это значит для издателей?

Если медиакомпании надеялись на особое внимание со стороны OpenAI, заключив соглашения о лицензировании контента, то результаты исследования подрывают эти надежды. Даже если издатели разрешают OpenAI доступ к своим материалам, нет гарантии, что ChatGPT будет точно цитировать их работы. Более того, полное блокирование доступа роботов OpenAI не всегда спасает от репутационных рисков.

Как OpenAI отвечает на критику?

OpenAI, в свою очередь, уже прокомментировала результаты исследования, заявив, что оно не было представлено в типичном формате тестирования. Компания утверждает, что она поддерживает издателей, помогая пользователям ChatGPT находить качественный контент, и активно работает над улучшением точности цитирования. Однако, как показало исследование, проблемы с точностью и последовательностью остаются актуальными.

Что будет дальше?

Рынок разработки приложений с искусственным интеллектом, искусственного интеллекта в целом и его влияние на журналистику продолжает расти, и такие исследования ставят под вопрос, насколько ИИ может быть надежным инструментом для работы с контентом. Издатели, которые надеются на корректную атрибуцию и цитирование, должны быть готовы к тому, что их контент в ChatGPT может быть представлен неточно.

Будущее зависит от того, насколько OpenAI и другие компании смогут усовершенствовать свою технологию, чтобы она действительно обеспечивала точность и уважала права создателей контента.

Заключение:

Исследование выявило ключевые проблемы, с которыми сталкиваются издатели при работе с инструментами генеративного ИИ, такими как ChatGPT. Проблемы с точностью цитирования и отсылками могут повлиять на репутацию издателей и снизить доверие к таким системам. В конечном счете, это ставит вопросы о прозрачности и ответственности ИИ в сфере журналистики.