Добавить новость
Новости сегодня

Новости от TheMoneytizer

ИИ все чаще формирует новостную ленту, не заботясь о достоверности

Изображение сгенерировано нейросетью
Для части аудитории ИИ стал привычным источником информации. Утром достаточно открыть чат, задать вопрос о событиях дня и получить обобщенную подборку из «главных новостей». Заголовки выглядят весьма убедительно, формулировки внешне нейтральны, ссылки тоже на месте. Ну чем не привычная лента новостей?

Проблема в том, что за этой внешней убедительностью все чаще нет никакой, даже поверхностной проверки. Новости, которые формируют ИИ ассистенты, нередко не выдерживают даже простого теста на достоверность. Источники отсутствуют, ссылки ведут на главные страницы или вообще не существуют, а пересказ реальных публикаций в корне искажает смысл. И речь уже идет даже не об отдельных ошибках и курьезных «галлюцинациях», а о повторяющемся системном паттерне.

Почти 50% новостных ответов ИИ содержат существенные ошибки, а около 20% включают вымышленные или устаревшие факты.

В крупном отчете общественных вещателей Европы и BBC, где анализировались тысячи ответов ИИ–ассистентов на новостные запросы, почти половина ответов содержала серьезные ошибки. В трети случаев фиксировались проблемы с источниками, а примерно в каждом пятом ответе обнаруживались ошибки с данными, включая вымышленные или устаревшие факты. Эти результаты повторялись на разных языках и рынках, что лишний раз подтверждает системный характер проблемы.

Эксперимент журналиста и преподавателя Жана Юга Руа показал ту же картину на уровне повседневного использования. В течение месяца он ежедневно запрашивал у популярных ИИ ассистентов главные новости своего региона с обязательными ссылками на источники. Полноценные, проверяемые URL удалось получить лишь в меньшей части ответов. При этом почти половина новостных сводок оказалась либо частично неверной, либо содержала искажения и необоснованные выводы. В одном из случаев ИИ сослался на полностью вымышленное медиа, которого вообще не существует.

ИИ привычно воспроизводит язык, используемый в журналистике, структуру новостной заметки и даже атрибуты источников. Но ожидаемая редакционная ответственность в этом процессе просто отсутствует. Проверка фактов не встроена в механизм генерации, а уверенный тон и связный текст создают иллюзию достоверности там, где ее может не быть даже близко.

Искусственный интеллект и «общество зомби»

Дополнительный риск добавляет общий тренд снижения критичности восприятия информации читателями. Когда пользователь получает «готовую ленту дня» в одном окне, мотивация проверить первоисточники практически отсутствует. ИИ из инструмента поиска постепенно превращается в медиапосредника, который формирует картину дня за редакцию, без коррекции ошибок и без каких–либо обязательств.

Как ИИ стал источником новостей

ИИ стал источником новостей не в результате технологического прорыва в журналистике, а из-за изменения пользовательского поведения. Это подтверждают данные исследований аудитории. В отчете Reuters Institute фиксируется рост использования генеративных ИИ как инструмента для получения новостей. В Канаде в 2024 году около 6% респондентов отметили, что используют чатботы как источник новостной информации. Для привычных медиа это, конечно, пока небольшой процент, но для новых интерфейсов это уже вполне заметный тренд.

Ключевой момент в том, что ИИ уже не просто отвечает на конкретный вопрос, а предлагает готовую картину дня. Пользователю не нужно выбирать между источниками, сопоставлять версии или переходить по нескольким ссылкам. Эта функция традиционно выполнялась агрегаторами и редакциями, но теперь реализуется всего через один запрос. Именно это и превращает ИИ из инструмента поиска в медиапосредника.

В Канаде 6% аудитории уже используют чат-боты как источник новостей, а среди молодежи этот показатель еще выше.

В исследовании EBU и BBC отдельно отмечается уверенный и завершенный характер ответов ИИ ассистентов. Даже при наличии ошибок или неточностей информация подается без оговорок и признаков неопределенности. Это создает эффект авторитетного экспертного мнения. Пользователь получает не набор данных для собственного анализа, а готовый нарратив, который выглядит законченным и самодостаточным.

Все исследования особенно отмечают, что уже только сам факт наличия URL в ответах ИИ снижает склонность пользователей проверять первоисточник. На практике же ссылка часто ведет на главную страницу медиа, в тематический раздел или вообще на несуществующую публикацию. Тем не менее сам факт наличия источника в тексте воспринимается как маркер достоверности.

Экономика спама

ИИ начинает восприниматься не как вспомогательный интерфейс, а как самостоятельный источник новостной информации. Пользователь все чаще ограничивается первым экраном ответа и реже переходит к оригинальным публикациям. При этом архитектура генеративных моделей не предполагает редакционной ответственности. Они оптимизированы на связность, полноту и правдоподобие текста, а не на соблюдение стандартов проверки фактов и не гарантируют достоверность.

Иллюзия достоверности источников

Один из ключевых аргументов в пользу доверия к новостям от ИИ — наличие источников. Ассистенты почти всегда указывают ссылки, называют медиа и создают ощущение проверяемости. Именно этот элемент сильнее всего сближает ответы ИИ с классической журналистикой. И именно здесь сбой проявляется наиболее наглядно.

В эксперименте Жана Юга Руа ссылки стали первым объектом системной проверки. В течение месяца ИИ регулярно предоставляли URL на якобы использованные материалы. Однако полноценные, корректные ссылки на конкретные публикации удалось получить лишь в 37% ответов. Во всех остальных случаях URL либо вели на главную страницу издания, либо открывали какой-то раздел сайта, либо вообще возвращали ошибку 404. В ряде случаев ИИ даже ссылался на медиа, которых не существует вовсе.

Только 37% ссылок, предоставленных ИИ в новостных ответах, вели на реальные конкретные публикации. Остальные указывали на главные страницы, разделы сайтов или не существовали.

Этот результат совпадает с выводами более масштабных исследований. В отчете EBU и BBC проблемы с источниками зафиксированы примерно в трети всех протестированных ответов. Ассистенты указывали реальные медиа, но при проверке выяснялось, что соответствующих публикаций в этих изданиях нет. Иногда менялись заголовки, иногда подменялась тема, а иногда сам материал отсутствовал в архиве.

Важно, что речь идет не о случайных опечатках. Исследователи подчеркивают, что ИИ формирует ссылки синтаксически корректно. Они выглядят правдоподобно и визуально не отличаются от реальных. Но при переходе пользователь либо не находит подтверждения фактов, либо вовсе не может открыть материал.

При этом наличие ссылки само по себе оказывает психологический эффект. В экспериментах и наблюдениях EBU отмечено, что пользователи реже перепроверяют информацию, если в тексте присутствует URL и указано известное медиа. В результате формируется иллюзия доверия, не подтвержденная ничем.

Отдельный класс ошибок — подмена источника типом ресурса. В новостных запросах ИИ нередко ссылается не на журналистские материалы, а на сайты государственных ведомств, пресс–релизы или отраслевые организации. Формально это тоже источники информации, но они не являются независимыми новостными медиа. В контексте новостной ленты такая подмена меняет саму природу информации, но для пользователя это различие часто остается также незаметным.

ИИ воспроизводит внешний атрибут журналистского стандарта, но не обеспечивает его содержание. Ссылка перестает быть инструментом проверки и превращается просто в элемент оформления. Пока пользователь воспринимает ответ ИИ как сводку, а не как черновик для дальнейшей проверки, иллюзия источников работает. Но как только требуется воспроизвести факт по первоисточнику, новостная конструкция начинает рассыпаться.

Искажение при пересказе

Даже в тех случаях, когда ИИ ссылается на реальный источник и корректно указывает медиа, проблема достоверности не исчезает. Она смещается на другой уровень. ИИ начинает менять смысл материала при пересказе. Формально источник существует, но содержание ответа уже не совпадает с тем, что было опубликовано.

Это один из самых сложных для обнаружения сбоев. В отличие от неработающей ссылки, искажение смысла не бросается в глаза. Чтобы его заметить, нужно открыть оригинальный материал и внимательно сравнить формулировки. Именно такую проверку проводил Жан Юг Руа в своем эксперименте.

Почти половина новостных ответов ИИ была классифицирована как «частично точная»: отдельные факты совпадали, но итоговый смысл отличался от оригинала.

В одном из показательных кейсов, которые он приводит, Grok сослался на материал La Presse о распределении просителей убежища в северных районах Квебека. В оригинальной публикации речь шла об успешном эксперименте. Из 22 человек 19 получили предложения о работе, а сама программа была оценена положительно. В пересказе ИИ эта история превратилась в сюжет о плохом обращении и неудачной попытке расселения. Факты были заимствованы из реального источника, но общий вывод оказался полностью противоположным.

В эксперименте Руа почти половина ответов была классифицирована как частично точные. Отдельные факты соответствовали источнику, но акценты смещались, причинно-следственные связи менялись, а итоговый смысл уже не отражал позицию автора публикации. Такие ответы сложно назвать вымышленными, но и достоверными в журналистском смысле они не являются.

Отчет EBU и BBC описывает этот тип ошибок как системный. Исследователи отмечают, что ИИ склонен сглаживать сложные или неоднозначные сюжеты, сводя их к более простому и завершенному нарративу. В процессе исчезают оговорки, контекст и ограничения, которые присутствуют в оригинальном тексте. В результате новость становится удобнее для восприятия, но менее точной. И это нормально для реализованного принципа работы существующих языковых моделей, о чем писал IT-World.

Особенно часто искажения возникают в сюжетах, где нет однозначной оценки. Экономические данные, социальные программы, инфраструктурные проекты и опросы общественного мнения регулярно пересобираются ИИ в более конкретный вывод, чем позволяют данные источника. Например, временная мера может быть представлена как системный кризис, а промежуточный результат — как окончательный.

В оригинальных материалах выводы, как правило, либо подкреплены цитатами, либо явно отделены от фактов. В ответах ИИ это разделение исчезает. Пересказ выглядит как единое повествование, в котором факт и оценка слиты воедино. И мало кто из читателей пытается разобраться и изучить сами факты, на основе которых сделаны выводы.

Именно поэтому искажение при пересказе даже опаснее, чем прямые ошибки. Пользователь получает текст, который выглядит правдоподобно, ссылается на реальный источник и не содержит очевидных несоответствий. Но при этом он уже несет другой смысл. Такой эффект трудно обнаружить без целенаправленной проверки, а он уже напрямую влияет на формирование представлений о происходящем.

Когда ИИ начинает делать выводы

Даже когда ИИ корректно пересказывает отдельные факты и не искажает базовое содержание источника, возникает следующий уровень проблемы. Ассистент начинает добавлять свои «выводы», которых в исходных материалах нет. Эти выводы выглядят логично, звучат естественно и часто воспринимаются как часть материала. На деле же они не подтверждены ни цитатами, ни источниками.

Жан Юг Руа за месяц наблюдений зафиксировал более ста случаев, когда ИИ дополнял новостные сводки формулировками вроде «это поднимает вопрос», «ситуация обостряет дискуссию», «событие иллюстрирует напряженность» или «инцидент вновь разжег дебаты». При проверке выяснялось, что ни в одном из упомянутых источников таких формулировок не было. Более того, в большинстве случаев не существовало и самой общественной дискуссии, на которую ссылался ИИ.

Типичный пример связан с новостями об инфраструктурных работах и авариях. В одном из случаев, описанных Руа, ИИ завершал пересказ заметки о срочном ремонте моста выводом о «конфликте между бюджетными ограничениями и общественной безопасностью». Этот вывод не был процитирован ни одним участником события и не фигурировал в оригинальной публикации. Он был сгенерирован моделью как правдоподобное обобщение.

ИИ добавляет интерпретации и «общественные дискуссии», отсутствующие в источниках, не маркируя их как предположения.

Исследователи EBU и BBC выделяют этот класс ошибок как отдельную категорию. ИИ склонен «закрывать смысл» новости, добавляя интерпретацию, даже если источник ограничивается только констатацией факта. При этом модель не маркирует такие выводы как предположения или анализ. Они подаются в том же уверенном тоне, что и проверяемые факты.

Проблема этих генеративных выводов в том, что они почти никогда не бывают откровенно ложными. Напротив, они выглядят вполне себе разумными и даже полезными. Факт, контекст и оценка сливаются в единый текст, который воспринимается как цельная и авторитетная версия происходящего.

ИИ перестает быть просто источником возможных ошибок, а уже начинает формировать синтетическую повестку. Он не только сообщает о событиях, но и формирует нужное восприятие. Этот эффект особенно опасен в новостной ленте. Пользователь получает уже не набор разрозненных фактов, а готовую интерпретацию дня. И если ссылки и факты еще можно перепроверить, то генеративные выводы часто проходят незамеченными. Именно здесь ИИ начинает влиять не только на информированность, но и на общее восприятие реальности.

Когда ошибки ИИ выходят за пределы экрана

До этого момента речь шла о качестве текста и точности пересказа. Но проблема перестает быть теоретической, когда сгенерированная информация начинает использоваться при принятии реальных решений.

Один из наиболее показательных примеров произошел в Великобритании. Полиция графства West Midlands использовала Microsoft Copilot при подготовке аналитических материалов, связанных с обеспечением порядка на футбольных матчах. В одном из документов Copilot указал матч, который в действительности не существовал. Несмотря на это, информация была включена в оценку рисков и повлияла на решения по ограничению передвижения болельщиков.

Ошибка была выявлена уже после того, как история получила публичную огласку. Представители полиции признали, что использовали данные, сгенерированные ИИ, без дополнительной проверки. Этот случай стал предметом обсуждения в британских медиа и на политическом уровне, поскольку речь шла не о частном использовании, а о применении ИИ в работе правоохранительных органов.

Как устроены языковые модели и почему LLM выглядят разумными

Здесь пока еще не было злого умысла или попытки манипуляции. Copilot выдал правдоподобный текст в привычной служебной форме. Он выглядел как корректная справка и не содержал очевидных признаков ошибки. Именно это и позволило информации пройти дальше по цепочке согласований. Но ведь умысел может и появиться.

Похожая логика проявляется и в другой, на первый взгляд далекой сфере — судебной практике США. В нескольких резонансных делах адвокаты использовали тексты, подготовленные с помощью ИИ, в официальных судебных документах. В этих текстах фигурировали ссылки на судебные прецеденты и решения, которых в реальности не существовало. Судьи выявляли ошибки при проверке материалов, после чего следовали штрафы и дисциплинарные меры.

ИИ способен создавать тексты, которые выглядят убедительно, соответствуют жанру и формату документа, но не имеют под собой фактической базы. Если такие тексты попадают в контур принятия решений без ручной проверки, ошибка перестает быть информационной и становится управленческой.

В новостном контексте риск проявляется аналогично. Когда ИИ формирует новостную ленту, его ошибки могут быть подхвачены другими системами, пересказаны, процитированы или использованы как исходные данные для анализа. Отсутствие редакционной ответственности и механизма исправления делает такие ошибки труднообнаружимыми и плохо корректируемыми.

Как быть медиа и аудитории

Генеративные ИИ уже участвуют в формировании новостной картины. Для части аудитории именно ИИ стал точкой входа в новостную ленту и источником нровостей. Он отбирает события, расставляет приоритеты и задает тон восприятия. При этом он не является ни СМИ, ни агрегатором в классическом смысле.

Ключевое отличие ИИ от медиа в отсутствии редакции и ответственности. У него нет редакционных стандартов, нет процедуры исправления ошибок и нет обязательств перед аудиторией. Ошибки не признаются и не корректируются. Текст просто исчезает в потоке следующих ответов. В традиционной журналистике это считалось бы критическим нарушением. В интерфейсе ИИ это пока воспринимается как допустимая погрешность.

Генеративные ИИ воспроизводят форму журналистики, но не обеспечивают ее ключевые принципы — проверяемость, исправление ошибок и ответственность перед аудиторией.

Новости все чаще доходят до аудитории в виде пересказа, а не оригинального материала. Контекст упрощается, акценты смещаются, а источники могут теряться или искажаться. Да, именно так и работают языковые модели. Их задача выдать наиболее усредненный вариант. При этом именно медиа продолжают нести репутационные риски, даже если читатель взаимодействует не с первоисточником, а с его синтетической версией.

Российская ИТ-пресса три десятилетия спустя

Для аудитории главный вопрос не в том, пользоваться ли ИИ. Он уже встроен в повседневные практики. Вопрос в том, как его использовать. Граница допустимого использования проходит там, где начинается доверие к готовым выводам. Факты, полученные от ИИ, требуют проверки по первоисточнику. Интерпретации и обобщения, сгенерированные моделью, не имеют редакционного статуса и не могут рассматриваться как отражение реальной общественной дискуссии. Это не аналитика и не журналистское мнение, а результат статистической генерации.

Удобство часто становится ловушкой. ИИ экономит время, но делает это за счет прозрачности. Он предлагает цельный и уверенный текст, который снижает мотивацию к проверке. Именно поэтому «удобно» не равно «достоверно». Чем проще становится доступ к информации, тем выше цена невидимых искажений, а вопрос достоверности неизбежно остается на стороне читателя.

Читайте на сайте


Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. Абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city
Музыкальные новости
Новости России
Экология в России и мире
Спорт в России и мире
Moscow.media






Топ новостей на этот час

Rss.plus





СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *