Искусственный интеллект меняет сознание - 58% пользователей признали влияние чат-ботов на свои взгляды
Международное исследование раскрыло неожиданную роль нейросетей: 58% опрошенных заявили, что чат-боты повлияли на их убеждения. При этом 79% требуют регулирования ИИ, а треть пользователей не понимает, как алгоритмы формируют ответы
Искусственный интеллект давно перестал быть просто инструментом для поиска информации. Согласно новому международному исследованию, нейросети превратились в полноценных участников формирования общественного мнения. Опрос, проведенный среди полутора тысяч пользователей из разных стран, показал, что 58% респондентов хотя бы однажды меняли свою точку зрения под влиянием ответов, сгенерированных чат-ботами.
Эксперты отмечают парадоксальную ситуацию: люди доверяют алгоритмам, но при этом признаются, что плохо понимают принципы их работы. Только 16% опрошенных заявили о высоком уровне доверия к системам ИИ, однако 60% готовы хотя бы частично полагаться на их выводы. Эта дилемма напоминает отношение к социальным сетям: пользователи осознают недостатки платформ, но продолжают активно их использовать.
Главная опасность кроется в самой природе генеративных сетей. В отличие от традиционных поисковиков, которые выдают список ссылок для самостоятельного анализа, чат-боты предлагают готовые, уверенные ответы. Они не сомневаются, не предлагают альтернативных точек зрения и не оговариваются, если не знают точного ответа. Такой авторитетный тон создает иллюзию истины, даже когда нейросеть ошибается или оперирует устаревшими данными.
Особенно тревожным выглядит тот факт, что 32% участников исследования признались в полном непонимании того, как именно искусственный интеллект формирует свои ответы. Без этого знания пользователи не способны отличить проверенный факт от правдоподобного домысла, который нейросеть сгенерировала для заполнения пробелов.
Наибольшему влиянию подвержена аудитория 25-34 лет. Именно работающие специалисты этой возрастной группы чаще всего интегрируют ИИ в повседневные задачи и ищут с его помощью медицинские симптомы, изучают потребительские товары или исследуют политические вопросы. Со временем небольшие когнитивные искажения накапливаются и формируют устойчивые убеждения по широкому кругу вопросов - от бытовых покупок до отношения к государственным программам.
В отличие от молодых пользователей, люди старше 65 лет реже всего взаимодействуют с алгоритмами. Пятая часть пожилых респондентов вообще никогда не пользовалась чат-ботами. С одной стороны, это защищает их от цифрового влияния, с другой - делает менее подготовленными к распознаванию контента, созданного нейросетями, когда они сталкиваются с ним в новостях или при общении с родственниками.
Вопросы конфиденциальности волнуют пользователей едва ли не больше, чем точность ответов. Почти половина опрошенных (48%) обеспокоены тем, что алгоритмы могут получить доступ к личным данным и частным разговорам. Следом идет страх перед ошибками (36%) и непрозрачностью работы систем (32%).
Исследование показало, что 79% респондентов выступают за введение определенных правил работы генеративных нейросетей, причем 35% настаивают на жестком контроле со стороны государств. Это говорит о том, что общество осознает масштаб влияния технологий на массовое сознание и требует подотчетности от разработчиков.
Интересно, что более половины участников опроса (57%) также выразили обеспокоенность энергопотреблением дата-центров, обслуживающих системы ИИ. Экологическая повестка постепенно входит в публичный дискурс наравне с вопросами приватности и достоверности.
Почти каждый второй респондент хотел бы иметь возможность гибко настраивать функции нейросетей или вовсе отключать их, однако 26% столкнулись с трудностями при попытке это сделать. Автоматическая активация функций и скрытые механизмы отказа подрывают доверие и лишают пользователей контроля над тем, как технологии влияют на их мышление.
По мнению экспертов, реальное влияние искусственного интеллекта может быть значительно выше зафиксированных 58%. Эффект убеждения часто действует незаметно для сознания, формируя предпосылки и формулируя вопросы без явного осознания со стороны человека. Задавая чат-боту вопрос о климатической политике, эффективности прививок или экономических перспективах, пользователь рискует получить ответ, в котором будет отражен не столько объективный анализ данных, сколько предвзятость, заложенная в обучающих материалах.
Пока пользователи, разработчики и регуляторы только начинают осознавать масштаб проблемы. Главный вызов ближайших лет - создать системы, которые будут информировать, не навязывая точку зрения, и помогать, не подменяя собой критическое мышление человека.