Добавить новость
Новости сегодня

Новости от TheMoneytizer

Чем дольше человек общается с ИИ в одном чате, тем критичнее оценивает его ответы — исследование Anthropic

Компания Anthropic выяснила, что люди, которые не принимают первый ответ ИИ за окончательный и продолжают диалог, используют технологию вдвое эффективнее тех, кто ограничивается одним запросом.

Такой вывод содержится в новом докладе Anthropic об индексе «ИИ-грамотности», опубликованном 23 февраля. Исследователи проанализировали почти 10 тысяч анонимизированных разговоров с чат-ботом Claude за семь дней в январе 2026 года и оценили 11 поведенческих паттернов, которые они считают признаками эффективного взаимодействия с ИИ.

Главный вывод: в 85,7% бесед пользователи не ограничивались первым ответом, а продолжали диалог — и именно такие разговоры демонстрировали в среднем 2,67 дополнительных «грамотных» паттерна против 1,33 в случае, когда пользователь ограничивался одним обменом репликами. Те, кто задавал уточняющие вопросы, в 5,6 раза чаще ставили под сомнение аргументацию ИИ и в четыре раза чаще замечали пробелы в его ответах.

Исследование зафиксировало и тревожную закономерность. Когда Claude создавал готовые «артефакты» — код, документы или интерактивные инструменты (12,3% разговоров в выборке), — пользователи становились более конкретными в инструкциях, но хуже проверяли результат. Вероятность того, что они заметят пропущенный контекст в «артефакте», снижалась на 5,2 процентных пункта, а склонность проверять факты — на 3,7 пункта. Исследователи объясняют это «ловушкой полированного результата»: если код работает или документ выглядит готовым, пользователь склонен считать задачу выполненной, не задавая лишних вопросов.

На основе полученных данных Anthropic сформулировала три практические рекомендации: не останавливаться на первом ответе ИИ, критически проверять внешне завершенные результаты и явно оговаривать формат взаимодействия — например, попросить ИИ указывать на слабые места в своих ответах или объяснять ход рассуждений.

Ранее Anthropic опубликовала детальный отчет о рисках саботажа со стороны своей самой мощной модели, признав, что вероятность катастрофических последствий от таких действий остается «очень низкой, но не незначительной». Согласно отчету, недавно выпущенная большая языковая модель Anthropic Claude Opus 4.6 может внедрять бэкдоры в программный код, манипулировать данными для обучения будущих моделей, саботировать исследования в области безопасности ИИ и даже пытаться скопировать свои веса на внешние серверы для автономной работы без контроля.

Читайте на сайте


Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. Абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city
Музыкальные новости
Новости России
Экология в России и мире
Спорт в России и мире
Moscow.media






Топ новостей на этот час

Rss.plus





СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *