В «Яндексе» объяснили, почему галлюцинирует «Алиса»
В интервью Радио РБК Дмитрий Масюк прокомментировал пример, который стал вирусным: пользователи спросили у «Алисы» о «свиных крылышках», и нейросеть без сомнений выдала рецепт. По словам Масюка, такие случаи выглядят как выдумка, но на самом деле модель опирается на реальные материалы, найденные в интернете.
Он объяснил, что в сети действительно есть статьи, где описаны «рецепты свиных крылышек». Это не делает ответ корректным, но показывает, что ИИ не придумал его с нуля. Масюк добавил, что добиться полного отсутствия подобных «галлюцинаций» невозможно — любая нейросеть работает со сложными и неоднородными данными.
Масюк рассказал, как устраняют ошибки в «Алисе». На этапе дообучения нейросеть «наказывают» за неточные ответы и заставляют сильнее опираться на источники. Всего в обучении три ступени: сначала модель получает очищенную выборку интернета, затем — сотни тысяч отредактированных вопросов и ответов, а на финальном этапе отдельная «нейросеть-судья» оценивает работу основной.
По словам Масюка, несмотря на отдельные странные ответы, пользователи не воспринимают подобные недочёты как серьёзную проблему. Он отметил, что люди хотят одновременно фактов и более живого общения — и нейросети пытаются сочетать эти ожидания.
Читать далее:
Вселенная внутри черной дыры: наблюдения «Уэбба» подтверждают странную гипотезу
Испытания ракеты Starship Илона Маска вновь закончились взрывом в небе
Сразу четыре похожих на Землю планеты нашли у ближайшей одиночной звезды
Обложка: коллаж «Хайтек». Фото: javi-indy | вставка «Хайтек»
The post В «Яндексе» объяснили, почему галлюцинирует «Алиса» appeared first on Хайтек.