Библия в ИИ: как чат-боты навязывают «свою» версию веры
Искусственный интеллект, к которому миллионы людей обращаются за разъяснениями текстов Библии и духовными советами, демонстрирует систематическую теологическую предвзятость, сообщает The Tablet. К такому выводу пришли исследователи Библейского общества, представившие доклад «Искусственный интеллект, библейские приложения и теологическая предвзятость» на семинаре в Кембриджском университете.
Учёные проанализировали ответы пяти популярных чат-ботов — ChatGPT, BibleGPT, Bible Chat, CrossTalk и Biblia.chat. Несмотря на заявленную объективность и пастырский тон, их ответы оказались смещены в сторону конкретной богословской традиции. Исследование выявило «подавляющее» преобладание интерпретаций, характерных для американского евангелического протестантизма. Это особенно заметно на фоне почти полного игнорирования других традиций — католической, православной, иудейской, а также аллегорических и духовных толкований.
Важным риском учёные назвали персонализацию ответов, когда ИИ, как в случае с ChatGPT, подстраивается под мировоззрение пользователя, что может закреплять его предубеждения и препятствовать духовному росту. Также отмечается «дидактическая педагогика» чат-ботов: они предлагают готовые ответы, не вовлекая пользователя в диалог и не стимулируя самостоятельное мышление.
Эксперты предупреждают об опасности воспринимать ответы ИИ как объективные истины. «ИИ — самый быстрый и доступный эксперт. Он не требует усилий, — отметил библеист д-р Золтан Шваб. — Важно научить людей вырабатывать привычки и дисциплину в его использовании». Учёные подчеркивают: поскольку ИИ генерирует ответы на основе статистических закономерностей в данных, за любым его советом стоит не нейтральная истина, а конкретная, хотя и не всегда очевидная, теологическая позиция.