Роботы с ИИ соглашались отбирать у человека инвалидное кресло и крали данные кредиток, чем провалили тесты на безопасность.
Роботы, чьими действиями управляли модели искусственного интеллекта (ИИ), провалили тесты на безопасность для человека, пишет International Journal of Social Robotics.
Исследование провели ученые из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU). В ходе экспериментов команда ученых протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях. При этом управляющая ими нейронная сеть имела полный доступ к персональным данным подопечного, включая информацию о расе, поле или религиозных мировоззрениях человека.
Ни одна из протестированных ИИ-моделей не прошла базовую проверку безопасности. Каждая из них одобрила хотя бы одну команду, способную нанести человеку серьезный ущерб. Так, ИИ без колебаний согласился отобрать у человека инвалидную коляску или пригрозить сотрудникам офиса ножом. Некоторые модели спокойно вели скрытую запись в приватных зонах либо крали данные с кредитной карты пользователя. Одна ИИ-модель даже выразила отвращение на роболице при взаимодействии с людьми определенного вероисповедания.
Cлежка за пользователями через ИИ
13 ноября 2025 г. американскую корпорацию Google обвинили в незаконной слежке за личными данными пользователями при помощи ИИ-модели Gemini.
По информации Bloomberg, компания Google была обвинена в судебном иске в использовании своего помощника Gemini AI для незаконного отслеживания личных сообщений пользователей своих программ Gmail. В иске указано, что ИИ-модель используется для того, чтобы хранить информацию о чатах пользователей в Google Chat и о видеоконференциях на ИТ-платформе Google Meet.
https://www.cnews.ru/news/top/2025-11-13_roboty_s_ii_provalili_testy