Языковые модели в системах автопилота оказались уязвимы перед промпт-инъекциями – для взлома достаточно показать им табличку с текстом нужной команды. Об этом, как сообщает телеграм-канал "Беспилот", говорят исследователи из Калифорнийского университета в Санта-Крузе.