Крупнейшие разработчики ИИ сравнили опасность их технологий с пандемией и ядерной войной
Лидеры разработки искусственного интеллекта — OpenAI, Google Deepmind, Anthropic и других лабораторий — предупредили, что их будущие системы могут нести смертельную опасность для человечества.
Снижение рисков, связанных с внедрением ИИ, должно стать глобальным приоритетом наряду с другими рисками социального характера, такими, как пандемия и ядерная война, говорится в заявлении некоммерческой организации Center for AI Safety (Центр безопасности ИИ).
Читать дальше...