Добавить новость
Новости сегодня

Новости от TheMoneytizer

Пост №6270315

Автор: Mind's I

Anthropic отказались от обещания приостановить обучение ИИ из соображений безопасности

Anthropic, компания, создававшая искусственный интеллект Claude и строившая свой бренд на принципах безопасности прежде всего, отказалась от центрального обязательства своей Политики ответственного масштабирования — обещания никогда не обучать системы ИИ без заранее гарантированных адекватных мер безопасности

Разногласия по поводу безопасности ИИ стали причиной ухода из OpenAI директора Anthropic Дарио Амодея и основания собственной компании. Безопасность Anthropic ставили во главу угла, но теперь дали заднюю. Спустя менее суток после того, как Пентагон поставил компании ультиматум: до пятницы предоставить ИИ для неограниченного военного использования или лишиться контракта и быть признанной "риском для цепочки поставок" — статус, который обычно присваивается иностранным противникам. OpenAI, Google и xAI такое разрешение уже предоставили, у них тоже контракты с Пентагоном.

Главный научный директор Джаред Каплан, курирующий политику безопасности, заявил, что компания больше не считает, что она служит своей цели. "Мы пришли к выводу, что никому не будет пользы, если мы прекратим обучение ИИ-моделей", — сказал Каплан. "Мы действительно не считали, учитывая стремительное развитие ИИ, что для нас имеет смысл брать на себя односторонние обязательства, когда конкуренты рвутся вперед".

Новая версия политики, единогласно одобренная Амодеем и советом директоров Anthropic, гласит: "Если один разработчик ИИ приостановит разработку для внедрения мер безопасности, в то время как другие продолжат обучать и развёртывать ИИ-системы без серьёзных мер защиты, это может привести к миру, который будет менее безопасным".

Согласно пересмотренной политике, Anthropic обязуется соответствовать или превосходить усилия конкурентов в области безопасности и обещает приостанавливать разработку ИИ только в том случае, если руководство компании считает, что Anthropic является лидером отрасли и оценивает риски катастрофы как существенные. Компания также планирует регулярно публиковать так называемые "Дорожные карты безопасности передовых технологий" — документы, описывающие будущие цели в области безопасности, — и будет предоставлять дополнительные сведения о результатах тестирования безопасности своих моделей.

Каплан представил это изменение как прагматичный шаг, а не отступление. "Если все наши конкуренты прозрачно поступают правильно в отношении катастрофических рисков, мы обязуемся делать так же хорошо или лучше, — сказал он. — Но мы не считаем целесообразным прекращать участие в исследованиях ИИ в ситуации, когда другие продолжают двигаться вперёд, а мы на самом деле не вносим никакого дополнительного риска в экосистему".

Развернуть

Комментировать

Читайте на сайте


Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. Абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city
Музыкальные новости
Новости России
Экология в России и мире
Спорт в России и мире
Moscow.media






Топ новостей на этот час

Rss.plus





СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *