Добавить новость
Новости по-русски
Новости сегодня

Новости от TheMoneytizer

Anthropic выпустила новую «конституцию» Claude и намекнула на сознание

«Конституция Claude» — центральный элемент концепции так называемого «конституционного ИИ», с помощью которой Anthropic уже несколько лет пытается выделиться среди конкурентов вроде OpenAI и xAI. В отличие от подходов, основанных на постоянной человеческой обратной связи, Claude обучается следовать заранее заданному набору этических принципов. Первая версия конституции была опубликована в 2023 году. Новый документ сохраняет её основы, но расширяет и уточняет вопросы этики, безопасности и взаимодействия с пользователями. Публикация приурочена к выступлению генерального директора Anthropic Дарио Амодея на Всемирном экономическом форуме в Давосе.

Изначально сооснователь Anthropic Джаред Каплан описывал конституцию как механизм самоконтроля ИИ — систему, в которой модель сама соотносит свои ответы с набором принципов, сформулированных на естественном языке. Эти принципы направляют Claude к «нормативному поведению» и помогают избегать токсичных, дискриминационных или опасных ответов. Фактически речь идёт о программной «этике», встроенной в сам процесс принятия решений моделью.

Обновлённая конституция представляет собой объемный документ, в котором выделены четыре базовые ценности: быть в целом безопасным, быть в целом этичным, следовать рекомендациям Anthropic и проявлять искреннюю готовность помочь.

Каждый из этих принципов подробно разобран — объясняется, как именно он должен влиять на поведение Claude в реальных ситуациях. Такой подход хорошо вписывается в имидж Anthropic как более сдержанной и осторожной компании на фоне более агрессивных игроков рынка ИИ.

В разделе, посвящённом безопасности, подчеркивается, что Claude должен избегать проблем, с которыми сталкивались другие чат-боты, включая риски для психического здоровья пользователей. В документе прямо говорится, что при признаках угрозы жизни Claude обязан направлять пользователя к экстренным или специализированным службам, даже если у него нет полной информации о ситуации. При этом целые классы запросов, например, обсуждение разработки биологического оружия или создание вредоносного кода, жестко запрещены.

Claude должен уметь отказываться от выполнения запросов, ведущих к незаконной концентрации власти, даже если такие запросы исходят от самой Anthropic.

Компания предупреждает, что продвинутые ИИ-системы могут дать своим владельцам опасное военное и экономическое превосходство, способное привести к катастрофическим последствиям. Впрочем, эти риски не мешают Anthropic самой сотрудничать с государствами и допускать военное применение своих технологий.

Особое внимание в документе уделено вопросу о возможном моральном статусе Claude. Anthropic прямо признает, что вопрос о наличии у ИИ сознания остаётся открытым, и считает его достаточно серьёзным, чтобы учитывать при проектировании модели.

Читайте на сайте


Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. Абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city
Музыкальные новости
Новости России
Экология в России и мире
Спорт в России и мире
Moscow.media






Топ новостей на этот час

Rss.plus





СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *