Мы в Telegram
Добавить новость

Можно ли управлять искусственным интеллектом?

Доктор Роман Ямпольский (Roman Yampolskiy), эксперт по безопасности искусственного интеллекта, предупреждает о беспрецедентных рисках, связанных с искусственным интеллектом, в своей книге «ИИ: необъяснимое, непредсказуемое, неконтролируемое» (“AI: Unexplainable, Unpredictable, Uncontrollable”). В ходе обширного обзора Ямпольский обнаруживает отсутствие доказательств того, что ИИ можно безопасно контролировать, указывая на потенциальную возможность ИИ вызывать экзистенциальные катастрофы. Он утверждает, что присущая […]

Запись Можно ли управлять искусственным интеллектом? впервые появилась Medical Insider.

Доктор Роман Ямпольский (Roman Yampolskiy), эксперт по безопасности искусственного интеллекта, предупреждает о беспрецедентных рисках, связанных с искусственным интеллектом, в своей книге «ИИ: необъяснимое, непредсказуемое, неконтролируемое» (“AI: Unexplainable, Unpredictable, Uncontrollable”). В ходе обширного обзора Ямпольский обнаруживает отсутствие доказательств того, что ИИ можно безопасно контролировать, указывая на потенциальную возможность ИИ вызывать экзистенциальные катастрофы.

Он утверждает, что присущая системам искусственного интеллекта непредсказуемость и повышенная автономность создают серьезные проблемы для обеспечения их безопасности и соответствия человеческим ценностям. В книге подчеркивается острая необходимость расширения исследований и разработок в области мер безопасности ИИ для смягчения этих рисков, пропагандируя сбалансированный подход, отдающий приоритет человеческому контролю и пониманию.

Согласно обширному обзору, в настоящее время нет доказательств того, что ИИ можно безопасно контролировать, и без доказательств того, что ИИ можно контролировать, его не следует разрабатывать, предупреждает исследователь.

Несмотря на признание того, что проблема управления ИИ может быть одной из наиболее важных проблем, стоящих перед человечеством, она остается плохо понятой, плохо определенной и плохо исследованной, объясняет доктор Роман Ямпольский.

В своей будущей книге эксперт по безопасности ИИ Ямпольский рассматривает способы, с помощью которых ИИ может кардинально изменить общество, не всегда в нашу пользу.

Он объясняет: «Мы столкнулись с почти гарантированным событием, которое может привести к экзистенциальной катастрофе. Неудивительно, что многие считают это самой важной проблемой, с которой когда-либо сталкивалось человечество. Результатом может быть процветание или вымирание, и судьба Вселенной висит на волоске».

Неуправляемый сверхинтеллект

Доктор Ямпольский провел обширный обзор научной литературы по ИИ и заявил, что не нашел доказательств того, что ИИ можно безопасно контролировать – и даже если будет какой-то частичный контроль, его будет недостаточно.

Он объясняет: «Почему так много исследователей полагают, что проблема управления ИИ разрешима? Насколько нам известно, этому нет доказательств. Прежде чем приступить к созданию управляемого ИИ, важно показать, что проблема разрешима. Это, в сочетании со статистикой, которая показывает, что развитие сверхинтеллекта ИИ является почти гарантированным событием, показывает, что мы должны поддерживать значительные усилия по обеспечению безопасности ИИ».

Он утверждает, что наша способность создавать интеллектуальное программное обеспечение намного превосходит нашу способность контролировать или даже проверять его. После всестороннего обзора литературы он предположил, что передовые интеллектуальные системы никогда не смогут быть полностью управляемыми и поэтому всегда будут представлять определенный уровень риска, независимо от пользы, которую они приносят. Он считает, что целью сообщества ИИ должна быть минимизация такого риска при максимизации потенциальной выгоды.

Каковы препятствия?

ИИ (и сверхинтеллект) отличаются от других программ своей способностью изучать новое поведение, корректировать свою работу и действовать полуавтономно в новых ситуациях.

Одна из проблем, связанных с обеспечением безопасности ИИ, заключается в том, что возможные решения и неудачи сверхразумного существа по мере того, как оно становится более способным, бесконечны, поэтому существует бесконечное количество проблем безопасности. Просто спрогнозировать проблемы невозможно и устранить их с помощью обновлений безопасности может быть недостаточно.

В то же время, объясняет Ямпольский, ИИ не может объяснить то, что он решил, и/или мы не можем понять данное объяснение, поскольку люди недостаточно умны, чтобы понять реализованные концепции. Если мы не понимаем решений ИИ и у нас есть только «черный ящик», мы не сможем понять проблему и снизить вероятность будущих аварий.

Например, системам искусственного интеллекта уже поручено принимать решения в таких сферах, как здравоохранение, инвестирование, трудоустройство, банковское дело и безопасность, и это лишь некоторые из них. Такие системы должны быть способны объяснить, как они пришли к своим решениям, в частности, чтобы продемонстрировать, что они свободны от предвзятости.

Ямпольский объясняет: «Если мы привыкнем принимать ответы ИИ без объяснения причин, по сути, рассматривая его как систему Oracle, мы не сможем сказать, начнет ли он давать неверные или манипулятивные ответы».

Контролируя неконтролируемое

По мере увеличения возможностей ИИ его автономность также увеличивается, но наш контроль над ним уменьшается, объясняет Ямпольский, а увеличение автономности является синонимом снижения безопасности.

Например, чтобы сверхинтеллект избежал получения неточных знаний и устранить любую предвзятость своих программистов, он мог бы игнорировать все такие знания и заново открыть/доказать все с нуля, но это также устранило бы любую прочеловеческую предвзятость.

«Человечество стоит перед выбором: станем ли мы подобны младенцам, о которых заботятся, но не контролируют, или мы отказываемся от полезного опекуна, но остаемся ответственными и свободными».

Он предполагает, что можно найти точку равновесия, в которой мы пожертвуем некоторыми возможностями в обмен на некоторый контроль за счет предоставления системе определенной степени автономии.

Согласование человеческих ценностей

Одним из предложений по контролю является создание машины, которая бы точно следовала человеческим приказам, но Ямпольский указывает на возможность противоречивых приказов, неправильного толкования или злонамеренного использования.

Если бы ИИ действовал скорее как советник, он мог бы обойти проблемы с неправильной интерпретацией прямых приказов и возможностью злонамеренных приказов, но автор утверждает, что для того, чтобы ИИ был полезным советником, он должен иметь свои собственные высшие ценности.

«Большинство исследователей безопасности ИИ ищут способ привести будущий сверхинтеллект в соответствие с ценностями человечества. ИИ, ориентированный на ценности, будет предвзятым по определению, предвзятость в пользу человека, хорошая или плохая, по-прежнему остается предвзятостью. Парадокс ИИ, ориентированного на ценности, заключается в том, что человек, явно приказывающий системе ИИ что-то сделать, может получить «нет», в то время как система пытается сделать то, что на самом деле хочет человек. Человечество либо защищают, либо уважают, но не то и другое», — объясняет он.

Минимизация риска

По его словам, чтобы свести к минимуму риск ИИ, он должен быть модифицируемым с возможностью «отменить», ограниченным, прозрачным и простым для понимания на человеческом языке.

Он предлагает разделить весь ИИ на контролируемый и неконтролируемый, ничего не следует снимать с повестки дня и ограничивать моратории и даже рассматривать возможность частичного запрета на определенные типы технологий ИИ.

Вместо того, чтобы разочаровываться, автор книги заключает: «Скорее, это повод для большего числа людей копать глубже и увеличивать усилия и финансирование исследований в области безопасности ИИ. Возможно, мы никогда не добьемся 100% безопасного ИИ, но мы можем сделать ИИ более безопасным пропорционально нашим усилиям, что намного лучше, чем ничего не делать. Нам нужно использовать эту возможность с умом».

Авторы другого исследования утверждают, что искусственный интеллект предсказывает успех антидепрессанта сертралина уже через неделю.

Запись Можно ли управлять искусственным интеллектом? впервые появилась Medical Insider.

Читайте на 123ru.net


Новости 24/7 DirectAdvert - доход для вашего сайта



Частные объявления в Ямполе, в Винницкой области и в России



Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. "123 Новости" — абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Smi24.net — облегчённая версия старейшего обозревателя новостей 123ru.net. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Ямполе

Ria.city

Путин продлил срок службы директору Росфинмониторинга Чиханчину до 2025 года

Владимир Путин назначил Елену Ямпольскую советником президента по культуре

Место председателя комитета Госдумы по культуре может достаться единороссу Михаилу Романову

ЦИК назвала новых депутатов Госдумы вместо Ямпольской и Белоусова

Музыкальные новости

Помощь российских армян СВО. Поддержка тыла важна для передовой

Глава Следкома России Александр Бастрыкин вступился за полицейского, которого выживают из МВД за случайное уbийство азербайджанца

Глава Гагаузии Гуцул выразила желание снова встретиться с Путиным

Concord is skipping free-to-play and pulling a Helldivers 2 instead: $40 for the full game with all 16 heroes at launch

Новости России

Советник президента Ямпольская возглавила совет фонда "Русский мир"

ЦИК назвала новых депутатов Госдумы вместо Ямпольской и Белоусова

Генштаб: На фронті від початку доби вже 80 боєзіткнень

Госдума официально прекратила полномочия депутата Ямпольской

Экология в России и мире

Приглашенные солистки выступят в опере «Руслан и Людмила»

Можно ли прожить без музыки? Дискуссия протагонистов музыкального бизнеса

Производители кроссовок New Balance и Under Armour подали около 1000 исков к российским продавцам

Антисанитария в службах доставки: токсиколог Кутушов рассказал, почему опасно заказывать еду

Спорт в России и мире

Испанец Алькарас выиграл Открытый чемпионат Франции по теннису

Тарпищев о Медведеве и Рублеве: без травм сыграют в Париже лучше, чем в Токио

Зверев сыграет с Алькарасом в финале "Ролан Гаррос"

Глава ATP вручил Яннику Синнеру награду первой ракетки мира

Moscow.media

Сотрудники военных следственных органов Следственного комитета России по всей стране оказывают помощь подшефным детским учреждениям

Филиал № 4 ОСФР по Москве и Московской области информирует: Соцфонд выдал проактивно 3,2 млн сертификатов на материнский капитал

Российский астроном рассказал о редком солнечном событии

На петербургском стадионе за 60 млрд рублей произошел крупный пожар







Топ новостей на этот час в Ямполе и Винницкой области

Rss.plus





СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *