Добавить новость
Новости сегодня

Новости от TheMoneytizer

Чим ШІ небезпечний для людства?

Чим ШІ небезпечний для людства?

Швидкий поступ штучного інтелекту змушує спеціалістів галузі та уряди країн замислюватися над питанням, чи безпечний ШІ для людства? Схоже, американські чиновники отримали відповідь і вона не надто втішна. Журнал TIME отримав ексклюзивний доступ до звіту про ризики та небезпеки ШІ, який міністерство закордонних справ США замовило близько півтора року тому. Forbes переказує головне з матеріалу.

Що допомагає українському бізнесу відштовхнутися від дна? 22 березня на «Саміті експортерів» від Forbes топкомпанії поділяться інструментами та прогнозами з розвитку експорту. Спікери з «Метінвест», Kernel, Nemiroff, «Біосфери» та інших. Купуйте квитки за посиланням.

Американський журнал TIME зміг одним із перших ознайомитися з унікальним звітом під назвою «План дій для збільшення безпеки ШІ». Цей документ на 247 сторінок створила компанія Gladstone AI на замовлення міністерства закордонних справ США за федеральним контрактом вартістю $250 000. Штат Gladstone AI – чотири особи, й вона регулярно проводить брифінги про ШІ для урядових чиновників США. 

У рамках дослідження для звіту, яке стартувало у листопаді 2022 року, троє його авторів поспілкувалися більш ніж з 200 урядовими співробітниками, експертами та працівниками провідних ШІ-компаній: OpenAI, Google DeepMind, Anthropic і Meta. TIME зазначає, що деякі розмови дослідників вказують на те, що багато співробітників лабораторій, які займаються питанням безпеки ШІ, занепокоєні неправильними стимулами, які впливають на ухвалення рішень керівниками їхніх компаній.

Якщо американський уряд вирішить дослухатися до рекомендацій авторів дослідження для зменшення ризиків і небезпек ШІ, це може радикально змінити всю роботу ШІ-індустрії. 

Серед головних рекомендацій можна виокремити такі:

  • формування Федерального агентства з питань ШІ, яке визначатиме максимально допустимий рівень обчислювальної потужності для навчання ШІ-моделей і видаватиме дозволи компаніям на застосування того чи іншого рівня обчислювальної потужності;
  • ухвалення закону, що забороняє публічно розкривати особливості функціонування потужних ШІ-моделей, порушення якого має каратися увʼязненням. Тобто дослідники пропонують заборонити ШІ-системи із відкритим вихідним кодом (open-source);
  • посилення контролю за виробництвом й експортом ШІ-чипів;
  • спрямування федерального фінансування на дослідження, які займаються безпекою ШІ.

Американський уряд повинен «швидко і рішуче» діяти, аби відвернути значні ризики для нацбезпеки, які становить ШІ. 

«За найгіршого сценарію ШІ може становити для людства загрозу рівня вимирання, – йдеться у звіті, який було опубліковано у понеділок, 11 березня. – Поточний розвиток ШІ становить нагальні й дедалі більші загрози для національної безпеки. Поступ просунутого ШІ та загального штучного інтелекту має потенціал до дестабілізації світової безпеки, як це свого часу зробила поява ядерної зброї».

Загального штучного інтелекту поки що не існує, але провідні ШІ-лабораторії активно займаються його розробкою. Багато експертів вважає, що він може зʼявитися впродовж наступних пʼяти років. 

Дослідники, які розробили звіт для уряду, вважають, що федеральне обмеження тренувальних потужностей ШІ-систем може «вгамувати змагання між ШІ-лабораторіями» й уповільнити виробництво потужніших чипів та обладнання. Із часом, пропонується у звіті, Федеральне агентство з питань ШІ може підняти верхню межу обчислювальної потужності для тренування ШІ, якщо побачить докази того, що провідні ШІ-моделі справді безпечні. Або, навпаки, опустити межу, якщо є підтвердження небезпеки. 

Уряд США навряд чи зробить незаконним тренування ШІ вище певного рівня обчислювальної потужності, як це пропонують укладачі звіту, каже Ґреґ Аллен, головний ШІ-спеціаліст у Центрі стратегічних і міжнародних досліджень. Більше відкритості та дотримання вимог регуляторів – так, але тюремний термін за надто розвинену ШІ-модель – дуже малоймовірно, каже Аллен.

Небезпеки й ризики ШІ

Опрацювавши звіт, TIME виявив дві категорії ризиків штучного інтелекту, на яких зосереджуються дослідники:

  1. Ризик вепонізації. «Такі системи потенційно можуть використовувати для розробки й навіть запуску катастрофічних біологічних, хімічних чи цифрових атак або зробити можливим безпрецедентне застосування групи роботизованих пристроїв як зброї». 
  2. Ризик втрати контролю. «Існують причини припускати, що ШІ-системи можуть стати неконтрольованими, якщо їх розвивати за допомогою сучасних технік, і поводитися вороже щодо людей за замовчуванням».

Обидві категорії ризиків посилює «динаміка змагання» в індустрії ШІ, зазначають дослідники. Ймовірність того, що перша компанія-розробник загального штучного інтелекту отримає всі супутні економічні переваги, змушує ШІ-лабораторії ставити у пріоритет швидкість, а не безпеку. 

«У ШІ-компаній немає зацікавленості інвестувати в заходи безпеки, які не приносять безпосередні економічні переваги, хоча дехто це робить через щире занепокоєння», – цитує звіт TIME.

Дослідники вважають обладнання, а саме компʼютерні чипи останнього покоління для тренування ШІ-систем, найбільшою перешкодою для збільшення можливостей штучного інтелекту. Встановлення правил щодо поширення цього обладнання може бути «найважливішою умовою збереження довгострокової світової безпеки від ШІ». 

У звіті зазначено, що уряду США варто розглянути можливість повʼязати надання ліцензій на експорт чипів з обовʼязковою наявністю у них технології відстеження їхнього застосування в ШІ-системах. Таким чином американський уряд зможе контролювати наявність систем, більших за GPT-4. Але дослідники попереджають, що зависокий рівень контролю може сприяти розквіту іноземних напівпровідникових індустрій, що зменшить можливість США впливати на дотичний до ШІ ланцюг постачання.

Дослідники визнали у розмові з виданням, що їхні рекомендації ШІ-індустрії можуть здатися надто жорсткими, особливо у пункті кримінального покарання за відкриті ШІ-системи чи надмірний рівень розвитку ШІ. Дослідники намагалися знайти альтернативу такому суворому заходу, але не знайшли, каже Едуар Гарріс, технологічний директор Gladstone AI – укладача звіту.

ШІ-спеціаліст Ґреґ Аллен розуміє, що відкритість ШІ-систем дуже ускладнює законотворцям управління ризиками цієї нової технології. Але він пояснює фактичну марність запровадження Штатами тюремного покарання за відкритий код ШІ, адже американські закони мають цілком обмежену юрисдикцію і розробники просто переїдуть туди, де система законів США не буде чинною.

Автори звіту були збентежені тим, як легко і дешево користувачі сьогодні можуть вимкнути заходи безпеки в ШІ-моделях, якщо у них є доступ до коду. 

«Модель із відкритим кодом, що має вигляд безпечної, надалі може виявитися небезпечною, – попереджає Едуар Гарріс, додавши, що відкритий код ШІ-моделі закрити вже неможливо. – Залишається лише приймати заподіяну шкоду».

Источник

Читайте на 123ru.net


Новости 24/7 DirectAdvert - доход для вашего сайта



Частные объявления в Вашем городе, в Вашем регионе и в России



Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. "123 Новости" — абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Smi24.net — облегчённая версия старейшего обозревателя новостей 123ru.net. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city

Мошенники предлагают ростовским "абитуриентам" купить бюджетное место в вузах

Зачем России слабый рубль?  

На заимке у Агафьи Лыковой: Вот, как живет самая знаменитая и загадочная отшельница России

Более 500 велопарковок оборудовали в Москве в 2024 году

Музыкальные новости

Уникальные места России. Военно-патриотический комплекс “Патриот” — одна из достопримечательностей Каменска-Шахтинского

В АО «Транснефть – Дружба» завершились соревнования добровольных пожарных дружин

Космос – Динамо Владивосток где смотреть матч, во сколько прямая трансляция, время начала игры Вторая Лига 25 июня

Связанных с Пригожиным медиаменеджеров задержали накануне годовщины мятежа ЧВК "Вагнер"

Новости России

Трогательное видео: в Московском зоопарке родились малыши капибар

Зачем России слабый рубль?  

Расстояние больше не помеха - "Белые лебеди" получили новейшую дальнобойную ракету Х-БД

Миссия России: Семеро россиян умерли во время хаджа «по естественным причинам»

Экология в России и мире

Культурное лето с Dhawa Ihuru

Опубликован список авиакомпаний и их цены на перелёты в Таиланд этим летом

В Красноярском крае будут судить азербайджанца, который в 2006 году избил и изнасиловал певицу

Пьяный гражданин Азербайджана из Тулы поехал в гости к брату и открыл стрельбу в Кургане

Спорт в России и мире

Потапова вышла в ¼ финала теннисного турнира в Бирмингеме

Путинцева в Бирмингеме завоевала третий титул WTA в карьере

Тарпищев: У Рублева есть сложности со здоровьем, но он хочет сыграть на Уимблдоне

Хуркач о реванше со Зверевым: «В голове сидел тот матч в финале United Cup»

Moscow.media

Новый рекорд России: медитация Relax FM объединила 1699 человек

Юные таланты под эгидой Фонда Спивакова дали концерт в «Михайловском»

Врач предупредил о смертельной опасности спорта после застолья

BIA Technologies вошла в число ведущих интеграторов программных и аппаратных решений России







Топ новостей на этот час

Rss.plus





СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *