Добавить новость
Блог сайта «ВМЕСТЕ - легче ВСЁ»
Новости сегодня

Новости от TheMoneytizer

Рисковый искусственный интеллект. Оценка создателей и необходимость контроля

На Западе начинают задумываться об потенциальной опасности искусственного интеллекта (ИИ, AI). История началась в марте 2023 года, когда сотрудники Future of Life Institute (FLI) вместе с экспертами по ИИ - Йошуа Бенджио / Yoshua Bengio и Стюартом Расселом / Stuart Russell, а также главами нескольких специальных лабораторий, специализирующихся на создании ИИ написали открытое письмо. Оно призывало приостановить все эксперименты с искусственным интеллектом / Pause Giant AI Experiments: «Мы призываем все лаборатории искусственного интеллекта немедленно приостановить как минимум на 6 месяцев обучение систем искусственного интеллекта, более мощных, чем GPT-4». Тогда их не услышали. Разработки были продолжены и скоро то, что «получилось» выйдет на «тропу войны». Теперь опасность слишком близка, и надо срочно принимать решение, иначе будущее Земли может быстро вернуться в точку.

Той же весной Google DeepMind, Centre for the Governance of AI, Centre for Long-Term Resilience, OpenAI, University of Toronto, University of Oxford, Collective Intelligence Project, University of Cambridge, Anthropic, Université de Montréal, Mila – Quebec AI Institute, Alignment Research Center, предложили систему раннего предупреждения о экстремальных рисках, связанных с ИИ и создали их модель. В открытом письме FLI конкретики было маловато.

Она опирается на утверждении о том, что современные подходы к созданию систем искусственного интеллекта общего назначения имеют тенденцию создавать системы, обладающие как полезными, так и вредные возможностями. С этим действительно сложно поспорить. Исследователи считают, что дальнейший прогресс в разработке ИИ может привести к появлению возможностей, которые создадут экстремальные риски: военные  или манипуляционные. Объясняем, почему модель оценка имеет решающее значение для устранения экстремальных рисков. Разработчики должны уметь выявлять опасные возможности.  Но как кажется, участники этого «компьютерного» консорциума изначально сделали главную ошибку – они изучали риски ИИ на основании модели, созданной именно с его помощью. При этом оценки, сделанные на основании исследования этой модели, должны были «иметь решающее значение для информирования политиков и других заинтересованных сторон». Ситуацию можно охарактеризовать так – «пчелы против меда». Все приведенные в модели опасения ведущих организаций-разработчиков ИИ лишь отвлекают людей от реального состояния дел.

Были выведены четыре основных принципа для компаний-разработчиков ИИ, которые гарантируют:

  1. Ответственное обучение. Руководством компаний принимаются ответственные решения о том, следует ли и как обучать новые версии, у которых можно предположить риск на ранней стадии.
  2. Ответственное развертывание. Принимаются ответственные решения о том, нужно ли, когда и как развертывать потенциально рискованные модели.
  3. Прозрачность: полезная и важная информация передается заинтересованным сторонам, чтобы помочь им минимизировать потенциальные риски.
  4. Соответствующая безопасность: к созданному ИИ применяются строгие меры и системы информационной безопасности.

Все это хорошо, однако относится к частным компаниям. Но сейчас мы пришли к ситуации, когда только централизованный контроль за ИИ со стороны государства может хоть что-то гарантировать. Крупные игроки рынка заинтересованы в тотальной цифровизации, которая поможет им с помощью генеративного ИИ создавать, реализовывать и применять на людях маркетинговую политику, но и непосредственно манипулировать массовым сознанием.

Особые опасения на западе вызывает возможность применения ИИ в выборных кампаниях. В 2024 году их ну просто огромное число – они пройдут в 64 странах. Неконтролируемому ИИ будет, где развернуться. Естественно, наибольшее внимание привлекают выборы в РФ и США. Но если в нашем случае их исход понятен, то именно в США на фоне госдолга в $34 трлн, событий на границе с Мексикой и связанному с ним Texit (выход Техаса из состава Соединенных Штатов), а также затопления страны «синтетикой» от Триады исход выборов будет решаться воздействием на массы в ключевых штатах. Причем подготовленные прошлой неудачей республиканцы уже нашли противодействие «почтовому» голосованию, «мертвым душам» и круговерти BLM. Однако их использованию может помешать именно ИИ, которые будет генерировать тексты и оказывать НЛП воздействие на неокрепшие души наивных и неумных американцев. И ведь понятно, кто будет его разрабатывать – те самые компании, которые придумали для себя внутренние правила. Стоит посмотреть список участников исследования – практически все исследовательские центры принадлежат компаниям установленных глобалистов, работающих на демократов неотроцкистов.

Американское общество задает себе несколько основных вопросов:

  • Должны ли мы позволить машинам наводнить наши информационные каналы пропагандой и ложью?
  • Должны ли мы автоматизировать все работы, в том числе приносящие личностное удовлетворение?
  • Должны ли мы развивать нечеловеческий разум, который в конечном итоге может превзойти нас численностью, перехитрить и заменить нас?
  • Стоит ли нам рисковать потерей контроля над нашей цивилизацией?

Понятно, что решение этих вопросов нельзя делегировать частным компаниям - технологическим лидерам. Решение возможно через создание отдельного контролирующего разработчиков ИИ органа, однако тут всё снова завязано на политику. В тех же Штатах, создав что-то типа Drug Enforcement Administration (DEA) / Управление по борьбе с наркотиками, его руководство будет трудно отделить от политиков, засевших в Белом доме. Ещё хуже последствия создания международной контрольной организации под маской ООН. Она тут же окажется захваченой глобалистами и лишь ускорит конец света, которым нам уже грозят некоторые ИИ.

Возможный выход – контрольная организация с использованием ученых, никак не связанных с ИИ, его моделированием, разработкой и использованием в текущей работе. Причем как из «физиков», так и «лириков». Это может дать возможность реальной оценки угроз за счет ухода от конфликта интересов. Вот только как проверять самих этих людей на порочащие связи с ИИ совершенно непонятно. Так что пока мы идем дорогой из желтого кирпича туда, куда ведут благие намерения.

Дмитрий Светин специально для РИА «Катюша»

С января 2024 г. в России начал действовать новый ГОСТ Р 70949-2023 «Технологии искусственного интеллекта в образовании. Применение ИИ в научно-исследовательской деятельности. Варианты использования», который являет собой легализацию «машинного обучения» студентов с построением им персональных траекторий, а также передачу заранее запрограммированному алгоритму полного контроля над научными исследованиями. Кто такой этот искусственно созданный колосс ИИ, что с его использованием предлагается ставить эксперименты над содержанием образования и оценками полученных студентами знаний? Профильный Технический комитет 164, созданный по инициативе форсайтщиков из Российской венчурной компании и внедряющий в России ИИ во все сферы, копируя методички глобальной организации ISO, точно знает, что он делает. Давайте изучим более детально, какое применение нейросети официально нашли в наших научных университетах, и какие риски в нем содержатся. 

Выделим наиболее яркие моменты нового ГОСТ Р 70949-2023  и, по традиции, будем их комментировать.

«Область применения

Настоящий стандарт определяет варианты:

- использования технологий искусственного интеллекта (ТИИ) для решения задач, возникающих в процессе осуществления научно-исследовательской деятельности в области образования, например: в сфере педагогики, образовательного права, экономики образования, образовательного менеджмента, инноватики образования и т. д.;

- включения тематики ТИИ в содержание дисциплин для формирования специально-профессиональных компетенций их применения в ходе научной подготовки обучающихся, в том числе магистрантов и аспирантов.

Настоящий стандарт применим в организациях профессионального образования, а также в иных организациях, которые осуществляют научную и образовательную деятельность».

Итак, ИИ будут применять в том числе в сфере педагогики – то есть будут влезать в святая святых системы традиционной передачи знаний «от человека – к человеку». Кроме того, аспирантов и магистрантов теперь будут пичкать установками по необходимости обязательно использовать алгоритм нейросети в их научных изысканиях. Формировать у них «навыки 21 века», новые компетенции, так сказать – по банкстеру-трансгуманисту Герману Грефу, его соратников в ВШЭ и так дальше. 

«4.1.2 Формулировка гипотез, постановка цели и задач научного исследования в области образования

Технологии искусственного интеллекта применяют в формировании базы знаний научных работ и построении семантических связей между проблемой, гипотезой, целью, задачами научного исследования в области образования и создание на этой основе экспертной системы. Формализация терминов базы знаний позволяет, применяя ТИИ, формулировать гипотезы, цели и задачи научного исследования».

Нейросеть сама будет формулировать гипотезы, цели и задачи научного исследования. Причем, в самой чувствительной и стратегически важной для страны сфере – образования. Это не шутки, давайте еще раз вдумаемся – ставить задачи научного исследования человеку будет машина. Точнее, созданный «кем надо» алгоритм. Что это будут за исследования, к каким выводам, с помощью той же нейросети, придут в их результате – пока можно только гадать. Но налицо организация эксперимента над людьми с неизвестными последствиями, в том числе – над учеными и традиционной наукой. А опыты на людях, между прочим, запрещены Конституцией России. Разработчики ГОСТа были не в курсе?

«4.1.9 Интерпретация полученных результатов

Технологии искусственного интеллекта применяют для разработки:

- интеллектуальной системы проверки гипотез научного исследования;

- интеллектуальной системы оценки степени достижения цели и выполнения задач научного исследования».

А вот и интерпретация ИИ данных научного исследования на основании «интеллектуальной проверки». Очень удобно – сама нейросеть ставить цели, а потом она же оценивает степень их достижения при научных исследованиях. А что остается ученым/лаборантам/научным сотрудникам? Очевидно, только накачивать нейросеть «большими данными» - с остальной деятельностью она сама разберется.

«5.3 ТИИ, построенные на основе обучения с подкреплением, могут быть использованы в научно-исследовательской деятельности в образовании с целью:

- создания систем автоматического подбора вопросов обучающимся в процессе опроса;

- моделирования поведения исследуемых объектов в динамических средах;

- создания рекомендательной системы выбора обучающимся индивидуальной траектории обучения».

И конечно же авторы ГОСТа не могли обойтись без вмешательства нейросети в процесс обучения студентов/аспирантов. Пока уточняется, что система кастовой цифровой сегрегации по алгоритму – то есть «выбора индивидуальной траектории обучения» - является рекомендательной. Но в будущем цифротрансформеры намерены сделать ее основной, ведь о планах по выращиванию «служебных людей» они заявили предельно откровенно (подробно про перс. траектории и их внедрение в образование в России – читайте предыдущую аналитику «Катюши»).

«5.4 ТИИ, построенные на основе генеративного обучения, могут быть использованы в научно-исследовательской деятельности в образовании с целью:

- автоматизации генерации текстов тематических заданий и тестов обучающихся для исследований влияния содержания и формы контроля на их успеваемость».

А в этом пункте авторы ГОСТа еще раз прямо признаются, что им до сих пор неизвестно, как задания/тесты, генерируемые нейросетью, а также оценка ей же выполнения этих тестов (это будет не традиционная пятибалльная система, а рейтинговая система), будут влиять на успеваемость обучающихся. То есть они знают, что прямо сейчас пытаются легализовать эксперимент на людях. Что, напомним еще раз им и всем читателям – запрещено Конституцией. Но тут уже становится понятно, где они видали Основной закон страны...

А теперь – для полного понимания целей внедряемых ГОСТов, еще раз напомним, кто же является их автором – что это за Технический комитет164 такой вездесущий. Приводим фрагмент из материала «Катюши» от августа 2020 г.: «Искусственный интеллект в образовании, медицине, далее – везде: цифросектанты внедряют ГОСТы машинного управления людьми под чутким контролем глобалистов». 

«ТК 164 был учрежден в 2019 году по инициативе Российской венчурной компании (РВК), а также при поддержке Минпромторга и Росстандарта. РВК – один из главных государственных инвесторов проектов трансгуманистов в России, причем в начале июня мы писали о задержании силовиками ее гендиректора Александра Повалко – руководство РВК подозревается в злоупотреблении полномочиями на миллионы долларов . В ТК 164 есть подкомитет под названием «Данные» (ПК 02), работу которого курирует центр компетенций «Национальной технологической инициативы» (еще одно АНО – порождение форсайтщиков, гендиректором «Платформы НТИ 20.35» является основатель Агентства стратегических инициатив и соавтор множества печально известных форсайт-проектов, главный «смотрящий» за оцифровкой РФ при президенте – Дмитрий Песков ).

30 июля 2020 года в режиме видеоконференции состоялось второе ежегодное заседание этого самого ТК 164, в котором приняли участие более 100 представителей компаний, научно-исследовательских организаций, вузов, органов власти, ассоциаций и фондов, входящих в комитет. Основная функция Технического комитета – составлять, апробировать и лоббировать утверждение Росстандартом ГОСТов для использования ИИ во всех сферах жизнедеятельности. Об этичности и возможных печальных последствиях передачи управления людьми бездушной машине, которую запрограммировали, в большинстве случаев, на Западе, поговорим позже. Уже во втором абзаце официального отчета видеоконференции мы встречаем весьма интересное пояснение:

«ТК 164 представляет собой зеркальное отражение на национальном уровне профильного международного подкомитета ISO/IEC JTC 1 SC 42 Artificial Intelligence».

Далее дадим слово председателю ТК 164, научному сотруднику оплота цифровизаторов - Высшей школы экономики Сергею Гарбуку:

«Когда мы структурируем технический комитет, исходим из двух принципов. Принцип первый – максимальное соответствие структуре международного технического комитета (ISO/IEC JTC 1/SC 42 Artificial intelligence) < … >, потому что наш ТК является зеркальным по отношению к международному.

Второй (принцип) – максимальный охват тех отраслей, в которых нормативно-техническое регулирование искусственного интеллекта представляется наиболее важным и целесообразным, и создание соответствующих отраслевых подкомитетов. Это здравоохранение, транспорт, в будущем, возможно, безопасность», – отметил Гарбук.

«Зеркальное отражение на национальном уровне» – звучит уж слишком мудрено. Объясним простыми словами – «наш» ТК 164 обязан внедрять и прививать на российскую почву все международные стандарты цифровизаторов из глобальной структуры под названием «Объединенный технический комитет  1 ИСО/МЭК» (ISO/IEC JTC1). Это подразделение Международной организации по стандартизации (ISO) и Международной электротехнической комиссии (IEC). В структуре данного комитета действует подкомитет 42, отвечающий за ИИ. Именно он и спускает сверху своей российской ячейке в лице ТК 164 принятые международные стандарты, которые «наши» цифровизаторы должны преобразовать в российские ГОСТы. Очередное сто первое доказательство, что конкуренцией, равно как и «невероятным рывком вперед», как и чем-либо инновационно национальным в процессе «цифровой трансформации» России никогда не пахло».

Вот так международные стандарты ISO/IEC, из-за которых торчат длиннющие уши «Четвертой промышленной революции» Клауса Шваба из ВЭФ сотоварищи, внедряются в самую чувствительную социальную сферу жизнедеятельности России – в образование. Сделает ли нейросеть студентов – умнее, а науку нашу – самой передовой, побеждающей всех конкурентов? Вопрос не просто риторический – он очень наивный по сути. Все, копнувшие тему на уровне реального влияния цифры и нейросетей на образование и на живых людей, уже знают ответ на этот вопрос. На наших глазах осуществляется новый этап расчеловечивания в образовании и науке, но мы очень верим, что здравомыслящее большинство, в том числе – в университетах и НИИ – не даст планам глобалистов осуществиться.

РИА Катюша

Читайте на 123ru.net


Новости 24/7 DirectAdvert - доход для вашего сайта



Частные объявления в Вашем городе, в Вашем регионе и в России



Smi24.net — ежеминутные новости с ежедневным архивом. Только у нас — все главные новости дня без политической цензуры. "123 Новости" — абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. Smi24.net — облегчённая версия старейшего обозревателя новостей 123ru.net. Мы не навязываем Вам своё видение, мы даём Вам срез событий дня без цензуры и без купюр. Новости, какие они есть —онлайн с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии. Smi24.net — живые новости в живом эфире! Быстрый поиск от Smi24.net — это не только возможность первым узнать, но и преимущество сообщить срочные новости мгновенно на любом языке мира и быть услышанным тут же. В любую минуту Вы можете добавить свою новость - здесь.




Новости от наших партнёров в Вашем городе

Ria.city

Антонов заявил, что спросит власти США, «куда катится Америка в отношениях с РФ»

Бизнесмена Новицкого отправили под домашний арест по делу о мошенничестве

Мосгорсуд проверит законность 12-летнего приговора бывшему министру Абызову

Фасад дома 1940 года постройки на севере Москвы приведут в порядок

Музыкальные новости

Совместное заявление участников круглого стола, приуроченного ко «Дню защиты прав безвинно осужденных»

Театр и Цирк, Культура и Концерт, Россия и Дети: Учащиеся Гурульбинской школы восхитились мастерством жонглирования, игрой с хула-хупами, иллюзионистами цирка Бурятии

В Дубне сотрудники Росгвардии помогли утиному семейству перейти оживленную трассу

Сергей Собянин. Главное за день

Новости России

Бизнесмена Новицкого отправили под домашний арест по делу о мошенничестве

Собянин обратился к ветеранам Великой Отечественной войны в День памяти и скорби

Антонов заявил, что спросит власти США, «куда катится Америка в отношениях с РФ»

Мосгорсуд проверит законность 12-летнего приговора бывшему министру Абызову

Экология в России и мире

Ирина Ортман оставляет в прошлом «Всё, что было вчера».

Lemaire, коллекция menswear весна-лето 2025

Доктор Кутушов: не стоит носить кроссовки в жару

Опубликован список авиакомпаний и их цены на перелёты в Таиланд этим летом

Спорт в России и мире

«Надо чем-то жертвовать». Арина Соболенко отказалась ехать на Олимпиаду в Париже

Экс-теннисист Ольховский: россияне могут хорошо выступить на Уимблдоне

Теннисистка Самсонова вышла в финал турнира в Хертогенбосхе

Россиянка Людмила Самсонова выиграла турнир WTA в Хертогенбосе

Moscow.media

В этом году отремонтируют два моста через Ручей на трассе Югорск – Таежный в Югре

АО «Транснефть – Дружба» выполнило плановые работы на объектах в четырех регионах

BIA Technologies вошла в число ведущих интеграторов программных и аппаратных решений России

Николаю Николаевичу Дроздову сегодня исполнилось 87 лет!







Топ новостей на этот час

Rss.plus





СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *