Posted 16 сентября 2020, 09:30
Published 16 сентября 2020, 09:30
Modified 7 марта, 14:41
Updated 7 марта, 14:41
На ютуб-канале «День ТВ» он рассказал о деталях проекта «Искусственный интеллект» и утверждённой правительством концепции регулирования искусственного интеллекта и робототехники.
«Правительство Российской Федерации дало зелёный свет наступлению искусственного интеллекта на все сферы нашей жизни.
Произошло два события. Во-первых, правительственная комиссия по цифровому развитию в рамках национальной программы «Цифровая экономика» утвердила паспорт федерального проекта «Искусственный интеллект».
Но суть тут не в самих фразах, а в том, что утверждено финансирование в размере почти 37 млрд рублей. Но, понятно, что будет и дополнительное финансирование. Ещё не все министерства подписали этот документ, но ключевые уже это сделали.
Факт второй – это то, что правительство, кажется, 19 августа, утвердило концепцию регулирования искусственного интеллекта и робототехники до 2024 года. Подписаны уже соответствующие распоряжения, с ними можно ознакомиться на официальных сайтах.
Целью данной концепции объявляется совершенствование законодательства для создания благоприятных условий для развития искусственного интеллекта, робототехники, устранение барьеров и так далее.
Интересно, что документ подготовлен группой под руководством исполнительного директора Сбербанка Андрея Незнамова. Впоследствии к этой группе присоединились представители Фонда «Сколково», ведущих технологических компаний России, многие из которых, кстати, будут иметь долю от упомянутых 37 млрд рублей. И на заключительном этапе к группе примкнули представители Министерства экономического развития.
Надо с самого начала понимать, что эта концепция предложена и разрабатывается банкирами при участии бизнеса. А окончательное «добро» идёт от правительства.
Вот только нет в этом междусобойчике представителей общества, очевидно, они лишние.
И сейчас станет ясно, почему.
Группа работала над проектом больше года и я внимательно следил за тем, как менялась концепция.
И могу сказать, что она стала жёстче, чем была первоначально. Жёстче – по отношению к обычным людям, потребителям. Зато все просьбы крупного бизнеса были учтены.
…Пройдёмся по концепции и посмотрим, где заложены мины, которые непременно взорвутся. Ну, взорвутся, если мы, конечно, останемся в рамках нынешних законов, Конституции, если не будет введена цифровая диктатура и цифровой концлагерь, - тогда все вопросы будут сняты.
Итак, сначала посмотрим, что сказано про приоритеты.
Приоритетной целью регулирования отношений в сфере искусственного интеллекта и робототехники на данном этапе является стимулирование разработки, внедрения и использования данных технологий; создание систем ИИ и робототехники в доверенном, безопасном исполнении, которое будет способствовать достижению высоких темпов экономического роста. Это я перечисляю то, что написано в самой концепции.
Далее идёт повышение благосостояния и качества жизни граждан. Далее – обеспечение национальной безопасности и правопорядка, и, наконец, достижение устойчивой конкурентоспособности российской экономики, в том числе, лидирующих позиций в мире в области ИИ.
С виду всё хорошо. Подчёркивается принцип стимулирования – прежде регулирования. То есть сначала идёт развитие бизнеса, а регулирование наступает потом. Сами авторы ответят, что это такая мировая практика, но на самом деле в Европе, конечно, дело обстоит далеко не так, в Китае, пожалуй, так, в США – по-разному.
Но важны дальнейшие пункты. Регуляторное воздействие основано на риск-ориентированном подходе и предусматривает принятие ограничительных норм, в случае, если применение ИИ и робототехники несёт объективно высокий риск причинения вреда участникам общественных отношений, интересам общества и государства.
То есть здесь изначально заложено, что мы сначала применяем, а уже потом оцениваем риски. Но не сказано ничего о том, кто их будет оценивать, как, каков порядок принятия ограничений. Об этом не говорят.
Что такое риск-ориентированный подход?
Вот говорится, что он основан на оценке размера потенциального вреда указанным ценностям с учётом вероятности его наступления, по сравнению с потенциальным положительным эффектом от внедрения технологий. Ну, то есть всегда можно сказать, что потенциальный – подчеркнём это слово – именно потенциальный положительный эффект превосходит всевозможный ущерб.
Это как с вакциной: если официальные лица убеждены в том, что польза перевешивает риски, то всё в порядке. Очевидно, что данный принцип будет применяться и к искусственному интеллекту.
Далее. Документ основан на совершенно иррациональной вере в то, что бизнес сам себя будет регулировать.
Но мы прекрасно видим, как в России бизнес сам себя регулирует. Как это происходит в Норильске с загрязнением, которое надо будет долгие годы расчищать, как это происходит с очистительными заводами по всей стране, в Челябинске, Красноярске и так далее. Как это происходит с вырубкой лесов, со сбором мусора…
То есть, получается, «Сбербанк» и другие компании сами себе будут делать хуже просто для того, чтобы вам было хорошо.
Ни в какой отрасли российской индустрии так не делается, но вот здесь мы должны верить на слово – теперь уже это официальный документ – тому, что индустрия сама себя будет регулировать.
Тут подчеркивается, что нужно расширять применение инструментов сорегулирования, саморегулирования, формировать кодексы этических правил.
А эти кодексы этических правил, этот упор на саморегулирование будет создаваться и осуществляться теми людьми, которые, как я неоднократно рассказывал в предыдущих программах, вообще не верят в то, что вы имеете свободу воли, что у вас есть сознание, что с вами вообще стоит считаться больше, чем с некой «чёрной нефтью», с неким человеческим ресурсом, из которого нужно извлекать данные для переработки в системах искусственного интеллекта и дальнейшей продажи поведенческих фьючерсов и так далее.
Требуется активное вовлечение представителей компаний-разработчиков систем ИИ и робототехники в процесс разработки соответствующих нормативных правовых актов. Это цитата из документа. Это говорит о том, что сами же они себя будут разрабатывать.
Далее подчёркивается, что нужно поддерживать конкуренцию и обеспечивать равные для всех условия и возможности для применения экспериментальных правовых режимов, мер государственной поддержки, доступа к необходимым для разработки – вот это самое важное – данным из государственных и муниципальных информационных систем. Причём, оговаривается, что эти данные должны быть доступны и для малого, и для среднего бизнеса.
При этом для проформы, чтобы ни у кого не было замечаний и чтобы можно было сказать, что интересы людей соблюдены, в документе говорится, что режим правового регулирования технологий применения систем искусственного интеллекта, должен обеспечивать необходимую степень защиты прав и свобод человека и гражданина, отвечать интересам общества и государства.
Но в этих пунктах не сказано, через какие механизмы это будет происходить, как гражданин, чьи права нарушены, может поступить, куда он может пойти.
…За утверждениями концепции мы видим какой-то шаманизм, непонимание основ того, как работают системы искусственного интеллекта.
Говорится о том, что компании призываются к добросовестному информированию об основных функциональных особенностях систем ИИ, внедрению добровольной сертификации и так далее. то есть снова идёт надежда на добрую волю компаний, «Сбербанка» и так далее.
Собственно, в этой концепции в сухом остатке остаётся то, что применение этих систем находится полностью в распоряжении вот этих компаний, крупных технологических фирм, всё на их усмотрение, надежда на их добрую волю.
Не прописаны никакие механизмы на случай, если что-то пойдёт не так.
Есть некие призывы, есть некие хорошие намерения, но они никак не гарантируются, ничем не обеспечиваются и, в общем-то, самое страшное в этом не то, что какая-то группа людей разработала эту концепцию и предложила, а то, что это принято правительством Российской Федерации, это официальный документ и, как говорится, живите теперь с этим».