Posted 17 апреля 2019,, 18:15

Published 17 апреля 2019,, 18:15

Modified 7 марта, 15:54

Updated 7 марта, 15:54

Робот для человека: Европа уже защищается от искусственного интеллекта

Робот для человека: Европа уже защищается от искусственного интеллекта

17 апреля 2019, 18:15
Евросоюз опубликовал черновой вариант «Директивы об этичном подходе к разработке искусственного интеллекта», Россия пока не торопится

В последние годы не только ученые, но общественность постоянно обсуждают успехи в создании так называемого искусственного интеллекта. Вот уже информационные программы на российском ТВ могут вести роботы, а скоро их посадят в банки и другие общественные заведения, чтобы они бесстрастно, но вежливо отвечали на вопросы надоедливых клиентов. Компьютеры – о ужас – уже умеют распознавать лица, чем пользуются спецслужбы в своих благих и не очень целях. Вот-вот и нейронные сети, раскинутые ушлыми программистами станут умнее нас с вами.

Ирина Зиганшина

Вот уже и сами программисты заволновались, что роботизация очень скоро дотянется и до них. По результатам исследования Pew Research Center уже более половины разработчиков компьютерных программ сообщили, что с высокой вероятностью они лично увидят, как их заменят роботами, алгоритмами или искусственным интеллектом, а их жизнь изменится к худшему.

А что уж говорить о простых смертных! Больше 80% американцев боятся потерять работу, в результате активного внедрения искусственного интеллекта! Расслоение общества усилится, новое рабство не за горами...

Так ли это серьезно?

К примеру, блогер Александр Русин считает, что все это ерунда: настоящего интеллекта во всех этих достижениях мизерная доля, а «до настоящего искусственного интеллекта сегодня - даже не как до Луны или Марса, а как до звезд, причем не самых близких...» И приводит в доказательство этому утверждению простейший пример: банальный мусор, который мы выбрасываем каждый день, который лежит на свалках, разбросан в лесах и плавает в океанах.

«Покажите мне робота, - требует Русин, - хотя бы даже опытный образец, который способен эффективно сортировать мусор - так, как это может делать человек. Железку к железке, деревяшку к деревяшке, пластиковую бутылку туда, батарейку сюда, стекло отдельно и так далее. Нет такого. Не существует! Даже в Японии таких нет на первых этажах домов есть специальное помещение, где стоит дюжина отдельных контейнеров - под стекло, под пластик, под металл, под электронику, под пищевые отходы и так далее. И сознательные японцы сами раскладывают свой мусор по этим контейнерам. А роботов, способных сортировать мусор - нет. Пока роботы не начнут бодро и эффективно разбирать накопившиеся по всему миру горы мусора - никакого искусственного интеллекта не существует. А распознавание лиц, интерактивные роботы и все прочие чудеса современных информационных технологий - это просто алгоритмы, математика. Довольно сложная, но при этом вполне формальная, к искусственному интеллекту имеющая мало отношения...» И это действительно так.

Но с другой стороны, искусственные нейросети уже оказались загадкой для тех, кто их создает. И уже сегодня программисты не могут точно сказать, как функционирует искусственный интеллект.

Об этом говорил математик, доцент ВШЭ Илья Щуров в научной программе на канале «Россия 24», том самом, где дебютировал с выпуском новостей «искусственный интеллект» Алекс.

Щуров объясняет буквально «на пальцах», что для того, чтобы человека научить играть в шахматы, нужно просто рассказать ему правила и сыграть с ним пару партий. И он научится играть, пусть и не очень хорошо, но именно играть.

А вот чтобы научить играть в шахматы компьютер, нужно сыграть с ним сотни тысяч партий, не меньше. Но при этом, компьютерная программа, или нейронные сети – до некоторой степени являются для своих разработчиков «черным ящиком», который неизвестно что выдаст.

К примеру взять программу, которая умеет регулировать движение на перекрестке - поворачивать автомобили направо или налево.

Но если нейронную сеть спросить, почему она выбрала, в какую сторону направить именно эту машину, она выдаст сотни разнообразных цифровых аргументов, доступных только специалисту. И что – вам придется поверить ей на слово?

И это действительно очень большая проблема для ученых: как сделать алгоритм работы одновременно и понятным, и эффективным, чтобы знать, почему нейронная сеть пришла к тому или иному решению.

Мы можем натренировать такой алгоритм, показывая ему видео, чтобы научить его распределять машины, но как только он столкнется с нестандартной ситуацией, которой не было во введенных в него данных, то никто в мире не скажет, как он себя поведет!!!

И это действительно большое препятствие к тому, чтобы появились нормальные автономные беспилотные автомобили. Об этом все мечтают, но похоже, окончательное решение этой задачи откладывается на неопределенный срок.

Что уж там говорить об алгоритмах, предсказывающих поведение человека! Такие появятся очень нескоро, если вообще когда-нибудь появятся.

Да даже поведение кошки невозможно предсказать.

С этой точки зрения современный искусственный интеллект очень прост, как и утверждает блогер Русин.

Вот такая получается двойственность – с одной стороны ИИ прост, с другой – очень опасен как раз в силу своей простоты.

Именно поэтому, думается, общество решило себя обезопасить от последствий непредсказуемой деятельности ИИ. Причем на государственном уровне!

Европейский Союз опубликовал черновик Директивы об этичном подходе к разработке искусственного интеллекта. В документе указывается, что ИИ должен «соблюдать закон, этические нормы и быть надежным», и все эти составляющие должны учитываться в равной степени. В случае, если какая бы то ни было из них отсутствует, общество должно немедленно добиваться исправления этого недостатка.

Директива выделяет семь основных факторов этической разработки ИИ.

«Искусственный интеллект должен создаваться в поддержку субъектности человека, а не наоборот; он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками; граждане, в свою очередь, должны иметь контроль над своими данными, и эти данные не должны использоваться для причинения им вреда.

В документе также указывается, что общественность должна иметь полное представление о том, какие работы по созданию ИИ ведутся, и что всякая разработка искусственного интеллекта должна вестись с учетом ключевой идеи: совершенствование общества и окружающей среды. Также должны учитываться справедливость и многообразие; плюс к этому должны создаваться механизмы, обеспечивающие «ответственность ИИ-систем» за результаты их работы.»

Пока что это сугубо черновая версия, которую будут изучать эксперты, а на основе их замечаний, ЕС планирует выработать набор конкретных правил, обязательных для исполнения всеми игроками рынка.

К сожалению, в России пока что даже в черновой версии ничего подобного не существует, а это означает, что пусть и простыми и незамысловатыми плодами искусственного интеллекта – как, например, технология распознавания лиц или банальное воровство персональных данных – может в своих целях воспользоваться кто угодно. Именно об этом написала недавно в ФБ общественный деятель Алена Попова:

«...Стоимость массовой слежки сильно упала, сделав доступными наши персональные данные и наше внимание. Компании начали связывать свое будущее со сбором и обработкой персональных данных. Слежка за клиентами и пользователями стала неотъемлемой частью бизнеса. Самые дорогие компании в мире сейчас генерируют прибыль именно за счет установки как можно большего числа трекеров: в сети, телефонах, домах и даже на наших телах. Чем больше бизнес знает о человеке, тем больше возможностей он получает для продажи ему товаров или услуг.

Государства тоже не отстают и развертывают системы массовой слежки. У государств другие задачи (контроль граждан и манипуляция в политических целях), но средства реализации те же. На пути как бизнеса и государства стоит право на частную жизнь, которое теперь сильно мешает.

Частная жизнь дает человеку свободу действовать без постороннего надсмотра. Быть самим собой, а не тем, кем человек хочет, чтобы его считали. Текущие законы не защищают нашу частную жизнь должным образом. Раньше это не представляло такой большой проблемы, так как не было такого спроса на персональную информацию со стороны бизнеса и государства. Теперь же такой спрос появился, а защищающих граждан законов нет. Это надо исправить и как можно быстрее...»

Европа уже исправляет, Россия как всегда плетется в арьергарде.

"