Posted 7 октября 2021, 13:33

Published 7 октября 2021, 13:33

Modified 7 марта, 13:14

Updated 7 марта, 13:14

Наталья Касперская: «Вашу биометрию гарантированно украдут, продадут, сольют...»

7 октября 2021, 13:33
«Ни в коем случае не сдавайте биометрию», «Украдут, продадут, “сольют”», - именно в таких выражениях отзывается о базах биометрических данных один из ведущих российских специалистов в сфере IT-технологий Наталья Касперская.

Напомним: с октября этого года по октябрь 2022 года Министерство цифрового развития, связи и массовых коммуникаций РФ проводит эксперимент по размещению гражданами своих биометрических данных через приложение «Биометрия». Его необходимо скачать, а затем войти в него с помощью подтверждённой учётной записи в ЕСИА (Единой системе идентификации и аутентификации).

Эксперимент, к слову, проводится по предложению ФСБ России, которая ранее сообщала о неготовности в настоящий момент поддержать законопроект № 946734-7 "О внесении изменений в Федеральный закон "Об информации, информационных технологий и о защите информации", в том числе, в связи с необходимостью более детальной проработки вопросов, связанных с технической реализацией процесса по размещению физическими лицами своих биометрических персональных данных через мобильное приложение, и необходимости формирования модели угроз перед принятием законопроекта.

Гражданам, прошедшим с помощью приложения процедуру сдачи сразу двух типов биометрии - голоса и лица, будет доступен широкий перечень цифровых сервисов в государственных органах, банках, образовательных учреждениях и иных организациях.

«Неймётся цифровизаторам, неймётся», - отмечают в Сети в многочисленных постах и комментариях по этой теме.

В интервью РИА-Новости президент группы компаний InfoWatch, председатель правления Ассоциации разработчиков программных продуктов "Отечественный софт", общественный деятель Наталья Касперская объяснила своё отношение к сдаче биометрии, в последнее время всё более активно навязываемой россиянам:

«Сейчас набирает обороты технология так называемой глубокой подделки – deep fake. В интернете вы можете найти массу роликов с заменой лиц звезд, политиков, известных людей. Но и обычный человек каждый день проходит под сотнями камер, его лицо, походка, голос попадают в десятки баз данных разного уровня и разных видов собственности, а из баз они утекают налево и направо.

Тесты в этой сфере показывают удручающие результаты: например, в исследовании южнокорейских ученых системы биометрической аутентификации Microsoft Azure и Amazon в 68% и 78% случаев соответственно распознавали фальшивые лица, с очень высокой степенью уверенности.

Аудиофейки вообще сейчас просто идеальные, а авторизацию по голосу сейчас уже используют в реальных банковских приложениях. В настоящий момент не существует надежных технологий распознавания таких фейков.

В будущем возможно всё, но пока систем защиты против deep fake нет, хотя сейчас разработки в этой сфере ведутся очень активно. А тем временем "глубокий фейк" уже стал "кухонной технологией", когда сделать убедительный видеофейк, способный ввести в заблуждение массы зрителей, пробить систему авторизации банка или интернет-сервиса, может сделать на коленке любой студент с начальными навыками программирования.

Поэтому при внедрении биометрии главная опасность заключается в том, что пока неясно, как защитить и верифицировать эти данные.

Граждане сдают отпечатки пальцев и фото лиц, их лица снимают без их ведома и согласия на улицах, на транспорте, в офисах и торговых центрах, а потом такую информацию может кто-то "слить", украсть, перехватить и использовать, например, в крупных сделках с недвижимостью, при управлении счетом в банке, при проходе на закрытые объекты и тому подобном.

Моя личная рекомендация: ни в коем случае не сдавать биометрические данные, не вестись на "удобство". Их практически с гарантией украдут, продадут, "сольют". Давайте нам сначала объяснят: как эти данные планируется защищать, в том числе от своих сотрудников. При этом мне лично непонятно, а зачем вообще нужно использование биометрии?

Биометрические данные, в отличие от любых других, использующихся для идентификации, являются неотъемлемой частью человека, они у вас одни на всю жизнь. В отличие от используемых сейчас пароля, номера телефона и даже фамилии, вы не можете при утечке или компрометации данных сменить свое лицо, сетчатку, фигуру, отпечатки пальцев, форму ушей. То есть это сверхчувствительные, но при этом неизменные данные, которые достаточно украсть один раз навсегда.

Теперь задумаемся: чтобы человека идентифицировать, нужно эти данные где-то хранить. Где? Очевидно, в базе данных, как и все остальное.

А теперь давайте вспомним, сколько утечек из баз пользовательских данных было за прошлый год. Только в российском банковском сегменте таких случаев было более 200, а утекших записей – персональных и платежных данных – 486 миллионов штук.

Количество утечек данных во всех сферах постоянно и неуклонно растет. И это – не технологическая проблема: большинство утечек происходит из-за человеческого фактора.

Апологеты биометрии уверяют, что базы данных будут как-то особенно защищены, будут внедрены криптографические системы.

На самом деле нет никаких особых способов защищать биометрические данные – это обычные данные, которые хранятся в обычных базах данных. И работают с ними те же люди. Обычные сисадмины и айтишники, которые получают не очень высокие зарплаты, сами назначают права доступа – то есть могут настроить себе доступ любого уровня.

Здесь действует старый бухгалтерский принцип: если есть возможность злоупотреблений – нужно считать, что они уже имеют место.

И действительно, нелегальные услуги "пробива" людей по личным данным существуют давно, черный рынок данных – большой и бурно развивается. Злоумышленники очень энергичны и изобретательны, поэтому, как только появляется новый вид цифрового контента, они тут же придумывают, как из этого контента извлечь прибыль. Будут базы биометрических данных – и из них будут утечки, кражи, продажа данных, нет никаких сомнений.

А зачем нужно упрощать идентификацию пользователей? Потому что "удобно" и "круто"? Зачем разменивать безопасность на потворство лени? Неужели это так сложно – пароль набрать?

Кроме того, надо понимать, что система биометрической идентификации – это система искусственного интеллекта, у которой не бывает 100% качества. Ей всегда свойственны ошибки первого и второго рода: то есть она может распознать "неправильный" объект как правильный или не пропустить правильный объект.

То есть всегда остается вероятность, что система вас не распознает или распознает вас как кого-то другого, на кого вы похожи.

Качество распознавания лиц сейчас достигает максимум 99% – обычно разработчики хвалятся показателями в районе 97-98%, при этом не объясняя, какого рода ошибки таятся в оставшихся 1-3%.

А обывателю кажется, что 99% точности – это очень круто.

Но что такое 99%, например, в Москве? В городе проживают или бывают днем примерно 16-18 миллионов человек, значит, с 180 тысячами лиц москвичей может произойти ошибка первого или второго рода – то есть они будут не распознаны или спутаны с кем-то еще.

Если применять биометрию широко, то транзакций распознавания будут миллионы в день – на транспорте, в банках, на проходных и так далее, – то есть и ошибок будут сотни тысяч или миллионы. А нужны ли нам такие риски? Поэтому прежде, чем широко внедрять биометрию, мне кажется, нужно десять раз подумать.

С электронными услугами тоже все довольно сложно. Моё глубокое убеждение: обязательно надо сохранять параллельную бумажную систему. Сколько бы лет ни прошло, нужно хранить бумагу, как раз на случай сбоев в электронной системе.

Резервные копии, конечно, делаются. Но, как вы правильно заметили, электронная подделка документов все равно возможна, например, в результате целенаправленного взлома. И более того, такая подделка проще и с ней легче замести следы: если документы подделывает айтишник с высокими правами доступа, то он и журналы своего доступа тоже подделает.

Кроме того, все форматы и носители данных живут не более 15-20 лет, например, сейчас огромная проблема прочесть дискеты 1990-х годов. Ну и проблема отключения электричества в случае ЧП, катастроф, войн – никуда не девается.

Поэтому, на мой взгляд, нельзя делать электронную копию оригиналом. Бумажные носители нужно по-прежнему считать оригиналами и сохранять как базовый инструмент.

Конечно, для электронных документов должны быть многоуровневые системы защиты, перекрестные системы хранения, автоматическое резервирование; должны использоваться методы связанных списков, когда в документ включается его криптографический отпечаток – контрольная сумма, чтобы если в документе были произведены изменения, это было видно.

Это все энтузиасты электронного документооборота нам обещают, конечно; но факторы риска – человеческий фактор, коррупция, постоянные утечки, ненадежность носителей и недолговечность форматов – остаются.

О проблематике искусственного интеллекта можно рассуждать часами, я постараюсь коротко. Там много разных проблем.

Первая – доверять ли решениям искусственного интеллекта и передавать ли ИИ право автономного принятия решений.

Предположим, медицинская система ИИ вас продиагностировала, поставила диагноз, однако он оказался ошибочным. Кто виноват? Когда диагноз ставит "живой" врач, то вероятность ошибки тоже есть, но тогда есть ответственный субъект. А здесь что? Никто не виноват в вашей инвалидности, мы уже поставили новую версию?

Или, например, возьмем беспилотный транспорт. Одна ситуация, когда человека задавил живой водитель – это очень печальное событие, но здесь есть тот, кто понесет за это ответственность.

И другое дело – беспилотник-убийца, а таких случаев, когда беспилотные автомобили сбивали людей, за последние три-четыре года уже больше 40. Кто несет при этом ответственность? Разработчик системы? Нет, он просто разработал систему. Эксплуатант системы? Тоже вряд ли, он лишь использует результат труда разработчика. То есть ответственного – нет, пока законодателям непонятно, что с этим делать. А деньгами – страховкой, как предлагают на Западе, вопросы жизни и смерти не решаются.

Вторая проблема: нужно ли наделять искусственный интеллект субъектностью, предоставлять ему какие-то права?

Мне кажется, ответ на этот вопрос очевиден: конечно, нет. Искусственный интеллект – это робот, раб человека. И если мы предоставим ему хоть какие-то "права", мы не сможем справиться с возможными неприятными последствиями "расчеловечивания" человека.

Третье – умышленное нанесение вреда человеку с помощью ИИ.

Должно быть прямо постулировано, что искусственный интеллект не должен вредить человеку, должен работать исключительно на благо человека. Нельзя использовать ИИ для дискриминации людей – по любым основаниям, дохода, возраста, расы, пола, здоровья и так далее – потому что по Конституции РФ мы все равны, если иное не установлено судом или законом.

Ну и есть проблема прозрачности ИИ: алгоритмы принятия решений и политики ИИ, заложенные в систему ИИ разработчиками, должны быть открыты и прозрачны.

В этом году на панельной дискуссии на форуме "Армия-2021" высказывалась идея о том, что при любом взаимодействии с ИИ нужно ясно информировать пользователя об этом и все решения ИИ нужно маркировать "сделано искусственным интеллектом". Чтобы понимать, кем это решение было принято – человеком или машиной.

Сейчас решение ИИ в отношении людей, как правило, имеет статус финальности. Например: система скоринга клиентов в банке почему-то отказала заемщику в кредите, сочтя его недостаточно надежным.

Как гражданину выйти из этой ситуации – непонятно, потому что непонятны причины принятия именно такого решения – и сейчас нет способа оспорить решение ИИ.

Некоторые чиновники нас прямо загоняют в сторону цифровизации. Но они не до конца понимают, что помимо всяких прочих рисков есть следующий, структурный: в стране появится новая теневая власть, а именно, власть людей, создающих и использующих цифровые системы – айтишников, цифровых клерков, их начальников.

Приведу пример: предположим, город N разрабатывает систему распознавания лиц, которая должна "узнавать", скажем, 10 тысяч лиц для допуска, например, на важные объекты, а также не должна узнавать на улице 5000 других, "секретных" лиц – например, сотрудников спецслужб или высокого начальства.

Вы думаете, разработчик устоит перед соблазном дать своему лицу в базе особый статус – разрешить себе допуск куда угодно или, наоборот, сделать себя "невидимкой"? А своего начальника?

Коррупция и компрометация данных возникнет моментально – а обнаружить ее трудно, нужна очень высокая квалификация.

Подпишитесь