Posted 11 сентября 2018, 06:28
Published 11 сентября 2018, 06:28
Modified 7 марта, 16:30
Updated 7 марта, 16:30
Американская компания Raytheon по заказу Министерства обороны США приступила к созданию первой в своем роде нейронной сети, которая будет способна объяснить военным, почему автономный боевой робот принял то или иное решение.
Проект получил обозначение XAI (Explainable Artificial Intelligence, «Объяснимый искусственный интеллект»). В его рамках предполагается разработка нейросети, которая не будет уступать по быстродействию обычной, но при этом сможет продемонстрировать всю логическую цепочку, как и почему управляемый искусственным интеллектом боевой робот принял то или иное решение. Объяснять свои действия нейронная сеть будет при помощи графического интерфейса.
XAI разрабатывается для масштабных проектов Министерства обороны США по созданию смешанных боевых подразделений из людей и роботов. Пентагон уверен, что совсем скоро боевые роботы придут на помощь военным американской армии и даже будут способны самостоятельно принимать решения в рамках выполнения поставленных задач — например, открывать огонь по противнику.
Для эффективного взаимодействия солдат и роботов в бою важно, чтобы люди доверяли своим электронным напарникам. При этом уровень доверия существенно повысится, если роботы смогут объяснять людям, почему они принимают то или иное решение.
По мнению разработчиков системы, способные объяснить свое решение нейронные сети будут полезны не только в военном деле:
«XAI-подобные системы найдут применение не только в военных операциях, но и в ряде других случаев: в системах безопасности, промышленности и в медицине, — заявили в Raytheon. — Например, на рентгеновском снимке легкого нейросеть обнаружила признаки рака. Доктор спросит, на основании чего ИИ пришел к такому выводу, и система подсветит подозрительные тени. Тогда врач решит, что делать дальше — провести более углубленную диагностику или, скажем, списать все на артефакты рентгенографии»
Пока проект XAI находится на самой ранней стадии разработки.
Между тем, международная правозащитная организация Amnesty International призвала запретить «роботов-убийц». Правозащитники полагают, что не стоит предоставлять машинам «право принимать решения о жизни и смерти».
«Роботы-убийцы — это больше не научная фантастика. Появление наделенных искусственным интеллектом беспилотников, автоматических пушек, которые могут сами выбирать себе цели, свидетельствует о том, что технологические прорывы в области создания вооружений намного опережают развитие соответствующего международного права.
Мы постепенно скатываемся к ситуации, когда в будущем люди вообще могут быть отстранены от принятия решений о применении силы», — заявил исследователь и советник Amnesty International по вопросам искусственного интеллекта и правам человека Раши Абдул-Рахим.
Amnesty International считает, что ключевые решения в применении оружия, такие как выбор цели, должен принимать человек. Только в таком случае, по мнению правозащитников, можно обеспечить соблюдение международного права.
«Запрет полностью автономных систем вооружений может предотвратить реализацию поистине апокалиптических сценариев, например, новую высокотехнологичную гонку вооружений между мировыми сверхдержавами, которая приведет к широкомасштабному распространению автономных систем вооружений», — сказал Абдул-Рахим.
Помимо этого, в организации призвали выработать обязательные юридические стандарты для обеспечения того, чтобы люди оставались ключевым звеном при реализации «критически важных функций» автономных систем вооружений, таких как идентификация, выбор и захват целей.
Правозащитники отмечают, что за полный запрет смертоносных автономных систем вооружения выступают 26 стран мира, в том числе Австрия, Бразилия, Египет и Китай. В то же время, целый ряд ключевых государств категорически против создания подобных запретов, в том числе те страны, которые уже ведут разработки в сфере автоматических систем вооружения, — такие как Франция, Израиль, Россия, Южная Корея, США и Великобритания.
«Использование полностью автономных систем вооружений в отсутствие эффективного и пристального контроля со стороны людей несовместимо с международным законодательством в области прав человека, и может привести к незаконным убийствам, травмам и другим нарушениям прав человека», — заявили в Amnesty International.