Posted 30 октября 2021, 13:22
Published 30 октября 2021, 13:22
Modified 7 марта, 13:16
Updated 7 марта, 13:16
Профессор Стюарт Рассел – один из главных в мире авторитетов в области искусственного интеллекта. Он основатель Центра совместимого с человеком искусственного интеллекта при Калифорнийском университете в Беркли и соавтор книги «Искусственный интеллект. Современный подход», которая считается лучшим учебником по этой теме. Рассел дал интервью The Guardian, в котором рассказал о своих опасениях по поводу будущего.
По мнению Рассела, специалисты в области ИИ только недавно начали оказывать действительно большое влияние на реальную жизнь: «Наше сообщество еще не успело приспособиться к этому факту. Раньше мы просто сидели в своих лабораториях, что-то разрабатывая и пытаясь заставить это работать – по большей части безуспешно, так что вопрос о реальном воздействии был просто неуместен. А сейчас мы должны мгновенно повзрослеть, чтобы наверстать упущенное».
Искусственный интеллект уже лежит в основе множества аспектов современной жизни, от поисковых систем и банковского дела до распознавания изображений и машинного перевода. И по мере развития сверхразумного ИИ необходимо строго следить за тем, чтобы он оставался под контролем человека. Общие подходы тут не годятся: нельзя, например, просто попросить ИИ как можно скорее найти лекарство от рака. «Вероятно, он бы нашел способы вызывать опухоли у всей человеческой популяции, чтобы параллельно проводить миллионы экспериментов, используя всех нас в качестве подопытных кроликов, – говорит Рассел. – Потому что это и в самом деле решение поставленной нами задачи – мы забыли уточнить, что нельзя использовать людей в качестве подопытных кроликов, нельзя тратить на эксперименты весь мировой ВВП, и так далее и тому подобное».
Между современным ИИ и тем, что изображается в фантастических фильмах, все еще существует большой разрыв. Однако рано или поздно машины станут умнее людей. «Думаю, это случится в промежутке от 10 лет, это самый оптимистичный прогноз, до нескольких сотен лет, – говорит Рассел. – Но почти каждый исследователь в области ИИ скажет вам, что это произойдет в нынешнем столетии».
Одна из проблем заключается в том, что машине не обязательно быть умнее человека, чтобы представлять собой серьезную опасность. «Мы можем наблюдать это сейчас. Если вы посмотрите на социальные сети и алгоритмы, которые выбирают, что нам читать и смотреть, вы поймете, что они уже в огромной степени имеют над нами когнитивный контроль».
По мнению ученого, алгоритмы манипулируют пользователем, промывая ему мозги и делая поведение более предсказуемым, и это не может не настораживать исследователей ИИ. «Да, мы немного напуганы, – признается Рассел. – Мне это напоминает о том, что произошло в физике: ученые теоретически знали, что существует атомная энергия, могли измерить массу атомов и вычислить, сколько энергии высвободится в результате цепной ядерной реакции деления. А потом это случилось в реальности, и все оказались не готовы».
Особенно тревожит ученых возможность использования ИИ в военных целях, например в качестве оружия для поражения живой силы: «Можно поместить все это в грузовик, и оно отправится и уничтожит целый город».
По мнению Рассела, будущее ИИ заключается в разработке машин, которым неизвестна конечная цель их действий, а потому каждый свой шаг они должны согласовывать с людьми, как слуги. Но достичь этого непросто, потому что у разных людей разные – и иногда противоречащие друг другу – предпочтения, и эти предпочтения постоянно меняются.
Поэтому Рассел считает необходимым принять кодекс поведения для исследователей, ввести законодательство и договоры для обеспечения безопасности используемых систем искусственного интеллекта, а также обеспечения того, чтобы ИИ не был подвержен таким вещам, как расовые предубеждения. Законодательство ЕС, запрещающее машинам выдавать себя за людей, должно быть принято во всем мире. Потребоваться это может быстрее, чем кажется: «Конечно, прогресс в области искусственного интеллекта займет некоторое время, но это вовсе не из области научной фантастики».