Posted 30 марта 2023, 11:58

Published 30 марта 2023, 11:58

Modified 30 марта 2023, 12:00

Updated 30 марта 2023, 12:00

Нейросеть уже вызвала землетрясение. Ученые призвали приостановить создание ИИ

30 марта 2023, 11:58
Ведущие мировые исследователи искусственного интеллекта, включая и Илона Маска, призывают срочно прервать его разработку.

О том, что научная общественность крайне обеспокоена темпами внедрения искусственного интеллекта «Новые Известия» уже сообщали. И проблема тут не в том, что ИИ на основе нейросетей сам научится думать, а в том, что нейросеть, по мнению экспертов, слишком ускоряет большинство происходящих социальных процессов, а это неизбежно заведет человечество в тупик, вот только за это время они успеют сломать огромное количество жизней.

Именно поэтому в СМИ и социальных сетях широко распространяется письмо, опубликованное некоммерческой организацией Future of Life (англ: Будущее жизни), в котором глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё около тысячи исследователей искусственного интеллекта призвали «немедленно приостановить» обучение систем ИИ, «более мощных, чем GPT-4».

В письме говорится, что системы искусственного интеллекта с «человеко-конкурентным интеллектом» могут нести «серьёзные риски для общества и человечества». В нём содержится призыв к лабораториям приостановить обучение на шесть месяцев. За это время индустрия должна выработать набор правил, по которому в дальнейшем обязуется использовать ИИ. Иначе мир может столкнуться с глобальными рисками: конкуренция нейросетей на рынке труда, искусные фейки в соцсетях и потеря контроля за цивилизацией:

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчёркивают авторы письма.

Под обращением подписались более 1125 человек, в том числе соучредитель Pinterest Эван Шарп, соучредитель Ripple Крис Ларсен, генеральный директор Stability AI Эмад Мостак, а также исследователи из DeepMind, Гарварда, Оксфорда и Кембриджа. Письмо подписали также тяжеловесы в области искусственного интеллекта Йошуа Бенджио и Стюарт Рассел. Последний также призвал приостановить разработку продвинутого ИИ до тех пор, пока независимые эксперты не разработают, внедрят и проверят общие протоколы безопасности для таких систем ИИ…»

Правду уже не отличить от вымысла

О серьезности ситуации красноречиво свидетельствуют фотографии последствий землетрясения Великая Каскадия, произошедшего 22 года назад в Орегоне, которые публикует канал «Осторожно, новости». Тогда стихийное бедствие унесло жизни 8 тысяч человек, 785 тысяч людей остались без крова.

Но есть один нюанс — всего этого не было. Фотографии и подробности инцидента сгенерировали энтузиасты с англоязычного форума Reddit с помощью искусственного интеллекта. Опознать след ИИ можно по минимальным ошибкам — например, неестественном положении руки девушки на последнем фото.

Сделано все это с помощью нейросети Midjourney, которая позволяет генерировать изображения с помощью текста. Пользователям Reddit было интересно: смогут ли они создать достоверные фото фейкового события в стиле документальных хроник. Затем энтузиасты начали с помощью Chat GPT создавать подробности и детали. В итоге отличить правду от вымысла без подготовки стало по меньшей степени затруднительно: многие пользователи форума поначалу даже делали вид, что что-то помнят о той катастрофе. Авантюра удалась, и вскоре на Reddit появились истории о «синей чуме в СССР 70-х» и «солнечной супербури 2012 года» — тоже с изображения Midjourney и тоннами сгенерированного текста.

Нейросетевой подход не решит социальных проблем

Сетевой аналитик Федор Кузнецов так комментирует эти события:

«Про пресловутое письмо тысячи ста с призывом задержать на полгода обучение генеративных моделей из-за непредсказуемой итоговой мощности искусственного интеллекта.

  1. Интеллекта в подобных моделях хоть отбавляй - но голый интеллект без сознания и, тем более, самосознания - в целом безобиден.

Да, проблема релевантности ответов популярных моделей типа Transformer в бытовом случае не решена - но именно потому, что риски использования результатов на бытовом уровне достаточно малы. А на серьезном уровне заведомо предусмотрена тщательная проверка результатов - и риски также незначительны, хотя и по другой причине. Так что в целом опасность от таких моделей достаточно низкая. Этого авторы письма почему-то не учли;

  1. Природа сознания и самосознания в самой грубой форме уже понятна - манифест Уэстлин-Баррет в феврале 2023 тому подтверждение (я о той же модели говорил еще в 2017). Однако, перспектива реализации сколь-нибудь серьезной модели сознания/самосознания очень туманна. Нет, конечно, всяких MVP наделают сейчас тысячи - но до чего-то достойного будет еще далеко. Речь не о 5 и даже не о 10 годах. Лет 25-30, не меньше. Почему такой срок? Там основная проблема: совершенно неизвестно, сколько всего сенсоров и, соответственно, сколько уровней логической обработки сигналов от этих сенсоров достаточно для получения сознания примерно на уровне человеческого. Экспериментировать придется очень долго.

Но вот когда эту проблему решат, тогда действительно возникнет опасность получения сильного ИИ, причем радикально отличного от сапиенсного. Нейронные сети по определению нелинейные сумматоры - и по определению неконтролируемая жуткая нелинейность в достаточно сложных нейросетевых моделях рано или поздно выйдет боком.

Какой может быть выход? Лично я склоняюсь к тупиковости нейросетевого подхода. Возможно, в целях обхода проблемы черного ящика, нас ожидает в недалеком будущем возрождение альтернативных "традиционных" парадигм ИИ.»

Срочно требуются механизмы нейтрализации

Другой аналитик, Дмитрий Чугунов, не столь оптимистичен, он солидарен с авторами письма и тоже выступает за немедленное решение этой проблемы:

Меня вместе с моим сознанием, те кто моложе на 20-30-40 лет запросто могут записать в старые пердуны или занудную плесень.

И тут интересно разобраться с вопросом, а что это за оценщики и каков у них майнд-базис или попроще, какой у них опыт, ну или IQ, наконец.

Чего это я вдруг о такой сущности?

Просто я помню базовое правило (типа Чапека «Три закона робототехники»),  когда ты делаешь большую и опасную систему любого типа, ты должен предусмотреть в ней неубиваемые предохранители.

Вспомним Чернобыль.

На вариант даже когда система вдруг сама захочет эти предохранители нейтрализовать.

Сейчас эта молодежь выпустила систему, в которой нет предохранителей, а отсутствие разума гонит их дальше.

Более того они в горячке громко кричат и протестуют, когда их хотят притормозить.

Здесь я наблюдаю незамутненный синдром Даннига-Крюгера и погоню не только за славой, но и деньгами.

А с ситуацией надо срочно разбираться, ибо она похожа на глобальную бомбу, у которой запустился часовой механизм, а предохранителей и стоп-систем нет.

Несколько таких же как я "старых пердунов" написали письмо о приостановке бомбы, чтобы просто разобраться в ситуации.

И поднялся вселенский хайп, по типу пикейных жилетов из Одессы, и историю про трамвай.

Я - за включение тормозов и не потому, что я вижу самых серьезных подписантов тормозящего письма, и без Илона Маска.

Потому, что я вижу, что в новой бомбе не сделаны механизмы нейтрализации.

У Маска в деле просматривается конфликт интересов (от него ушел главный разработчик ИИ)  но есть и другие подписанты…»

России эта ситуация ничем не угрожает

А сетевой аналитик Анатолий Несмиян сделал из этой ситуации два остроумных вывода:

«Любопытно здесь еще и то, что ИИ будет угрозой только тем людям, которые живут или соприкасаются с технологическим укладом, в котором ИИ способен существовать. Те, кто живет за пределами этого уклада, чем дальше от него, тем менее будут подвержены рискам.

Из сказанного можно сделать два вывода. Первый — Маск и примкнувшие к нему абсолютно правы, когда говорят о необходимости срочной выработки базовой этики взаимодействия с ИИ. То, что ее нужно не просто разработать, а ввести — вопрос организационный и, кстати, чудовищно сложный, так как без глобального контроля (которого сегодня нет, а если он появится, то в продвигаемых версиях он сильно похож на жуткий и кошмарный концлагерь) — в общем, без глобального контроля ввести и сопровождать эту этику невозможно.

Второй вывод — людям, живущим в пятом, четвертом и более низких укладах, ИИ мало чем угрожает. России, с ее дичающей территорией и падением в средневековье, угроза со стороны ИИ чем дальше, тем больше выглядит сильно гипотетической. Дугинские скрепы ИИ неинтересны, как неинтересны нам брачные танцы полинезийских аборигенов (ну, разве что сугубо в этнографическом смысле). Скорее всего, людям, живущим в более высоком, чем шестой, укладах, ИИ тоже не будет представлять угрозу — но до седьмого еще нужно подняться. Полем битвы станет нарождающийся по итогам нынешней НТР уклад. Поэтому избежать угрозы можно — но только если вы так и останетесь в дикости, либо наоборот — стартовать уже сейчас, проскакивая шестой уклад и нацеливаясь сразу на седьмой. Это непросто, этого невозможно добиться «по широкому фронту», но прорваться к нему в отдельных направлениях теоретически достижимо…»

Характерно в этой связи, что член Совета по правам человека при президенте РФ Игорь Ашманов призвал на всякий случай заблокировать в России искусственный интеллект:

«Рассуждения экспертов про то, что так-то ничего страшного, просто нужен этический кодекс использования ИИ, что нужны просто регуляторика, законодательные ограничения на международном уровне - нерелевантны, потому что владелец технологии США никаких ограничений вводить не собирается, считая себя лидером. Зачем же лидеру ограничивать себя?

Да, нам нужно срочно выработать понимание проблемы на государственном уровне, выработать государственную волю, ввести ограничения, придумать технологический ответ - не только симметричный ("щас тоже сделаем такое"), но и асимметричный - по контролю, блокированию и т.п. И осознать огромную военную угрозу за всем этим.

Больше сейчас сказать по существу нельзя: нужно запустить процесс осознания этого пучка угроз на уровне нации».

Подпишитесь