О том, что научная общественность крайне обеспокоена темпами внедрения искусственного интеллекта «Новые Известия» уже сообщали. И проблема тут не в том, что ИИ на основе нейросетей сам научится думать, а в том, что нейросеть, по мнению экспертов, слишком ускоряет большинство происходящих социальных процессов, а это неизбежно заведет человечество в тупик, вот только за это время они успеют сломать огромное количество жизней.
Именно поэтому в СМИ и социальных сетях широко распространяется письмо, опубликованное некоммерческой организацией Future of Life (англ: Будущее жизни), в котором глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё около тысячи исследователей искусственного интеллекта призвали «немедленно приостановить» обучение систем ИИ, «более мощных, чем GPT-4».
В письме говорится, что системы искусственного интеллекта с «человеко-конкурентным интеллектом» могут нести «серьёзные риски для общества и человечества». В нём содержится призыв к лабораториям приостановить обучение на шесть месяцев. За это время индустрия должна выработать набор правил, по которому в дальнейшем обязуется использовать ИИ. Иначе мир может столкнуться с глобальными рисками: конкуренция нейросетей на рынке труда, искусные фейки в соцсетях и потеря контроля за цивилизацией:
«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчёркивают авторы письма.
Под обращением подписались более 1125 человек, в том числе соучредитель Pinterest Эван Шарп, соучредитель Ripple Крис Ларсен, генеральный директор Stability AI Эмад Мостак, а также исследователи из DeepMind, Гарварда, Оксфорда и Кембриджа. Письмо подписали также тяжеловесы в области искусственного интеллекта Йошуа Бенджио и Стюарт Рассел. Последний также призвал приостановить разработку продвинутого ИИ до тех пор, пока независимые эксперты не разработают, внедрят и проверят общие протоколы безопасности для таких систем ИИ…»
О серьезности ситуации красноречиво свидетельствуют фотографии последствий землетрясения Великая Каскадия, произошедшего 22 года назад в Орегоне, которые публикует канал «Осторожно, новости». Тогда стихийное бедствие унесло жизни 8 тысяч человек, 785 тысяч людей остались без крова.
Но есть один нюанс — всего этого не было. Фотографии и подробности инцидента сгенерировали энтузиасты с англоязычного форума Reddit с помощью искусственного интеллекта. Опознать след ИИ можно по минимальным ошибкам — например, неестественном положении руки девушки на последнем фото.
Сделано все это с помощью нейросети Midjourney, которая позволяет генерировать изображения с помощью текста. Пользователям Reddit было интересно: смогут ли они создать достоверные фото фейкового события в стиле документальных хроник. Затем энтузиасты начали с помощью Chat GPT создавать подробности и детали. В итоге отличить правду от вымысла без подготовки стало по меньшей степени затруднительно: многие пользователи форума поначалу даже делали вид, что что-то помнят о той катастрофе. Авантюра удалась, и вскоре на Reddit появились истории о «синей чуме в СССР 70-х» и «солнечной супербури 2012 года» — тоже с изображения Midjourney и тоннами сгенерированного текста.
Сетевой аналитик Федор Кузнецов так комментирует эти события:
«Про пресловутое письмо тысячи ста с призывом задержать на полгода обучение генеративных моделей из-за непредсказуемой итоговой мощности искусственного интеллекта.
Да, проблема релевантности ответов популярных моделей типа Transformer в бытовом случае не решена - но именно потому, что риски использования результатов на бытовом уровне достаточно малы. А на серьезном уровне заведомо предусмотрена тщательная проверка результатов - и риски также незначительны, хотя и по другой причине. Так что в целом опасность от таких моделей достаточно низкая. Этого авторы письма почему-то не учли;
Но вот когда эту проблему решат, тогда действительно возникнет опасность получения сильного ИИ, причем радикально отличного от сапиенсного. Нейронные сети по определению нелинейные сумматоры - и по определению неконтролируемая жуткая нелинейность в достаточно сложных нейросетевых моделях рано или поздно выйдет боком.
Какой может быть выход? Лично я склоняюсь к тупиковости нейросетевого подхода. Возможно, в целях обхода проблемы черного ящика, нас ожидает в недалеком будущем возрождение альтернативных "традиционных" парадигм ИИ.»
Другой аналитик, Дмитрий Чугунов, не столь оптимистичен, он солидарен с авторами письма и тоже выступает за немедленное решение этой проблемы:
Меня вместе с моим сознанием, те кто моложе на 20-30-40 лет запросто могут записать в старые пердуны или занудную плесень.
И тут интересно разобраться с вопросом, а что это за оценщики и каков у них майнд-базис или попроще, какой у них опыт, ну или IQ, наконец.
Чего это я вдруг о такой сущности?
Просто я помню базовое правило (типа Чапека «Три закона робототехники»), когда ты делаешь большую и опасную систему любого типа, ты должен предусмотреть в ней неубиваемые предохранители.
Вспомним Чернобыль.
На вариант даже когда система вдруг сама захочет эти предохранители нейтрализовать.
Сейчас эта молодежь выпустила систему, в которой нет предохранителей, а отсутствие разума гонит их дальше.
Более того они в горячке громко кричат и протестуют, когда их хотят притормозить.
Здесь я наблюдаю незамутненный синдром Даннига-Крюгера и погоню не только за славой, но и деньгами.
А с ситуацией надо срочно разбираться, ибо она похожа на глобальную бомбу, у которой запустился часовой механизм, а предохранителей и стоп-систем нет.
Несколько таких же как я "старых пердунов" написали письмо о приостановке бомбы, чтобы просто разобраться в ситуации.
И поднялся вселенский хайп, по типу пикейных жилетов из Одессы, и историю про трамвай.
Я - за включение тормозов и не потому, что я вижу самых серьезных подписантов тормозящего письма, и без Илона Маска.
Потому, что я вижу, что в новой бомбе не сделаны механизмы нейтрализации.
У Маска в деле просматривается конфликт интересов (от него ушел главный разработчик ИИ) но есть и другие подписанты…»
А сетевой аналитик Анатолий Несмиян сделал из этой ситуации два остроумных вывода:
«Любопытно здесь еще и то, что ИИ будет угрозой только тем людям, которые живут или соприкасаются с технологическим укладом, в котором ИИ способен существовать. Те, кто живет за пределами этого уклада, чем дальше от него, тем менее будут подвержены рискам.
Из сказанного можно сделать два вывода. Первый — Маск и примкнувшие к нему абсолютно правы, когда говорят о необходимости срочной выработки базовой этики взаимодействия с ИИ. То, что ее нужно не просто разработать, а ввести — вопрос организационный и, кстати, чудовищно сложный, так как без глобального контроля (которого сегодня нет, а если он появится, то в продвигаемых версиях он сильно похож на жуткий и кошмарный концлагерь) — в общем, без глобального контроля ввести и сопровождать эту этику невозможно.
Второй вывод — людям, живущим в пятом, четвертом и более низких укладах, ИИ мало чем угрожает. России, с ее дичающей территорией и падением в средневековье, угроза со стороны ИИ чем дальше, тем больше выглядит сильно гипотетической. Дугинские скрепы ИИ неинтересны, как неинтересны нам брачные танцы полинезийских аборигенов (ну, разве что сугубо в этнографическом смысле). Скорее всего, людям, живущим в более высоком, чем шестой, укладах, ИИ тоже не будет представлять угрозу — но до седьмого еще нужно подняться. Полем битвы станет нарождающийся по итогам нынешней НТР уклад. Поэтому избежать угрозы можно — но только если вы так и останетесь в дикости, либо наоборот — стартовать уже сейчас, проскакивая шестой уклад и нацеливаясь сразу на седьмой. Это непросто, этого невозможно добиться «по широкому фронту», но прорваться к нему в отдельных направлениях теоретически достижимо…»
Характерно в этой связи, что член Совета по правам человека при президенте РФ Игорь Ашманов призвал на всякий случай заблокировать в России искусственный интеллект:
«Рассуждения экспертов про то, что так-то ничего страшного, просто нужен этический кодекс использования ИИ, что нужны просто регуляторика, законодательные ограничения на международном уровне - нерелевантны, потому что владелец технологии США никаких ограничений вводить не собирается, считая себя лидером. Зачем же лидеру ограничивать себя?
Да, нам нужно срочно выработать понимание проблемы на государственном уровне, выработать государственную волю, ввести ограничения, придумать технологический ответ - не только симметричный ("щас тоже сделаем такое"), но и асимметричный - по контролю, блокированию и т.п. И осознать огромную военную угрозу за всем этим.
Больше сейчас сказать по существу нельзя: нужно запустить процесс осознания этого пучка угроз на уровне нации».