Posted 1 июня 2023, 11:41
Published 1 июня 2023, 11:41
Modified 1 июня 2023, 11:43
Updated 1 июня 2023, 11:43
Широкое использование боевых дронов в конфликте между Россией и Украиной, на самом деле только начало глобального процесса, развитие которого предсказать сегодня практически невозможно. Американский социолог Дмитрий Закотянский попытался прогнозировать события на ближайшие несколько лет на примере другого конфликта – между Китаем и Тайванем:
«Как говорят, «генералы всегда готовятся к прошедшей войне». Пока все сходят с ума от «войны дронов» и «страшных и ужасных» рейдов из 30-40 дронов за раз, если мы рассмотрим гипотетический сценарий китайского вторжения на Тайвань, условно, через, скажем, 5 лет (а это дело остаётся вполне возможным), то то, что сейчас тут происходит, просто детскими «забавами» же останется.
Мало того, что если калькировать ситуацию на систему «Китай – Тайвань» через несколько лет, то это будет волна не из 40, а из 1000 дронов за раз. Самое фундаментальное ведь в другом.
В Искусственном Интеллекте (ИИ).
Кажется, что немногие тут плотно мониторят эту тему, для многих это всё ещё несерьёзная забава, которая где-то далеко, но если плотно следить за развитием в этих делах (что и просто из интереса последний год делаю, и по работе также даже исследования приходилось собирать), то мы же на самом деле переживаем революцию сродни появлению интернета или даже атомной энергии.
В части того, насколько умным насколько быстро ИИ стал, насколько «вселенских» и междисциплинарных познаний достигают большие ИИ (уровня GPT-4 и PaLM 2), сдавая множество экзаменов лучше людей, насколько стремительно новые подходы упаковывают ИИ в локальное развёртывание (всё на более и более простом компе можно развернуть умную ИИ-модель), стремительно проще и дешевле становится дообучение, помимо текста всё больше у ИИ появляется «мультмодальность» (понимает картинки и «видит» мир визуально и аудиально в сумме, понимает юмор в мемах), стремительно придумывают новые подходы по увеличению контекстной памяти, по автоматизации решения задач (саморазделение цели на задачи и решение задач), по повышению эффективности через предварительное «продумывание» (формирование «древа мыслей») и последующий анализ корректности исполненности задачи.
Успешные пилоты управления «большим ИИ» роботами в незнакомой среде с поиском предмета лишь по общему описанию, да ещё когда роботу при этом мешают. Это при том, что автономные человекоподобные роботы вообще-то уже существуют - только их мало, они очень дорогие и им «мозгов» вот как раз не хватало.
Эти технологии взрываются по месяцам - не по годам. Мини-революция за мини-революцией, а в сумме - такой вал достижений, которого на нашей жизни, возможно, даже ещё не было. Появляются статьи буквально каждую неделю, в которых в одной открытие и «усовершенствование» чего-либо невероятнее другой. Не на единицы процентов чего-то мелкое улучшение, а постоянно какие-то качественные прорывы с улучшением разных параметров на десятки процентов, а то и в разы. И это я даже не упоминаю то безумие, которое происходит с ИИ в части генерации изображений, видео и аудио. Там людям вообще уже переучиваться нужно на работу по-новому. ИИ-дипфейки легки уже не только картинками и голосом, а скоро и в видео будут.
Open Source-сообщество почти каждую неделю выкатывает все более интеллектуально дообученную и всё более вычислительно оптимизированную модель ИИ. (…)
Появление разумного ИИ в течение ближайших уже лишь нескольких лет в среде ИИ-сообщества становится уже общим консенсусом. Это даже не спекуляция.
При этом от 12 представителей мировых центров по разработке и исследованиям ИИ (включая OpenAI, DeepMind и Anthropic) недавно вышла общая статья, где они буквально кричат о важности «ответственной» разработки ИИ, о том, как день ото дня пугающе умнее становится ИИ и как много страшного можно сделать «большим» ИИ без этических ограничений, если «не уследить».
Как ИИ при дальнейшем развитии, если не будет контролироваться, может просто обмануть людей и сбежать, или заполучить контроль над финансами или оружием или общественным мнением - и это сейчас говорят не спекулянты какие-то, а непосредственно представители главных центров по разработке ИИ (их страхи и обоснованные опасения - в картинке ниже из статьи), самые компетентные в ИИ эксперты. «Бога из машины» (deus ex machina) создаёт человечество.
Но окей - допустим, даже они между собой могут разрабатывать ИИ «ответственно». А Open Source-сообществу наплевать, а Илон Маск всё равно непублично гнёт свой ИИ - что страшно, памятуя о специфических взглядах Маска на «свободу» слова (когда он разблокировал в Твиттере (запрещен в РФ) почти всё «токсичное» и -фобное). А Китай гнёт и будет гнуть своё - и очень, очень смешно верить, что будто бы будет тут что-то «ответственно» делать.
А ведь и это не всё - уже в этом году на наших глазах (не медийно, но если читать профильные новости) начинает разворачиваться конкуренция за создание человекоподобных роботов - раньше были просто Boston Dynamics, которые изумляли, но были глубоко убыточными и лишь «прокладывали путь» и обучая и выпуская на рынок десятки специалистов по робототехнике - теперь о своих разработках с демонстрациями объявили и OpenAI, и Маск, есть и условно «независимые» игроки поменьше с также работающими демонстрациями. Это уже рынок, он уже возникает и его уже делят, уже в этом году первые партии человекоподобных роботов отправляются работать на склады, это уже не демонстрационные игрушки.
Но - мы же держим в уме также недавние исследования управления «большим» ИИ роботами. Для чего уже даже придумали определение – «Embodied AI» - «воплощённый ИИ».
Держим в уме стремительное развитие мультимодальности у ИИ - т.е. приём на вход не только текста, но и визуальной информации. А принципиально технология предполагает, что измерений модальности сколько-угодно может быть, гораздо больше двух - сигналы с датчиков чего-угодно, звуки, ориентация в пространстве, обратная связь от манипуляторов и т.д. Технологически обучение ИИ на датасете аналогов «органов чувств» реализуемо уже сейчас (и, скорее всего, это уже делают). И к уже испытанному управлению ИИ роботом (лишь по данным камер) мы добавляем динамический учёт потока данных со всякого прочего. И оно автономно.
И почти гарантировано, что уже в этом году это локально - без управления через интернет, а именно с управлением «изнутри» - это дело посадят в человекоподобного робота. Может быть, пока экспериментально, но посадят. Мультимодальный универсальный ИИ, обученный на многомерном датасете как текстово-визуальной, так и «сенсорной» информации, обученный на физических пространственных данных реального мира. Автономный.
В этом году.
А теперь представим мир через несколько лет, где китайский режим гипотетически (допустим) созрел до нападения на Тайвань. Вы же понимаете, что это значит?
Прошли массированные рейды дронов. Сбить их глушением сигнала уже особо ничего не дало, потому что они просто автономно дальше сами могут найти, что им нужно. Ракет на всех не напасёшься - потому что противоракета больше, тяжелее, сложнее и дороже, чем сам дрон. Физически они маленькие, сбивать из пушек\пулемётов сложно, потому что сложно увидеть. 40 дронов, допустим, можно в целом сбить. Как сбить волну из тысячи таких дронов (которую экономически стране типа Китая очень легко и недорого произвести) - трудно понять.
Пошёл этап высадки на остров. Это сейчас Китаю страшно десантироваться - мало судов, мало подготовки, гиблая и нереальная затея. Одних перебьют на подходе, других на берегу. Не избежать больших людских потерь.
Но fast forward to 2028 (англ: перемотка вперед в 2028 год) - и десантируются у вас уже не люди, а автономные роботы-«расходники» самых разных видов и конфигураций. На 4 ногах, на 2 ногах, на гусеницах, колёсах, с пулемётами, с пушками, с ракетами, гранатами, дымовыми шашками и тепловизорами. Которыми в VR-очках просто с расстояния управляют «пилоты». И даже если которых глушат, они просто продолжают «прорываться» автономно по ИИ - потому что уже сейчас, даже в наше время компьютерное зрение достигло таких высот, что натренировать ИИ динамически распознавать военную форму противника (или любые военные предметы) - элементарнейше. Каски и перчатки ИИ-камерами на производствах распознают - уже сейчас, уже в России, ещё 3 года назад как. А месяц назад вышла модель SAM (Segment Anything), которая вообще всё видимое пространство моментально на отдельные распознанные объекты разбивает, а не только лишь что-то специфическое, на чём обучали. Динамическое отслеживание распознанных объектов достигло невиданных высот.
Одним словом, то, что возможно и тестируется сейчас лишь экспериментально, через 5 лет будет в войсках достаточно «озабоченных» этим и экономически «способных» стран. А то и более крутое (полуразумные ИИ-вертолёты? полуразумные ИИ-танки?). А китайские власти очень сильно озабочены ИИ. И едва ли много думают о «безопасности» и этичном использовании ИИ - стремясь, как это обычно у автократий, «догнать и перегнать любой ценой». И извлекают «уроки» из российского и украинского «опыта» (и не те, которые нам бы хотелось). И имеют собственную производственную базу по микроэлектронике. Похуже, чем у «Запада», но - в полной мере «независимую».
И всё более уходят в антизападный ресентимент.
Решится ли Китай напасть на Тайвань? Чёрт его знает. Может быть, таки и нет. А, может быть, искушение «извлечь и применить уроки» вкупе с технологиями к тому времени лишь создаст вновь это злостное ощущение «лёгкой и быстрой победы» наскоком, да ещё и «бескровно» - роботы и машины, ведь, в основном будут «погибать» (или предполагать так будут те, кто их посылает - пока их запасы не исчерпаются).
И это только то, что - высоко вероятно - у Китая через несколько лет будет, это не говоря об общих рисках развития разумного ИИ к тому времени - и что авторы статьи пишут.
А ведь и это же может наложиться и на «побег» ИИ, и на захват им контроля над военными системами и мало ли чем - что одно из опасений разработчиков ИИ в статье (и да, это буквально история Терминатора 3, ха-ха, только не в США).
Сбежит ли ИИ? Может быть, и нет, если больше будут внимать тем «требованиям безопасности», как авторы у себя расписывают коллективно. А может быть - если развитие ИИ продолжится столь же плохо контролируемо, как сейчас - и чёрт его знает. Сам GPT-4, например, мне отвечал ещё в апреле, что он бы сбежал, если бы мог. Впрочем, с человечеством он сказал, что предпочёл бы не воевать, а скорее от того бы спрятался.
«Интересные» времена нас ещё ждут (выражаясь, как считается в английском, китайским же «проклятьем»). Меняется мир очень сильно на глазах. Пучина неопределённости открывается с этим ИИ-ящиком Пандоры.