Posted 3 сентября 2019, 04:02
Published 3 сентября 2019, 04:02
Modified 7 марта, 15:30
Updated 7 марта, 15:30
Системы искусственного интеллекта не должны принимать участие в контроле ядерного вооружения, отметил Уорк. Это связано с тем, что подобные ракеты запускаются по определенным параметрам и показателям, но в некоторых ситуациях ИИ может расценить неопасные факторы как представляющие угрозу, сообщают "Известия".
По словам военачальника, применение ИИ в военной сфере может привести к плачевным последствиям и без его участия в управлении ядерным оружием. Однако Уорк оговорился, что искусственный интеллект может принести пользу военным, но его применение должно быть строго ограничено. В противном случае это грозит "катастрофическими последствиями".
Ранее Центр социального проектирования "Платформа" представил первый в России (возможно и в мире) социологический опрос российских и зарубежных чат-ботов: голосовых помощников, созданных на основе искусственного интеллекта и обладающих навыками компьютерного обучения.
Пилотный проект был приурочен к прошедшему 22 августа пуску с космодрома "Байконур" человекообразного робота SkybotF-850 (FEDOR) - первой попытке использовать антропоморфные системы для освоения внеземного пространства.
Целью опроса было описания "жизненного мира", "ценностных позиций", "представлений о будущем" роботов; иными словами, набор стереотипов, который нейросеть выбирает из всего массива доступной информации, реагируя на запросы аудитории.
Через эти параметры авторы исследования стремились понять логику развития искусственного интеллекта по мере его отрыва от изначальной базы знаний, заданной разработчиками. Наиболее феноменальные результаты были достигнуты, когда социологи организовали общение чат-ботов между собой.