Александр Куманев
На эти и многие другие вопросы на примере работы ChatGPT ответила кандидат философских наук, доцент кафедры философии и права ПНИПУ, эксперт в области робототехники Елена Середкина.
ChatGPT — одна из мощнейших нейросетей, генерирующих текст, а ее последняя модель обучена более чем по 1,7 трлн параметров. Для сравнения, человеческий мозг выстраивает 100 трлн взаимосвязей. Нейросеть может использоваться как инструмент общения, поиска и получения информации в ответ практически на любые вопросы. Только она не даст ответа на запросы о противозаконной и аморальной деятельности, но что такое мораль для роботов?
Середкина отметила разницу в сути и концепции взаимодействия.
«Ключевая разница диалогов в системах „человек — человек“ и „человек — искусственный агент“ заключается в причинах, ради которых начинается беседа. В первом случае мы задаем вопрос, но не всегда ради ответа собеседника, а чтобы он сформировал собственное уникальное суждение. В этом случае процесс общения — обмен идеями», — отметила эксперт.
В то же время диалог с ИИ является полной противоположностью. Нейросеть генерирует правдоподобные ответы, но не утруждает себя поиском истины. Возможности AI все еще ограничены обучающими данными и алгоритмами.
Чат-бот генерирует ответы с учетом наиболее частых утверждений, распространенных среди большинства людей. В связи с этим он может выдать правдоподобный, но не правильный ответ. Нейросеть может выдать за истину субъективное мнение или дезинформацию.
Взаимодействие пользователя с ChatGPT является не беседой, а интерактивной обработкой данных по поступившему запросу. В ПНИПУ отметили, что такой диалог лишен эмоциональных, интуитивных и ассоциативных элементов, а «живое» обсуждение — творческое осмысление ситуации, которое невозможно заменить машинами.
AI может помочь развить исследовательские навыки, открыть доступ к большому объему сведений по интересующей теме, что позволяет повысить качество написанной работы. Он может помочь с поиском идеи и новых взглядов во время мозгового штурма. Вместе с тем педагог может поставить задачу таким образом, чтобы стимулировать учащихся создавать более качественное решение, чем нейросеть. Творческий подход и конкуренция развивают креативное мышление.
«Если объединить сильные стороны идей от ИИ с человеческой интуицией и мудростью, то люди могут использовать получившуюся синергию для принятия более эффективных решений», — считает доцент кафедры философии и права ПНИПУ.
В свое время психолог Джордан Петерсон отмечал, что людям, желающим научиться думать, нужно сперва научиться писать. Письмо помогает развивать критическое мышление, логику, исследовательские навыки.
«Главный негативный момент — это „академическая GPT-непорядочность“, вид обмана, когда образовательные работы выполняются с помощью ИИ, а учащиеся выдают их за свои. И здесь речь не столько о морали, сколько о том, что важные навыки не развиваются в достаточной мере», — рассказала Середкина, тем самым объяснив возможное негативное влияние ИИ на качество обучения.
Помимо неточностей и дезинформации, диалог с ChatGPT может представлять угрозу «культурной предвзятости». В связи с этим нейросеть дает необъективную оценку. В качестве примера эксперт указала, что чат-бот считает расовое оскорбление более негативным, чем убийство миллионов людей или взрыв ядерной бомбы. Он может критиковать только определенные религии, но откажется давать определение «женщине».
«Пленник пещеры» — режим, в котором нейросеть схожа с искусственной сущностью, повторяющей смыслы и утверждения. Название этого режима происходит от аналогии с пещерой с пленниками, которые видят лишь тени, а не настоящие формы. Обучающийся сам становится учителем и тренирует чат-бот своими запросами.
«Механический оракул» — режим, в котором нейросеть выступает как «создание», способное вести диалог с человеком и предлагать идеи. Он тренирует критическое мышление, но с учетом технических ограничений.
«Диалоги с текстовыми нейросетями — это новая реальность. Они могут прокачать наши знания и навыки, а могут лишить возможности размышлять и самостоятельно принимать решения. Как и с какой целью взаимодействовать с ИИ — решает только сам человек, он же несет ответственность за использование полученных результатов», — добавила Середкина.
Эксперт Пермского Политеха также рассказала о проблемах этики в робототехнике и «социальных роботах» под управлением ИИ, которые взаимодействуют и общаются с человеком в социальной среде. Роботы способны поддерживать диалог, выполнять различные задачи и стать надежными помощниками, но при этом они не работают со смыслами, а опираются на шаблоны.
Возможности AI обрабатывать массивы данных в реальном времени превосходят человеческие, но искусственный интеллект может допустить ошибку при выборе. В частности, он может принять логичное и рациональное, но морально безответственное решение.
Проблема также заключается в уникальности ситуаций, когда общие утверждения не работают, из-за чего невозможно подготовить строгие инструкции. В связи с этим разработчики используют гибридный подход, выбирая сильные стороны разных этических концепций.
«В настоящее время у инженеров и программистов нет данных, чтобы хотя бы предположить о возможности появления робота с полноценной моральной агентностью. Когда это случится, мы столкнемся с более серьезными моральными вызовами. А пока роботы — это качественные помощники, которые упрощают нашу жизнь, но по-настоящему не заменят человеческого общения и тепла», — подытожила Середкина.
Еще весной нейросети впервые вошли в список главных тревог россиян, а уже в ноябре, согласно сведеньям Нейростата от Яндекса, около трети граждан признались, что используют ИИ для генерации текстов, изображения и других видов контента. О существовании текстовых нейросетей знают 58% жителей городов в возрасте 18-45 лет, а о нейросетях для генерации изображений — 75%.
В том же месяце Apple представила список победителей App Store Award, а трендом года в компании назвали генеративные нейросети. Портал «Грамота.ру» и Институт Пушкина назвали слово года — «нейросеть». В обоих случаях учитывалась популярность поисковых запросов.
Нейросети активно используют в различных сферах жизнедеятельности человека. ИИ генерирует тесты, картинки и видеоролики, но только этим дело не ограничивается.
Накануне спикер Совфеда Валентина Матвиенко заявила, что Госдума будет использовать ИИ при написании законов, но пообещала, что нейросети не будут сами писать законы в РФ. Глава совета Фонда развития цифровой экономики Герман Клименко объяснил, что AI поможет согласовывать огромный пласт актов. Он напомнил, что после принятия очередного закона нужно изменять несколько десятков других, связанных с инициативой, а искусственный интеллект легко справится с такой задачей.
«Иногда у наших депутатов спрашиваешь, как новый закон будет работать, а они говорят: „Запустим, тогда и поймем“. И последствия бывают трагическими или смешными, если что-то не согласовано. А ИИ выполняет роль умной базы данных, которая не даст совершить ошибку», — рассказал Клименко изданию «Подмосковье сегодня».
В России также создали нейросеть «Товарищ майор», которая способна вычислить владельцев анонимных тг-каналов. Член Совфеда по конституционному законодательству и госстроительству Александр Башкин в беседе с «Парламентской газетой» призвал разработать российскую нейросеть для борьбы с «антироссийским» ИИ.