Ученые рассказали о пользе, опасности и перспективах искусственного интеллекта

Ученые рассказали о пользе, опасности и перспективах искусственного интеллекта

25 декабря 2023, 10:51
Искусственный интеллект (ИИ, AI) открыл перед человечеством новые возможности. Ученые Пермского Политеха объяснили, что такое нейросети, как они работают, какие перспективы открывают, чем опасен ИИ и как диалог с AI меняет мышление людей.

Александр Куманев

На эти и многие другие вопросы на примере работы ChatGPT ответила кандидат философских наук, доцент кафедры философии и права ПНИПУ, эксперт в области робототехники Елена Середкина.

ChatGPT — одна из мощнейших нейросетей, генерирующих текст, а ее последняя модель обучена более чем по 1,7 трлн параметров. Для сравнения, человеческий мозг выстраивает 100 трлн взаимосвязей. Нейросеть может использоваться как инструмент общения, поиска и получения информации в ответ практически на любые вопросы. Только она не даст ответа на запросы о противозаконной и аморальной деятельности, но что такое мораль для роботов?

Разница диалога с человеком и ИИ

Середкина отметила разницу в сути и концепции взаимодействия.

«Ключевая разница диалогов в системах „человек — человек“ и „человек — искусственный агент“ заключается в причинах, ради которых начинается беседа. В первом случае мы задаем вопрос, но не всегда ради ответа собеседника, а чтобы он сформировал собственное уникальное суждение. В этом случае процесс общения — обмен идеями», — отметила эксперт.
ИИ может использоваться как инструмент общения, так и для получения информации.
1MI

В то же время диалог с ИИ является полной противоположностью. Нейросеть генерирует правдоподобные ответы, но не утруждает себя поиском истины. Возможности AI все еще ограничены обучающими данными и алгоритмами.

Ответ нейросети может оказаться дезинформацией

Чат-бот генерирует ответы с учетом наиболее частых утверждений, распространенных среди большинства людей. В связи с этим он может выдать правдоподобный, но не правильный ответ. Нейросеть может выдать за истину субъективное мнение или дезинформацию.

Взаимодействие пользователя с ChatGPT является не беседой, а интерактивной обработкой данных по поступившему запросу. В ПНИПУ отметили, что такой диалог лишен эмоциональных, интуитивных и ассоциативных элементов, а «живое» обсуждение — творческое осмысление ситуации, которое невозможно заменить машинами.

ChatGPT в образовании: преимущества и недостатки

AI может помочь развить исследовательские навыки, открыть доступ к большому объему сведений по интересующей теме, что позволяет повысить качество написанной работы. Он может помочь с поиском идеи и новых взглядов во время мозгового штурма. Вместе с тем педагог может поставить задачу таким образом, чтобы стимулировать учащихся создавать более качественное решение, чем нейросеть. Творческий подход и конкуренция развивают креативное мышление.

AI может помочь в поиске дополнительной информации по теме урока, что позволит повысить качество написанной работы.
1MI
«Если объединить сильные стороны идей от ИИ с человеческой интуицией и мудростью, то люди могут использовать получившуюся синергию для принятия более эффективных решений», — считает доцент кафедры философии и права ПНИПУ.

В свое время психолог Джордан Петерсон отмечал, что людям, желающим научиться думать, нужно сперва научиться писать. Письмо помогает развивать критическое мышление, логику, исследовательские навыки.

«Главный негативный момент — это „академическая GPT-непорядочность“, вид обмана, когда образовательные работы выполняются с помощью ИИ, а учащиеся выдают их за свои. И здесь речь не столько о морали, сколько о том, что важные навыки не развиваются в достаточной мере», — рассказала Середкина, тем самым объяснив возможное негативное влияние ИИ на качество обучения.

Помимо неточностей и дезинформации, диалог с ChatGPT может представлять угрозу «культурной предвзятости». В связи с этим нейросеть дает необъективную оценку. В качестве примера эксперт указала, что чат-бот считает расовое оскорбление более негативным, чем убийство миллионов людей или взрыв ядерной бомбы. Он может критиковать только определенные религии, но откажется давать определение «женщине».

Стоить помнить, что ИИ дает необъективную оценку предметам и явлениям.
1MI

Режимы «пленник пещеры» и «механический оракул»

«Пленник пещеры» — режим, в котором нейросеть схожа с искусственной сущностью, повторяющей смыслы и утверждения. Название этого режима происходит от аналогии с пещерой с пленниками, которые видят лишь тени, а не настоящие формы. Обучающийся сам становится учителем и тренирует чат-бот своими запросами.

«Механический оракул» — режим, в котором нейросеть выступает как «создание», способное вести диалог с человеком и предлагать идеи. Он тренирует критическое мышление, но с учетом технических ограничений.

«Диалоги с текстовыми нейросетями — это новая реальность. Они могут прокачать наши знания и навыки, а могут лишить возможности размышлять и самостоятельно принимать решения. Как и с какой целью взаимодействовать с ИИ — решает только сам человек, он же несет ответственность за использование полученных результатов», — добавила Середкина.

«Социальный робот»

Эксперт Пермского Политеха также рассказала о проблемах этики в робототехнике и «социальных роботах» под управлением ИИ, которые взаимодействуют и общаются с человеком в социальной среде. Роботы способны поддерживать диалог, выполнять различные задачи и стать надежными помощниками, но при этом они не работают со смыслами, а опираются на шаблоны.

Возможности AI обрабатывать массивы данных в реальном времени превосходят человеческие, но искусственный интеллект может допустить ошибку при выборе. В частности, он может принять логичное и рациональное, но морально безответственное решение.

Проблема также заключается в уникальности ситуаций, когда общие утверждения не работают, из-за чего невозможно подготовить строгие инструкции. В связи с этим разработчики используют гибридный подход, выбирая сильные стороны разных этических концепций.

«В настоящее время у инженеров и программистов нет данных, чтобы хотя бы предположить о возможности появления робота с полноценной моральной агентностью. Когда это случится, мы столкнемся с более серьезными моральными вызовами. А пока роботы — это качественные помощники, которые упрощают нашу жизнь, но по-настоящему не заменят человеческого общения и тепла», — подытожила Середкина.

Нейросети становятся частью повседневной жизни

Еще весной нейросети впервые вошли в список главных тревог россиян, а уже в ноябре, согласно сведеньям Нейростата от Яндекса, около трети граждан признались, что используют ИИ для генерации текстов, изображения и других видов контента. О существовании текстовых нейросетей знают 58% жителей городов в возрасте 18-45 лет, а о нейросетях для генерации изображений — 75%.

В том же месяце Apple представила список победителей App Store Award, а трендом года в компании назвали генеративные нейросети. Портал «Грамота.ру» и Институт Пушкина назвали слово года — «нейросеть». В обоих случаях учитывалась популярность поисковых запросов.

Каждый человек лично несет ответственность за использование данных от нейросети.
1MI

Нейросети активно используют в различных сферах жизнедеятельности человека. ИИ генерирует тесты, картинки и видеоролики, но только этим дело не ограничивается.

Накануне спикер Совфеда Валентина Матвиенко заявила, что Госдума будет использовать ИИ при написании законов, но пообещала, что нейросети не будут сами писать законы в РФ. Глава совета Фонда развития цифровой экономики Герман Клименко объяснил, что AI поможет согласовывать огромный пласт актов. Он напомнил, что после принятия очередного закона нужно изменять несколько десятков других, связанных с инициативой, а искусственный интеллект легко справится с такой задачей.

«Иногда у наших депутатов спрашиваешь, как новый закон будет работать, а они говорят: „Запустим, тогда и поймем“. И последствия бывают трагическими или смешными, если что-то не согласовано. А ИИ выполняет роль умной базы данных, которая не даст совершить ошибку», — рассказал Клименко изданию «Подмосковье сегодня».

В России также создали нейросеть «Товарищ майор», которая способна вычислить владельцев анонимных тг-каналов. Член Совфеда по конституционному законодательству и госстроительству Александр Башкин в беседе с «Парламентской газетой» призвал разработать российскую нейросеть для борьбы с «антироссийским» ИИ.

#Общество #Технологии #Исследования #Нейросети #Нейросеть #Компьютер #Новости #Ученые #ChatGPT #ИИ #Россияне #Россия #Искусственный интеллект #Роботы #Интернет #Робот #Интернет-сервисы #Чат-бот
Подпишитесь