Posted 5 апреля 2023,, 10:05

Published 5 апреля 2023,, 10:05

Modified 5 апреля 2023,, 10:07

Updated 5 апреля 2023,, 10:07

Врет и не краснеет: медики предостерегают от врачебных консультаций с чат-ботами

Врет и не краснеет: медики предостерегают от врачебных консультаций с чат-ботами

5 апреля 2023, 10:05
Фото: axios
Чат-ботам свойственна так называемая «галлюцинация», когда ИИ не может найти ответ и выдает вместо него собственную фантазию, которую считает правдоподобной. Если переспросить его, он будет продолжать настаивать на лживой информации, не осознавая того, что это продукт его собственного воображения.

В журнале Radiology опубликована статья медиков из Университета Мэриленда, которые проверили, насколько полезны консультации с популярным чат-ботом ChatGPT, сообщает Daily Mail. Оказалось, что они не только неполезны, но и небезопасны, поскольку нейросеть дает пользователям скудную, а иногда неверную информацию о раке.

Исследователи попросили ChatGPT ответить на 25 вопросов, связанных с рекомендациями по прохождению скрининга на рак молочной железы. Так как чат-боту свойственно всякий раз менять свои ответы, каждый вопрос задавался трижды. Затем результаты были проанализированы тремя радиологами, специализирующимся на маммографии. По их мнению, большинство ответов чат-бота – 88% – были на удивление уместными и простыми для понимания, «дополнительным преимуществом было обобщение информации в легко усваиваемой пользователем форме». ChatGPT правильно ответила на вопросы о симптомах рака молочной железы, о том, кто находится в группе риска, возрасте и рекомендациях по частоте проведения маммографии.

Но некоторые ответы оказались неточными или даже ложными. Так, например, чат-бот рекомендовал отложить маммографию на месяц-полтора после вакцинации от Covid-19, хотя уже более года действует рекомендация, в соответствии с которой женщины не должны ждать. Также ChatGPT предоставил противоречивые ответы на вопросы о риске заболеть раком молочной железы и о том, где можно пройти маммографию. Среди других недостатков эксперты отмечают то, что ответы «заметно различались» каждый раз, когда задавался один и тот же вопрос. Кроме того, даже простой поиск в Google позволял найти более исчерпывающую информацию, поскольку набор источников чат-бота был довольно узок.

ChatGPT появился в конце прошлого года, став сенсацией. Миллионы пользователей по всему миру используют его для самых разных целей, от написания школьных сочинений до поиска рекомендаций, касающихся здоровья. Компания Microsoft вложила значительные средства в разработку ПО, которое лежит в основе ChatGPT, и пытается внедрить его в свой поисковик Bing и в Office 365, куда входят программы Word, PowerPoint и Excel. При этом Microsoft признает, что ChatGPT не свободен от ошибок.

Зачастую причиной ошибок являются так называемая «галлюцинация», когда чат-бот не может найти среди загруженной информации ответ и выдает вместо него свою фантазию, которую считает правдоподобной. Если переспросить его, он будет продолжать настаивать на лживой информации, не осознавая того, что это продукт его собственного воображения. «Опыт показал, что ChatGPT иногда создает поддельные журнальные статьи или медицинские консорциумы в поддержку своих заявлений, – говорят авторы исследования. – Пациенты должны знать, что это новые, непроверенные технологии, и полагаться на советы врача, а не на ChatGPT».

"