Posted 19 октября 2021, 13:41

Published 19 октября 2021, 13:41

Modified 7 марта, 13:04

Updated 7 марта, 13:04

В Стэнфорде создали роботизированную трость для слепых

19 октября 2021, 13:41
Гаджет помогает слепым и слабовидящим людям обходить препятствия – для этого используется та же технология, что и в автономных автомобилях.

Чтобы предупредить плохо видящего человека, что у него на пути находится какой-то объект, например нависающие ветви деревьев, выступающие кондиционеры или припаркованные автомобили, в современных сенсорных тростях используется ультразвук.

Сотрудники Лаборатории интеллектуальных систем Стэнфордского университета пошли дальше: они оснастили свою трость датчиком LiDAR. Технология, название которой расшифровывается как «обнаружение и определение дальности с помощью света» (Light Detection and Ranging), используется в некоторых автономных автомобилях для измерения расстояния до ближайших препятствий. Суть ее в том, что излучатель испускает световые волны, приемник получает отраженный сигнал, и на основании времени отклика опредяется расстояние до объекта. Об изобретении сообщается на сайте университета.

Моторизованное всенаправленное колесо на нижнем наконечнике поддерживает контакт с землей и мягко направляет человека, заставляя его обходить препятствия. При этом алгоритмы, созданные искусственным интеллектом, ведут пользователя к его цели, например в кафе или метро. Трость также включает GPS-навигатор, акселерометры, магнитометры и гироскопы для мониторинга положения, ориентации, скорости и направления пользователя. Весит трость менее 1,5 кг. Изготовить ее можно самостоятельно, для этого необходимо скачать бесплатные инструкции. Учитывая стоимость материалов, готовое устройство обойдется примерно в 400 долларов.

Исследователи уже протестировали прототип трости с участием добровольцев из центра для слепых и слабовидящих и обнаружили, что по сравнению со стандартной складной тростью новый гаджет позволяет передвигаться быстрее на 20%.

Результаты испытаний опубликованы в журнале Science Robotics.

Подпишитесь