Главная
АИ #49 (284)
Статьи журнала АИ #49 (284)
Исследование ключевых технологий применения обучения с подкреплением в автономно...

10.5281/zenodo.17915973

Исследование ключевых технологий применения обучения с подкреплением в автономной навигации интеллектуальных роботов

12 декабря 2025

Рубрика

Информационные технологии

Ключевые слова

обучение с подкреплением
автономная навигация
глубокое обучение с подкреплением
робот
планирование маршрута
безопасное принятие решений

Аннотация статьи

По мере того как робототехника углубляется в сложные, неструктурированные среды, традиционные методы навигации, основанные на моделях и фиксированных правилах, сталкиваются с проблемами из-за своей ограниченной способности к обобщению и адаптации. Технологии обучения с подкреплением, особенно глубокое обучение с подкреплением, благодаря своей мощной способности к автономному обучению стратегиям принятия решений на основе взаимодействия со средой, стали ключом к достижению роботами высокого уровня автономной навигации. В данной статье основное внимание уделяется прогрессу в ключевых технологиях обучения с подкреплением в области навигации интеллектуальных роботов, систематически рассматриваются инновации в алгоритмах, появившиеся для решения основных проблем, таких как низкая эффективность выборки, разреженность вознаграждения, неопределенность динамики среды и плохая обобщающая способность стратегий. Основное содержание включает: методы оптимизации эффективности выборки, направленные на повышение использования данных и скорости сходимости обучения; проектирование механизмов разреженного вознаграждения и исследования для сложных, неизвестных сред; методы обеспечения безопасности и надежности навигационных решений в реальном физическом мире; а также иерархические и обобщающие архитектуры для повышения способности стратегий к адаптации в различных сценариях. В статье далее анализируются узкие места при переносе из симуляции в реальность и рассматриваются перспективы развития в направлении интеграции с многомодальными большими языковыми моделями и воплощенным интеллектом. Цель данного обзора – предоставить исследователям в смежных областях систематический технический обзор и указать, что навигация роботов, управляемая обучением с подкреплением, переходит от обучения конкретным задачам к универсальному, безопасному и надежному автономному интеллекту.

Текст статьи

1. Введение

Автономная навигация интеллектуальных роботов – это их способность, без вмешательства человека, воспринимать окружающую информацию, определять местоположение и строить карты, планировать путь и безопасно перемещаться к целевой позиции в неизвестной или динамической среде. Эта способность является краеугольным камнем для широкого спектра приложений, таких как сервисные роботы, беспилотные автомобили, дроны и промышленные автоматические тележки.

Традиционные методы навигации обычно полагаются на точные карты среды (сгенерированные с помощью технологий SLAM) и заранее спроектированные алгоритмы планирования пути (такие, как A*, метод динамического окна – DWA). Однако в сценариях с высокодинамичной средой, дефицитом априорной информации или неструктурированным окружением (например, узкие тупики в доме, сложный рельеф на открытой местности) эти методы часто оказываются неэффективными. Их основные ограничения заключаются в следующем: во-первых, зависимость от точной модели среды затрудняет реагирование на изменения в реальном времени. Во-вторых, основанные на правилах стратегии избегания препятствий обладают недостаточной гибкостью для обработки непредвиденных режимов препятствий. В-третьих, при сложных связанных ограничениях (например, неголономная динамика, узкие проходы) алгоритмы планирования легко попадают в локальный оптимум или полностью терпят неудачу.

Обучение с подкреплением (Reinforcement Learning, RL), в особенности глубокое обучение с подкреплением (Deep RL, DRL), предлагает новую парадигму для решения указанных выше проблем. Агент RL учится стратегии, максимизирующей долгосрочное кумулятивное вознаграждение, через взаимодействие методом проб и ошибок со средой, что позволяет осуществлять сквозное отображение исходных данных сенсоров (например, лидара, зрения) непосредственно в управляющие команды, реализуя навигацию без карты (Mapless). Этот подход, управляемый данными, наделяет роботов мощной способностью к адаптации и обучению на основе опыта. В последние годы DRL продемонстрировал производительность, превосходящую традиционные методы, в различных задачах навигации, таких как избегание препятствий беспилотными надводными судами, выход мобильных роботов из узких пространств и динамическое планирование маршрута для AGV.

Несмотря на многообещающие перспективы, применение RL к навигации реальных роботов по-прежнему сталкивается с рядом серьезных технических проблем, которые также составляют фокус текущих исследований ключевых технологий. Ниже эти ключевые технологии будут подробно проанализированы.

2. Прогресс в ключевых технологиях

2.1. Оптимизация эффективности выборки и методы ускорения обучения

Низкая эффективность выборки является серьезным узким местом в применении DRL в робототехнике, поскольку сбор данных в реальном мире требует много времени, дорог и сопряжен с рисками. Повышение эффективности выборки означает, что алгоритм может научиться эффективной стратегии с меньшим количеством взаимодействий со средой:

  • Планирование и расширение на основе моделей: один из подходов заключается в использовании изученной или известной модели среды для «воображаемого» планирования, сокращая реальные взаимодействия. Например, сочетание гауссовских процессов (Gaussian Process, GP) с DRL, где GP на основе небольшого набора траекторных данных строит прогнозную модель для оценки ценности неиспытанных состояний, направляя исследование и ускоряя обучение. Исследования показывают, что алгоритмы, включающие модуль памяти GP и приоритизированное воспроизведение опыта, могут повысить скорость сходимости обучения для задач навигации беспилотных судов на 56%.
  • Формирование вознаграждения и обучение по учебному плану: проектирование более плотных, более направляющих функций вознаграждения или установление этапов обучения по учебному плану от простого к сложному могут эффективно решить проблему разреженного вознаграждения, направляя агента к нахождению успешной стратегии быстрее.
  • Имитационное обучение и направление демонстрациями: непосредственное использование данных демонстраций экспертов-людей для инициализации стратегии может значительно сократить фазу слепого исследования. Например, имитационное обучение, обусловленное целью (Goal-Conditioned Imitation Learning, GCIL), вводя информацию о целевом состоянии, позволяет роботу учиться стратегиям достижения разнообразных целей на основе демонстраций. Более радикальный подход, такой как фреймворк DemoGrasp от команды Пекинского университета, переформулирует задачу непрерывного принятия решений для ловкого захвата высоких измерений как задачу редактирования на основе единственной демонстрационной траектории, превращая многошаговый процесс принятия марковских решений в одношаговый, достигая чрезвычайно высокой эффективности обучения – сходимость достигается всего за один день обучения на одной видеокарте.
  • Инновации в механизме распространения ценности: для решения проблемы медленной сходимости алгоритмов класса Q-learning при разреженном вознаграждении было предложено использование модели затухания. Эта модель переинтерпретирует Q-значение как сигнал, распространяющийся от целевого состояния с затуханием, и, проектируя многокритериальные коэффициенты затухания (например, длина пути, частота поворотов), достигает более стабильного и интерпретируемого распространения ценности, ускоряя сходимость.

2.2. Исследование при разреженном вознаграждении и моделирование долгосрочных зависимостей

В неизвестной среде вознаграждение за достижение удаленной цели чрезвычайно разрежено; для агента критически важно эффективно исследовать и запоминать длинные последовательности действий:

  • Внутреннее любопытство и стимулы к исследованию: наделение агента внутренним любопытством к «новым» состояниям, побуждающим его исследовать непосещенные области, – классический подход к решению проблемы разреженного вознаграждения.
  • Архитектуры для моделирования длинных последовательностей: для задач навигации с длительным горизонтом стратегические сети должны обладать мощной способностью к моделированию зависимостей в последовательностях. Традиционные рекуррентные нейронные сети (RNN) или Transformer имеют ограничения. Появляющаяся архитектура Mamba и ее варианты (например, Mamba2) демонстрируют более высокую эффективность и выразительность при обработке длинных последовательностей. Одно исследование объединило Mamba2 с диффузионными моделями, создав фреймворк Mamba2Diff, где двунаправленный управляемый модуль Mamba2 захватывает глобальные долгосрочные зависимости, в то время как сверточные улучшенные управляемые рекуррентные блоки захватывают краткосрочные зависимости, достигая более согласованной и точной генерации последовательностей действий в задачах долгосрочного манипулирования роботами. Это предоставляет новый инструмент для планирования траекторий в сложной навигации.
  • Иерархическое обучение с подкреплением: разложение задачи навигации на высокоуровневое «куда идти» (планирование цели/подцели) и низкоуровневое «как идти» (выполнение действий) на два уровня. Высокоуровневое отвечает за абстрактные решения, низкоуровневое – за конкретное управление. Такое разложение значительно снижает сложность обучения стратегии на каждом уровне и способствует обобщению. Например, предложенная Boston Dynamics и Северо-Восточным университетом HEP-архитектура, где высокоуровневая стратегия предсказывает ключевые позы в глобальной системе координат, а затем с помощью инновационного «интерфейса переноса системы координат» задача преобразуется в локальную систему координат, центрированную на ключевой позе, для тонкой оптимизации траектории низкоуровневой стратегией. Такой иерархический подход позволяет осуществлять без потерь передачу обобщающей способности с высокого на низкий уровень.

2.3. Обеспечение безопасности и надежности

Обеспечение безопасности стратегий RL при развертывании является жизненно важным условием для практического применения. Небезопасное исследование или ненадежная стратегия могут привести к повреждению робота или несчастным случаям:

  • Безопасные ограничения и маскирующие механизмы: самый прямой метод – блокировать известные небезопасные действия на этапе выбора действия. Например, метод RRL-SG, предложенный командой Наньянского технологического университета, использует модель чувствительной к ответственности безопасности (RSS) для вывода минимального безопасного расстояния и на его основе генерирует маску безопасности, которая обнуляет вероятность действий, способных привести к столкновению, на уровне пространства действий, принудительно обеспечивая безопасность.
  • Надежное состязательное обучение: для повышения устойчивости стратегии к неопределенностям, таким как шум наблюдений, изменения динамики среды, вводится состязательное обучение. Метод RRL-SG обучает онлайн модель противника для симуляции наихудших возмущений среды (например, шум сенсоров, неопределенность поведения других агентов), позволяя основному агенту учиться более надежной стратегии в противостоянии с противником.
  • Осознание неопределенности и консервативное принятие решений: для RL на основе моделей критически важно, чтобы модель могла осознавать неопределенность собственных прогнозов. Агент может научиться действовать более консервативно в областях с высокой неопределенностью. Гауссовские процессы (GP) естественным образом обладают способностью предоставлять оценку неопределенности прогноза, что может быть использовано для этой цели.

2.4. Обобщение и трансферное обучение

Как стратегии, обученные в симуляции, могут обобщаться на невиданные ранее условия реального мира или разные задачи, является серьезной проблемой для внедрения RL:

  • Иерархический и эквивариантный дизайн: как упоминалось ранее, сама иерархическая стратегия (HEP) обеспечивает мощную способность к обобщению. Ее высокоуровневая стратегия фокусируется на глобальной, абстрактной структуре задачи, а низкоуровневая работает в локальной системе координат; обе сети спроектированы как эквивариантные к пространственным преобразованиям (таким как перемещение, вращение). Это означает, что, когда среда подвергается соответствующим преобразованиям, выход стратегии автоматически сохраняет согласованность без необходимости переобучения, что значительно снижает зависимость от больших объемов обучающих данных и обеспечивает эффективное обучение с малым числом примеров.
  • Рандомизация домена и перенос из симуляции в реальность: рандомизация визуальных текстур, освещения, физических параметров, форм и расположения препятствий во время обучения в симуляции может заставить стратегию изучить более фундаментальные признаки, что улучшает перенос в различные реальные сценарии. Обширная рандомизация домена в DemoGrasp была ключом к его успешному переносу на реальную роботизированную руку и захвату сотен новых объектов.
  • Многомодальное восприятие и воплощенное познание: более продвинутое обобщение требует более глубокого понимания среды. Воплощенное когнитивное обучение (Cognitive Embodied Learning, CEL), имитируя двухсистемный механизм принятия решений человеческого мозга, позволяет агенту динамически переключаться между нормальным режимом отслеживания и режимом обработки аномалий, оснащенным специализированными модулями, такими как распознавание аномалий и логический вывод правил, тем самым достигая надежного отслеживания целей в сложных физических сценариях.

Такие работы демонстрируют потенциал объединения высокоуровневого познания и низкоуровневого управления.

3. Верификация в симуляции и реальном мире

Текущие исследования обычно следуют парадигме «обучение в симуляции, верификация на реальном объекте». Симуляционные среды (такие как Gazebo, Isaac Gym, SUMO) предоставляют безопасные, эффективные и масштабируемые тренировочные площадки. Прогресс в ключевых технологиях прошел строгие сравнительные эксперименты в симуляции (например, сравнение с базовыми показателями A*, традиционного RL по успешности, длине пути, скорости сходимости) и в конечном итоге был проверен на реальных роботизированных платформах.

Например, команда Шанхайского университета Цзяо Тун развернула свой сквозной алгоритм RL для выхода из застрявшего состояния на роботе-пылесосе, успешно выпуская его из различных узких тупиков; алгоритм DMMOQL подтвердил свою осуществимость для динамического избегания препятствий в задачах навигации по QR-кодам и магнитным рельсам на реальных промышленных AGV; метод RRL-SG продемонстрировал превосходную надежность при состязательных атаках на реальном низкоскоростном беспилотном транспортном средстве «Hunter». Эти практические проверки подтверждают эффективность и практическую применимость соответствующих ключевых технологий.

4. Проблемы и перспективы на будущее

Несмотря на значительный прогресс, область по-прежнему сталкивается со многими проблемами: Во-первых, гарантии безопасности для большинства алгоритмов остаются эмпирическими, без строгих математических доказательств. Во-вторых, «разрыв реальности» между симуляцией и реальным миром все еще существует, особенно сложные физические взаимодействия и шум сенсоров трудно полностью смоделировать. В-третьих, текущие методы все еще склоняются к специфическим задачам, путь к универсальному, независимому от задач интеллектуальному агенту навигации еще долог.

Будущие направления исследований могут включать:

  1. Безопасный RL, движимый теорией: разработка алгоритмов RL с доказуемыми ограничениями безопасности для предоставления надежных гарантий в критически важных для безопасности приложениях, таких как автономное вождение и медицинская робототехника.
  2. Интеграция с базовыми моделями: использование визуально-языковых больших моделей (VLMs) и других базовых моделей в качестве высокоуровневого «мозга для принятия решений» в сочетании с низкоуровневым управлением RL. VLM может обеспечить способность к логическому выводу на основе здравого смысла, пониманию сцены и декомпозиции задач, в то время как RL отвечает за точную реализацию движения, создавая таким образом более универсальные и интеллектуальные автономные системы.
  3. Непрерывное обучение и онлайн-адаптация: возможность для роботов продолжать обучение на основе нового опыта и адаптироваться к изменениям среды после развертывания, преодолевая ограничение, при котором текущие стратегии в основном фиксируются после завершения обучения.
  4. Координированная навигация в группах: исследование распределенных механизмов координации планирования пути и разрешения конфликтов, основанных на RL, в системах с несколькими роботами для повышения общей эффективности системы.

5. Заключение

Обучение с подкреплением глубоко меняет способности интеллектуальных роботов к автономной навигации, выводя их от зависимости от фиксированных правил и точных карт к более высокому уровню автономности, способной адаптироваться к неизвестному, обрабатывать динамику и учиться на опыте. Вокруг основных проблем эффективности выборки, механизмов исследования, безопасности, надежности и способности к обобщению исследователи предложили ряд ключевых технологий, включая расширение на основе моделей, иерархические архитектуры, маски безопасности, состязательное обучение и эквивариантный дизайн. Эти технологии уже доказали свою ценность через симуляции и предварительные эксперименты в реальном мире. Взгляд в будущее показывает, что с более глубокой интеграцией с базовыми моделями и воплощенным познанием, а также с развитием более надежных теорий безопасности и фреймворков непрерывного обучения, обучение с подкреплением способно породить более универсальные, надежные и интеллектуальные системы навигации роботов нового поколения, высвобождая тем самым огромный потенциал в более широком спектре промышленных и бытовых сценариев.

Поделиться

192

Шао Ц.. Исследование ключевых технологий применения обучения с подкреплением в автономной навигации интеллектуальных роботов // Актуальные исследования. 2025. №49 (284). Ч.I. С. 95-99. URL: https://apni.ru/article/13850-issledovanie-klyuchevyh-tehnologij-primeneniya-obucheniya-s-podkrepleniem-v-avtonomnoj-navigacii-intellektualnyh-robotov

Обнаружили грубую ошибку (плагиат, фальсифицированные данные или иные нарушения научно-издательской этики)? Напишите письмо в редакцию журнала: info@apni.ru

Похожие статьи

Другие статьи из раздела «Информационные технологии»

Все статьи выпуска
Актуальные исследования

#5 (291)

Прием материалов

24 января - 30 января

Остался последний день

Размещение PDF-версии журнала

4 февраля

Размещение электронной версии статьи

сразу после оплаты

Рассылка печатных экземпляров

11 февраля