Упрощаем обработку радарных данных с NVIDIA DRIVE для автономности
В современном состоянии автомобильного радара инженеры машинного обучения не могут работать с сырыми RGB-изображениями, эквивалентными камере. Вместо этого они используют выходные данные радара с постоянной вероятностью ложных срабатываний (CFAR), что похоже на обнаружение краев в компьютерном зрении. Архитектуры связи и вычислений не успевают за тенденциями в ИИ и потребностями автономности уровня 4, несмотря на то что радар на протяжении многих лет является основным элементом сенсорики транспортных средств.
Сигнал реального 3D/4D «изображения» обрабатывается внутри устройства на краю сети. Радар выдает объекты или, в некоторых случаях, облака точек, что аналогично тому, как камера выводит изображение с классическим обнаружением краев Canny. Централизованная обработка радара на платформе NVIDIA DRIVE меняет эту модель: сырые данные с аналогово-цифрового преобразователя (ADC) поступают на централизованную вычислительную платформу. Отсюда программируемый аппаратный ускоритель NVIDIA (PVA) обрабатывает все, начиная от сырых образцов ADC до облаков точек, при этом GPU зарезервирован для использования в ИИ на любом этапе потока данных.
В такой парадигме системы машинного обучения не ограничиваются только обнаружением краев, они могут использовать полную информацию радара, что предлагает увеличение доступных бит информации в ~100 раз. Убирая высокомощный цифровой процессор/микроконтроллер (DSP/MCU) внутри радарной системы, централизованный радар возвращается к своим радиочастотным (RF) корням с упрощенной печатной платой (PCB). Этот дизайн снижает стоимость единицы продукции более чем на 30% и уменьшает объем примерно на 20%, достигая ультратонкого форм-фактора.
Используя превосходную энергоэффективность центральных контроллеров, общее потребление энергии системы снижается примерно на 20%. Это нововведение не только изменяет дизайн аппаратного обеспечения, но и идеально соответствует глобальным тенденциям зеленой энергетики. NVIDIA в сотрудничестве с ChengTech, первым партнером по сырым радарным данным, присоединившимся к платформе DRIVE, проверила централизованную обработку радара на DRIVE с использованием аппаратного обеспечения производственного уровня.
На конференции GTC 2026 на прошлой неделе NVIDIA и ChengTech продемонстрировали этот процесс в реальном времени на DRIVE AGX Thor с использованием производственных радарных единиц ChengTech. Большинство производственных автомобильных радаров используют архитектуру обработки на краю. Каждый сенсорный модуль интегрирует свою собственную систему на кристалле (SoC) или программируемую вентильную матрицу (FPGA), выполняет фиксированную цепочку обработки сигналов на борту и выводит разреженное облако точек на центральный электронный блок управления системой помощи водителю (ADAS ECU).
Это упрощает интеграцию, но ограничивает пропускную способность между сенсором и вычислительной платформой. Однако компромиссы значительны: облака точек отправляют только пиковые обнаружения и содержат примерно в 100 раз меньше данных, чем сырые образцы ADC, производимые радаром. Централизованные архитектуры, которые обрабатывают сырые или слабо обработанные данные радара, могут использовать больше статистики сигнала, чтобы предоставить преимущества восприятия. Цикл работы радара в обработке на краю обычно составляет менее 50%, что означает более низкие частоты кадров, такие как ~20 кадров в секунду, и/или сниженное целевое потребление энергии.
Ускорьте производство токенов в AI-фабриках с NVIDIA Mission Control
Создайте белковые связывающие агенты с помощью Proteina-Complexa
Похожие статьи
Adobe Premiere анонсирует новый режим цветокоррекции с ускорением на NVIDIA GPUs
На NAB Show 2026 Adobe представит новый режим цветокоррекции в Premiere с ускорением на NVIDIA GPUs.
NVIDIA NVbandwidth: инструмент для оценки производительности GPU
NVIDIA представила NVbandwidth — инструмент для оценки производительности передачи данных между GPU.
Оптимизация использования GPU для эффективного обучения моделей
Изучите, как оптимизировать использование GPU для повышения эффективности обучения моделей.