{"id":564808,"date":"2024-12-18T12:14:56","date_gmt":"2024-12-18T11:14:56","guid":{"rendered":"https:\/\/www.capgemini.com\/es-es\/?p=564808"},"modified":"2025-03-11T08:19:37","modified_gmt":"2025-03-11T07:19:37","slug":"fusion-camara-radar-para-vehiculos-autonomos","status":"publish","type":"post","link":"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/","title":{"rendered":"Fusi\u00f3n c\u00e1mara-radar basada en IA: estimaci\u00f3n de profundidad densa para veh\u00edculos aut\u00f3nomos"},"content":{"rendered":"\n<header class=\"wp-block-cg-blocks-hero-blogs header-hero-blogs\"><div class=\"container\"><div class=\"hero-blogs\"><div class=\"hero-blogs-content-wrapper\"><div class=\"row\"><div class=\"col-12\"><div class=\"header-title\"><h1>Fusi\u00f3n c\u00e1mara-radar basada en IA: estimaci\u00f3n de profundidad densa para veh\u00edculos aut\u00f3nomos<\/h1><\/div><\/div><\/div><\/div><div class=\"hero-blogs-bottom\"><div class=\"header-author\"><div class=\"author-img\"><img decoding=\"async\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/10\/rafael-escarabajal.jpg?w=200&amp;quality=10\" alt=\"\" loading=\"lazy\"\/><\/div><div class=\"author-name-date\"><h5 class=\"author-name\">Rafael Escarabajal S\u00e1nchez<\/h5><h5 class=\"blog-date\">18 de diciembre de 2024<\/h5><\/div><\/div><div class=\"brand-image\"><img decoding=\"async\" loading=\"lazy\" src=\"\/wp-content\/themes\/capgemini2020\/assets\/images\/capgemini-engineering-white.svg\" alt=\"capgemini-engineering\"\/><\/div><\/div><\/div><\/div><\/header>\n\n\n\n<section class=\"wp-block-cg-blocks-intro-para undefined section section--intro\"><div class=\"intro-para\"><div class=\"container\"><div class=\"row\"><div class=\"col-12 col-md-1\"><nav class=\"article-social\"><ul class=\"social-nav\"><li class=\"ip-order-fb\"><a href=\"https:\/\/www.facebook.com\/sharer\/sharer.php?u=https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/\" target=\"_blank\" rel=\"noopener noreferrer\" title=\"abrir en una nueva ventana\"><i aria-hidden=\"true\" class=\"icon-fb\"><\/i><span class=\"sr-only\">Facebook<\/span><\/a><\/li><li class=\"ip-order-li\"><a href=\"https:\/\/www.linkedin.com\/sharing\/share-offsite\/?url=https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/\" target=\"_blank\" rel=\"noopener noreferrer\" title=\"abrir en una nueva ventana\"><i aria-hidden=\"true\" class=\"icon-li\"><\/i><span class=\"sr-only\">Linkedin<\/span><\/a><\/li><\/ul><\/nav><\/div><div class=\"col-12 col-md-11 col-lg-10\"><h2 class=\"intro-para-title\">Los veh\u00edculos aut\u00f3nomos (AVs) dependen de un sofisticado conjunto de sensores para percibir su entorno y tomar decisiones cr\u00edticas de conducci\u00f3n. Entre estos sensores, el radar y las c\u00e1maras desempe\u00f1an roles fundamentales al proporcionar datos \u00fanicos esenciales para la navegaci\u00f3n y seguridad del veh\u00edculo. Los avances en Inteligencia Artificial permiten ahora fusionar en tiempo real los datos proporcionados por radares y c\u00e1maras de alta resoluci\u00f3n para ofrecer una comprensi\u00f3n integral del entorno del veh\u00edculo, presentando oportunidades significativas en la industria de Veh\u00edculos Aut\u00f3nomos (AVs).<\/h2><\/div><\/div><\/div><\/div><\/section>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-\"><\/h3>\n\n\n\n<section class=\"wp-block-cg-blocks-group undefined section section--article-content\"><div class=\"article-main-content\"><div class=\"container\"><div class=\"row\"><div class=\"col-12 col-md-11 col-lg-10 offset-md-1 offset-lg-1\"><div class=\"article-text article-quote-text\">\n<p>Los esfuerzos de inversi\u00f3n e investigaci\u00f3n est\u00e1n cada vez m\u00e1s centrados en optimizar estas tecnolog\u00edas de fusi\u00f3n para mejorar la seguridad y rendimiento del veh\u00edculo en diversas condiciones ambientales. Es por esta raz\u00f3n que el proyecto <a href=\"https:\/\/www.inpercept.es\/\">INPERCEPT<\/a> (Percepci\u00f3n Inteligente para Veh\u00edculos Conectados y Aut\u00f3nomos), en el que Capgemini ha participado activamente, investiga el uso de t\u00e9cnicas basadas en IA para la fusi\u00f3n de im\u00e1genes de c\u00e1mara y radar (INPERCEPT, 2024).<\/p>\n\n\n\n<p>En la fusi\u00f3n c\u00e1mara-radar, las c\u00e1maras ofrecen informaci\u00f3n visual de alta resoluci\u00f3n en 2D, pero con ellas no es sencillo realizar una estimaci\u00f3n de la distancia a los objetos detectados. Sin embargo, el radar es capaz de proporcionar medidas precisas de distancia y velocidad de los objetos del entorno. Por tanto, combinando estas fuentes de datos, los AVs pueden detectar y clasificar objetos con precisi\u00f3n, operar eficazmente en diversas condiciones y tomar decisiones de conducci\u00f3n m\u00e1s seguras&nbsp;. Mientras que el LiDAR proporciona una estimaci\u00f3n espacial m\u00e1s densa y detallada, el radar se est\u00e1 convirtiendo en el sensor preferido para la fusi\u00f3n con c\u00e1maras en veh\u00edculos aut\u00f3nomos debido a su mejor rendimiento en condiciones clim\u00e1ticas adversas, su menor coste, menor consumo de energ\u00eda, mayor alcance de medici\u00f3n y capacidad para medir directamente la velocidad de los objetos.<\/p>\n\n\n\n<p><strong>Una aplicaci\u00f3n cr\u00edtica de la fusi\u00f3n radar-c\u00e1mara es la estimaci\u00f3n de profundidad densa, que implica generar mapas detallados que asignan valores precisos de profundidad a cada p\u00edxel dentro de las im\u00e1genes capturadas<\/strong>. Estos mapas de profundidad proporcionan informaci\u00f3n espacial esencial sobre las distancias y posiciones de los objetos en el entorno del veh\u00edculo. Este mapeo preciso es crucial para funcionalidades avanzadas como la detecci\u00f3n de obst\u00e1culos y la planificaci\u00f3n de rutas, permitiendo que los AVs naveguen de manera segura y efectiva.<\/p>\n\n\n\n<p>Los avances recientes en algoritmos de estimaci\u00f3n de profundidad monocular han revolucionado este campo al generar mapas de profundidad relativa utilizando una sola c\u00e1mara. Estos mapas transmiten las relaciones espaciales entre objetos basadas en sus distancias percibidas entre s\u00ed, en lugar de unidades f\u00edsicas absolutas como metros. Esta capacidad permite a los AVs discernir qu\u00e9 objetos est\u00e1n m\u00e1s cerca o m\u00e1s lejos, proporcionando un contexto cr\u00edtico para los procesos de toma de decisiones.<\/p>\n\n\n\n<p>Al integrar el mapa de profundidad relativa derivado \u00fanicamente de la imagen con datos de radar, se hace posible convertir estas distancias relativas en medidas absolutas precisas. El radar desempe\u00f1a un papel fundamental en este proceso al escalar y transformar el mapa de profundidad relativa en un mapa de profundidad absoluto preciso. En el proyecto INPERCEPT, esta integraci\u00f3n se realiza mediante algoritmos basados en redes neuronales, de la manera expuesta en el presente art\u00edculo.<a id=\"_msocom_3\"><\/a><\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-metodologia\">Metodolog\u00eda<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-esquema-general\">Esquema general<\/h3>\n\n\n\n<p>El algoritmo de fusi\u00f3n propuesto toma como entrada una imagen proveniente de una c\u00e1mara de v\u00eddeo y una nube de puntos proveniente del radar. En primer lugar, la imagen se procesa con un modelo para la estimaci\u00f3n de profundidad monocular llamado <em>Depth Anything (Lihe Yang, 2024), <\/em>que genera un mapa de profundidad relativo. Posteriormente, dicho mapa relativo es combinado con la nube de puntos del radar utilizando una red neuronal basada en <em>U-Net <\/em>&nbsp;(Olaf Ronneberger, 2015) para generar como salida el mapa de profundidad absoluto en metros (ver Ilustraci\u00f3n 2). Para supervisar el entrenamiento de dicha red neuronal, se utilizan datos de un LiDAR, ya que generan nubes de puntos mucho m\u00e1s densas que funcionan a modo de referencia para el aprendizaje. En la Ilustraci\u00f3n 1 se muestra el esquema completo.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"407\" height=\"605\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_7cc40e.png\" alt=\"\" class=\"wp-image-564810\" srcset=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_7cc40e.png 407w, https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_7cc40e.png?resize=202,300 202w\" sizes=\"auto, (max-width: 407px) 100vw, 407px\" \/><figcaption class=\"wp-element-caption\">Ilustraci\u00f3n 1. Esquema general del algoritmo de fusi\u00f3n c\u00e1mara-radar.<\/figcaption><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-dataset\">Dataset<\/h3>\n\n\n\n<p>El algoritmo propuesto es entrenado utilizando el dataset de <em>Nuscenes<\/em> (Holger Caesar, 2019), que recoge 1.000 escenas de conducci\u00f3n, en las que se ejecutan diversas maniobras en diferentes condiciones de tr\u00e1fico y meteorolog\u00eda. Entre sus datos, se encuentran im\u00e1genes y nubes de puntos (de LiDAR y radar), que son los necesarios para el entrenamiento del algoritmo.<\/p>\n\n\n\n<p>Los datos deben ser preprocesados para adecuarse al formato esperado por la red neuronal. A grandes rasgos, los datos se adaptan de la siguiente manera:<\/p>\n\n\n\n<ol style=\"list-style-type:lower-alpha\" class=\"wp-block-list\">\n<li><strong>Imagen: <\/strong>debe ser normalizada y ajustada al tama\u00f1o esperado por <em>Depth Anything.<\/em><\/li>\n\n\n\n<li><strong>Mapa relativo de profundidad:<\/strong> debe expresar las distancias entre 0 y 1, siendo 0 los pixeles m\u00e1s cercanos, y 1 los m\u00e1s lejanos. Tambi\u00e9n debe ajustarse al tama\u00f1o de la <em>U-Net<\/em>.<\/li>\n\n\n\n<li><strong>Nubes de puntos: <\/strong>deben proyectarse al plano de la imagen utilizando los par\u00e1metros intr\u00ednsecos de la c\u00e1mara (tambi\u00e9n proporcionados en el dataset de <em>Nuscenes<\/em>). Luego deben normalizarse sus coordenadas para facilitar la labor de la red neuronal, y finalmente se debe escoger un n\u00famero fijo de puntos (por ejemplo, 100). Si la nube inicial tiene menos puntos, se deben repetir de manera aleatoria hasta llegar a 100. Si la nube inicial excede este n\u00famero, se considerar\u00e1n los 100 puntos m\u00e1s representativos.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-red-neuronal\">Red neuronal<\/h3>\n\n\n\n<p>La estrategia general seguida para fusionar el mapa relativo de profundidades con el radar se muestra en la &nbsp;Ilustraci\u00f3n 2, y consiste en crear una <em>U-Net<\/em> que toma el mapa relativo de profundidades del que va extrayendo <em>features<\/em> con capas convolucionales, y disminuyendo su dimensi\u00f3n con capas de <em>pooling<\/em>, lo que constituye el <em>encoder<\/em>. Al final de dicho encoder, donde la imagen tiene menor dimensi\u00f3n, se concatena con las features del radar y luego vuelve paulatinamente a su tama\u00f1o original utilizando convoluciones transpuestas (parte de decoder), dando como resultado una imagen del mismo tama\u00f1o que la inicial que se corresponde con el <strong>mapa absoluto de profundidades<\/strong>.<\/p>\n\n\n\n<p>En cuanto al radar, partiendo de una nube de puntos de tama\u00f1o 3&#215;100 (donde 100 es el n\u00famero fijo de puntos elegido en el paso anterior), en primer lugar se pasa por un extractor de features basado en <em>PointNet (Charles R. Qi, 2017)<\/em>. <em>PointNet<\/em> extrae caracter\u00edsticas de manera que el resultado es invariante del orden de los puntos de entrada. Est\u00e1 basado en perceptrones multicapa (MLP) compartidos, que se implementan usando convoluciones unidimensionales. Hay que asegurar que la dimensi\u00f3n final de las features de la nube de puntos coincide con la del encoder de la <em>U-net<\/em>, para que se puedan concatenar.<\/p>\n\n\n\n<p>La supervisi\u00f3n se realiza con la ayuda de las medidas de LiDAR, que tambi\u00e9n son proyectadas en la misma imagen. Ello permite calcular el error como la media de todos los errores entre la profundidad estimada de cada pixel con la red neuronal y el valor proporcionado por el LiDAR en dicho pixel. Este error constituye el t\u00e9rmino fundamental de la funci\u00f3n de coste para el entrenamiento, que incluye otros t\u00e9rminos relacionados con mantener la consistencia e informaci\u00f3n estructural del mapa de profundidad (esto implica que se mantenga el mismo orden relativo de profundidades respecto al mapa relativo de entrada).<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1020\" height=\"809\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_fcddc2.png\" alt=\"\" class=\"wp-image-564811\" srcset=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_fcddc2.png 1020w, https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_fcddc2.png?resize=300,238 300w, https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_fcddc2.png?resize=768,609 768w\" sizes=\"auto, (max-width: 1020px) 100vw, 1020px\" \/><figcaption class=\"wp-element-caption\">Ilustraci\u00f3n 2. Red neuronal (se han omitido 3 capas) para fusionar mapa de profundidad relativo y radar (U-Net).<\/figcaption><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-implementacion-en-el-proyecto-inpercept\">Implementaci\u00f3n en el proyecto INPERCEPT<\/h2>\n\n\n\n<p>El proyecto INPERCEPT (INPERCEPT, 2024) tiene como objetivo principal mejorar las tecnolog\u00edas clave que permitan a los veh\u00edculos aut\u00f3nomos operar de manera m\u00e1s eficiente y segura en t\u00e9rminos energ\u00e9ticos, detectando obst\u00e1culos y condiciones adversas. Entre sus metas se incluye el desarrollo de sistemas de percepci\u00f3n externa para una mejor detecci\u00f3n del entorno en situaciones exigentes. Es aqu\u00ed donde entra en juego la fusi\u00f3n de datos (Ilustraci\u00f3n 3), que recibe datos de radar y c\u00e1mara frontal para generar un mapa de profundidad. Este mapa es posteriormente utilizado para generar los llamados mapas de coste, que son representaciones espaciales&nbsp;que indican la presencia de obst\u00e1culos o peligros, y son fundamentales para planificar rutas y ejecutar acciones como el frenado.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1001\" height=\"293\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_511b6e.png\" alt=\"\" class=\"wp-image-564812\" srcset=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_511b6e.png 1001w, https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_511b6e.png?resize=300,88 300w, https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_511b6e.png?resize=768,225 768w\" sizes=\"auto, (max-width: 1001px) 100vw, 1001px\" \/><figcaption class=\"wp-element-caption\">Ilustraci\u00f3n 3. Rol de la fusi\u00f3n de datos en el proyecto INPERCEPT.<\/figcaption><\/figure>\n\n\n\n<p>En lo que respecta al hardware, el algoritmo ha sido implementado en una Nvidia Jetson AGX Orin 64GB (Nvidia, 2024), una plataforma avanzada de computaci\u00f3n dise\u00f1ada para aplicaciones de inteligencia artificial (IA) y computaci\u00f3n de alto rendimiento, particularmente en el \u00e1mbito de la rob\u00f3tica, la visi\u00f3n por computadora y el edge computing. El dispositivo se ha configurado para optimizar la inferencia de los algoritmos basados en redes neuronales, utilizando C++ y TensorRT, explotando el uso de GPUs.<\/p>\n\n\n\n<p>El radar empleado es el modelo AWR1843 de Texas Instruments (TI), que es un radar de Onda Continua Modulada en Frecuencia (FMCW) de M\u00faltiple Entrada y M\u00faltiple Salida (MIMO), dise\u00f1ado para operar en la banda de 77 a 81 GHz. Este radar incluye tres antenas de transmisi\u00f3n y cuatro antenas de recepci\u00f3n, y es uno de los modelos m\u00e1s avanzados, fiables y modernos creados por TI.<\/p>\n\n\n\n<p>La c\u00e1mara, desarrollada por Ficosa, ofrece la imagen en formato H.264 con un frame rate de 25 fps, un campo de visi\u00f3n de 196\u00bax150\u00ba y una resoluci\u00f3n horizontal-vertical de 1344 x 968 pixeles.<\/p>\n\n\n\n<p>Por \u00faltimo, hay que se\u00f1alar que los datos generados en INPERCEPT no tienen exactamente la misma naturaleza que los del dataset de <em>Nuscenes<\/em> empleados para entrenar el algoritmo. Se genera menos cantidad de puntos de radar y el rango de medida es distinto, porque los objetos de la base de datos de <em>Nuscenes <\/em>est\u00e1n m\u00e1s alejados. Ello nos ha obligado a entrenar el algoritmo con el paradigma de <em>Data Augmentation <\/em>para aumentar la diversidad del dataset de <em>Nuscenes.<\/em><a id=\"_msocom_1\"><\/a><\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-resultados\">Resultados<\/h2>\n\n\n\n<p>Para evaluar la calidad de las estimaciones de profundidad, se ha calculado, utilizando el set de datos de test de <em>Nuscenes<\/em>, el error medio entre la profundidad estimada y la proporcionada por el LiDAR hasta cierta distancia m\u00e1xima, y despreciando los puntos m\u00e1s alejados de dicha distancia. Se ha tomado como distancia m\u00e1xima desde los 10 metros hasta los 50 metros para comprobar c\u00f3mo el error evoluciona a medida que debe estimar mayores distancias, y se proporcionan valores absolutos y relativos. Los resultados se recogen en la Tabla 1.<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table><tbody><tr><td>&nbsp;<\/td><td colspan=\"5\"><strong>DISTANCIAS M\u00c1XIMAS CONSIDERADAS (m)<\/strong><\/td><\/tr><tr><td>&nbsp;<\/td><td><strong>10<\/strong><\/td><td><strong>20<\/strong><\/td><td><strong>30<\/strong><\/td><td><strong>40<\/strong><\/td><td><strong>50<\/strong><\/td><\/tr><tr><td><strong>Error absoluto (m)<\/strong><\/td><td>0.37<\/td><td>0.77<\/td><td>1.21<\/td><td>1.50<\/td><td>1.75<\/td><\/tr><tr><td><strong>Error relativo (%)<\/strong><\/td><td>3.70<\/td><td>3.85<\/td><td>4.03<\/td><td>3.75<\/td><td>3.50<\/td><\/tr><\/tbody><\/table><figcaption class=\"wp-element-caption\">Tabla 1. Errores absolutos y relativos en la estimaci\u00f3n de profundidad considerando distintas distancias. <\/figcaption><\/figure>\n\n\n\n<p>En la Tabla 1 se puede observar c\u00f3mo el error absoluto aumenta a medida que las distancias consideradas aumentan, lo que resulta razonable ya que mantener la precisi\u00f3n de las estimaciones se complica a medida que se consideran objetos m\u00e1s lejanos. Sin embargo, el error relativo es bastante uniforme, oscilando alrededor del 3% y el 4%, lo cual se considera un \u00e9xito en cuanto a calidad de estimaci\u00f3n. Por su parte, en la Ilustraci\u00f3n 4 se muestra gr\u00e1ficamente el resultado de la aplicaci\u00f3n del algoritmo de fusi\u00f3n c\u00e1mara-radar con im\u00e1genes tomadas en el exterior del Automotive Technological Center (ATC) de Capgemini.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"791\" height=\"513\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_647956.png\" alt=\"\" class=\"wp-image-564815\" srcset=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_647956.png 791w, https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_647956.png?resize=300,195 300w, https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/12\/image_647956.png?resize=768,498 768w\" sizes=\"auto, (max-width: 791px) 100vw, 791px\" \/><figcaption class=\"wp-element-caption\">Ilustraci\u00f3n 4. Resultado visual con datos de INPERCEPT. (a) Original image, (b) Radar pointcloud, (c) relative depth map extracted using <em>Depth Anything<\/em>, (d) absolute depth map using our algorithm.<\/figcaption><\/figure>\n\n\n\n<p>En modo inferencia con la Nvidia Jetson AGX Orin, la red neuronal <em>Depth Anything<\/em> requiere unos 40 ms en ejecutar, mientras que la red neuronal <em>U-Net<\/em> tarda unos 3 ms, siendo el tiempo de c\u00f3mputo total de 43 ms, lo que lo habilita para tiempo real. Es importante tener en cuenta que nuestra red funciona a partir de un mapa de profundidad relativo que se puede obtener por cualquier m\u00e9todo, no necesariamente con <em>Depth Anything<\/em>. En este trabajo se eligi\u00f3 <em>Depth Anything<\/em> por su novedad y gran precisi\u00f3n, pero pueden existir otros modelos (o se lanzar\u00e1n en el futuro) que aligeren la obtenci\u00f3n de la profundidad relativa, que es el principal cuello de botella computacional en la estimaci\u00f3n de profundidad densa.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-conclusion\">Conclusi\u00f3n<\/h2>\n\n\n\n<p>Este art\u00edculo propone un m\u00e9todo para la estimaci\u00f3n de profundidad densa empleando un modelo basado en una red neuronal de tipo<em> U-Net<\/em> que, en lugar de tomar como entrada la imagen captada por la c\u00e1mara, utiliza un mapa relativo de profundidades que se asume preciso, y que se combina con la nube de puntos proveniente del radar. Este planteamiento experimental es posible gracias a la aparici\u00f3n de nuevos algoritmos, como <em>Depth Anything<\/em>, que son capaces de proporcionar mapas de profundidad relativos muy precisos, porque han sido entrenados con una cantidad ingente de im\u00e1genes de manera no supervisada. En este trabajo, esta informaci\u00f3n se asume m\u00e1s valiosa que la imagen original en la tarea de obtener profundidades absolutas.<\/p>\n\n\n\n<p>El algoritmo de fusi\u00f3n ha sido entrenado con el dataset de <em>Nuscenes <\/em>y luego se ha probado en el contexto del proyecto INPERCEPT como parte de fundamental de los servicios dedicados a percibir los obst\u00e1culos para planificaci\u00f3n de rutas o frenado, y en el que se utilizan radar, c\u00e1mara y un dispositivo de computaci\u00f3n de Nvidia de \u00faltima generaci\u00f3n. Los resultados objetivos proporcionados en el entrenamiento de la red con <em>Nuscenes <\/em>avalan la eficacia del m\u00e9todo, mientras que su posterior aplicaci\u00f3n con datos reales de INPERCEPT demuestran una integraci\u00f3n v\u00e1lida pese a la diferente naturaleza de los datos, a falta de comprobaciones de mayor rigor, por ejemplo comparando los resultados con los de un LiDAR.<\/p>\n\n\n\n<p><strong>El algoritmo presentado no solo demuestra su viabilidad t\u00e9cnica y efectividad en entornos controlados y reales, sino que tambi\u00e9n ofrece un camino prometedor hacia soluciones de percepci\u00f3n m\u00e1s seguras, econ\u00f3micas y adaptables para la industria de los veh\u00edculos aut\u00f3nomos<\/strong>. Este art\u00edculo demuestra la integraci\u00f3n exitosa de radar y c\u00e1maras, potenciada por algoritmos avanzados, y contribuye al avance hacia la pr\u00f3xima generaci\u00f3n de veh\u00edculos aut\u00f3nomos capaces de navegar de manera segura y eficiente en un mundo cada vez m\u00e1s complejo y din\u00e1mico.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-referencias\">Referencias<\/h4>\n\n\n\n<p>Charles R. Qi, H. S. (2017). PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation. <em>IEEE \/ CVF Computer Vision and Pattern Recognition Conference (CVPR)<\/em>, (p\u00e1gs. 652-660).<\/p>\n\n\n\n<p>Holger Caesar, V. B. (2019). nuScenes: A multimodal dataset for autonomous driving. <em>arXiv preprint arXiv:1903.11027<\/em>. Obtenido de https:\/\/www.nuscenes.org\/nuscenes<\/p>\n\n\n\n<p>INPERCEPT. (2024). <em>INPERCEPT: Intelligent Perception<\/em>. Obtenido de https:\/\/www.inpercept.es\/<\/p>\n\n\n\n<p>Lihe Yang, B. K. (2024). Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data. <em>IEEE \/ CVF Computer Vision and Pattern Recognition Conference (CVPR)<\/em>, (p\u00e1gs. 10371-10381).<\/p>\n\n\n\n<p>Nvidia. (2024). <em>Jetson Orin<\/em>. Obtenido de https:\/\/www.nvidia.com\/en-us\/autonomous-machines\/embedded-systems\/jetson-orin\/<\/p>\n\n\n\n<p>Olaf Ronneberger, P. F. (2015). U-Net: Convolutional Networks for Biomedical Image Segmentation. <em>Medical Image Computing and Computer Assisted Interventions.<\/em><\/p>\n<\/div><\/div><\/div><\/div><\/div><\/section>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-\"><\/h3>\n\n\n\n<section class=\"wp-block-cg-blocks-wrapper-people-slider section section--expert-slider wrapper-people-slider undefined\"><div class=\"container\"><div class=\"content-title\"><h2 data-maxlength=\"34\" class=\"people-heading-title\">Autor<\/h2><\/div><\/div><div class=\"slider slider-boxed\"><div class=\"container\"><div class=\"slider-window\"><div class=\"slider-list\">\t\t<div class=\"slide\">\n\t\t\t<div class=\"box\">\n\t\t\t\t<div class=\"row\">\n\t\t\t\t\t<div class=\"col-md-6 col-lg-4 box-img-wrapper\">\n\t\t\t\t\t\t<img decoding=\"async\" loading=\"lazy\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/10\/rafael-escarabajal.jpg\" alt=\"Rafael Escarabajal S\u00e1nchez\"\/>\n\t\t\t\t\t<\/div>\n\t\t\t\t\t<div class=\"col-md-6 col-lg-8 box-inner\">\n\t\t\t\t\t\t<div class=\"row title-social-media-header\">\n\t\t\t\t\t\t\t<div class=\"col-md-12 col-lg-6 mbl-social-icon\">\n\t\t\t\t\t\t\t\t<ul class=\"social-nav\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<li><a aria-label=\"Linkedin\" target=\"_blank\" title=\"Abrir en una nueva ventana\" href=\"https:\/\/www.linkedin.com\/in\/rafael-escarabajal-sanchez-846221226\/\"><i aria-hidden=\"true\" class=\"icon-li\"><\/i><\/a><\/li>\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/ul>\n\t\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"col-md-12 col-lg-6 box-container\">\n\t\t\t\t\t\t\t\t<div class=\"box-title\">\n\t\t\t\t\t\t\t\t\t<h3 class=\"people-profile-title\">Rafael Escarabajal S\u00e1nchez<\/h3>\n\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span>R&amp;D Software Engineer<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"col-md-12 col-lg-6 social-box-container dkt-social-icon\">\n\t\t\t\t\t\t\t\t<ul class=\"social-nav\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<li><a aria-label=\"Linkedin\" target=\"_blank\" title=\"Abrir en una nueva ventana\" href=\"https:\/\/www.linkedin.com\/in\/rafael-escarabajal-sanchez-846221226\/\"><i aria-hidden=\"true\" class=\"icon-li\"><\/i><\/a><\/li>\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/ul>\n\t\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"people-info\">R&#038;D Software EngineerAuto<\/div>\n\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t\n\n\t\t<div class=\"slide\">\n\t\t\t<div class=\"box\">\n\t\t\t\t<div class=\"row\">\n\t\t\t\t\t<div class=\"col-md-6 col-lg-4 box-img-wrapper\">\n\t\t\t\t\t\t<img decoding=\"async\" loading=\"lazy\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/10\/jorge_pinazo-e1727799595752.jpeg\" alt=\"Jorge Pinazo Donoso\"\/>\n\t\t\t\t\t<\/div>\n\t\t\t\t\t<div class=\"col-md-6 col-lg-8 box-inner\">\n\t\t\t\t\t\t<div class=\"row title-social-media-header\">\n\t\t\t\t\t\t\t<div class=\"col-md-12 col-lg-6 mbl-social-icon\">\n\t\t\t\t\t\t\t\t<ul class=\"social-nav\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<li><a aria-label=\"Linkedin\" target=\"_blank\" title=\"Abrir en una nueva ventana\" href=\"https:\/\/www.linkedin.com\/in\/jorge-pinazo-donoso-755374104\/\"><i aria-hidden=\"true\" class=\"icon-li\"><\/i><\/a><\/li>\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/ul>\n\t\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"col-md-12 col-lg-6 box-container\">\n\t\t\t\t\t\t\t\t<div class=\"box-title\">\n\t\t\t\t\t\t\t\t\t<h3 class=\"people-profile-title\">Jorge Pinazo Donoso<\/h3>\n\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span>Electronics R&amp;D Technical Lead<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"col-md-12 col-lg-6 social-box-container dkt-social-icon\">\n\t\t\t\t\t\t\t\t<ul class=\"social-nav\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<li><a aria-label=\"Linkedin\" target=\"_blank\" title=\"Abrir en una nueva ventana\" href=\"https:\/\/www.linkedin.com\/in\/jorge-pinazo-donoso-755374104\/\"><i aria-hidden=\"true\" class=\"icon-li\"><\/i><\/a><\/li>\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/ul>\n\t\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div><\/div><\/div><div class=\"slider-nav\"><button class=\"slider-prev inactive\" aria-label=\"Slider-previous\" tabindex=\"-1\"><\/button><ul class=\"slider-paginator\"><\/ul><button class=\"slider-next\" aria-label=\"Slider-next\"><\/button><\/div><\/div><\/section>\n\n\n<section class=\"section section--expert-perspectives\"><div class=\"container\"><div class=\"row\"><div class=\"content-title col-12 col-md-8\"><h2 class=\"expert-heading\">Art\u00edculos relacionados<\/h2><\/div><\/div><div class=\"expert-prospective-container\"><div class=\"row\"><div class=\"col-12 col-md-4 row-space\"><div class=\"box\"><div class=\"box-img-wrapper\"><a href=\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/evaluacion-experimental-radar-mimo-para-adas\/\" aria-label=\"Evaluaci\u00f3n experimental de las prestaciones de un radar MIMO para aplicaciones ADAS\" tabindex=\"-1\"><img decoding=\"async\" class=\"box-img\" alt=\"\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/07\/inpercept3.jpg?w=600&#038;quality=70\" style=\"object-position: 54% 34%; object-fit: cover;\" loading=\"lazy\" \/><\/a><\/div><div class=\"box-inner\"><div class=\"box-tag\"><\/div><a class=\"content-box-title\" href=\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/evaluacion-experimental-radar-mimo-para-adas\/\" aria-label=\"Evaluaci\u00f3n experimental de las prestaciones de un radar MIMO para aplicaciones ADAS\"><h3 class=\"expert-subtitle\">Evaluaci\u00f3n experimental de las prestaciones de un radar MIMO para aplicaciones ADAS<\/h3><\/a><div class=\"box-bottom\">\n\t\t   <div class=\"box-logo\"><img decoding=\"async\" class=\"light\" loading=\"lazy\" alt=\"Capgemini\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/themes\/capgemini2025\/assets\/images\/cg-logo-blue.svg\" \/><img decoding=\"async\" class=\"dark\" loading=\"lazy\" alt=\"Capgemini\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/themes\/capgemini2025\/assets\/images\/cg-logo-white.svg\" \/><\/div><div class=\"date-name-info\"><div class=\"author-text\">Capgemini<\/div><div class=\"date-text\">jul. 16, 2024<\/div><\/div><\/div><\/div><\/div><\/div><div class=\"col-12 col-md-4 row-space\"><div class=\"box\"><div class=\"box-img-wrapper\"><a href=\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/la-conduccion-autonoma-una-realidad-inminente\/\" aria-label=\"La conduccion aut\u00f3noma, \u00bfuna realidad inminente?\" tabindex=\"-1\"><img decoding=\"async\" class=\"box-img\" alt=\"\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2023\/03\/1.jpeg?w=600&#038;quality=70\" style=\"object-position: 50% 50%; object-fit: cover;\" loading=\"lazy\" \/><\/a><\/div><div class=\"box-inner\"><div class=\"box-tag\"><\/div><a class=\"content-box-title\" href=\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/la-conduccion-autonoma-una-realidad-inminente\/\" aria-label=\"La conduccion aut\u00f3noma, \u00bfuna realidad inminente?\"><h3 class=\"expert-subtitle\">La conduccion aut\u00f3noma, \u00bfuna realidad inminente?<\/h3><\/a><div class=\"box-bottom\">\n\t\t   <div class=\"box-logo\"><img decoding=\"async\" class=\"\" loading=\"lazy\" alt=\"\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2023\/03\/adolfo_lerin.jpg?w=800\" \/><\/div><div class=\"date-name-info\"><div class=\"author-text\">Adolfo Ler\u00edn<\/div><div class=\"date-text\">mar. 8, 2023<\/div><\/div><\/div><\/div><\/div><\/div><div class=\"col-12 col-md-4 row-space\"><div class=\"box\"><div class=\"box-img-wrapper\"><a href=\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/aumentando-la-percepcion-del-vehiculo-el-proyecto-inpercept\/\" aria-label=\"Aumentando la percepci\u00f3n del veh\u00edculo: el proyecto INPERCEPT\" tabindex=\"-1\"><img decoding=\"async\" class=\"box-img\" alt=\"\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/10\/prueba_frenado.jpg?w=600&#038;quality=70\" style=\"object-position: 50% 50%; object-fit: cover;\" loading=\"lazy\" \/><\/a><\/div><div class=\"box-inner\"><div class=\"box-tag\"><\/div><a class=\"content-box-title\" href=\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/aumentando-la-percepcion-del-vehiculo-el-proyecto-inpercept\/\" aria-label=\"Aumentando la percepci\u00f3n del veh\u00edculo: el proyecto INPERCEPT\"><h3 class=\"expert-subtitle\">Aumentando la percepci\u00f3n del veh\u00edculo: el proyecto INPERCEPT<\/h3><\/a><div class=\"box-bottom\">\n\t\t   <div class=\"box-logo\"><img decoding=\"async\" class=\"light\" loading=\"lazy\" alt=\"Capgemini\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/themes\/capgemini2025\/assets\/images\/cg-logo-blue.svg\" \/><img decoding=\"async\" class=\"dark\" loading=\"lazy\" alt=\"Capgemini\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/themes\/capgemini2025\/assets\/images\/cg-logo-white.svg\" \/><\/div><div class=\"date-name-info\"><div class=\"author-text\">Capgemini<\/div><div class=\"date-text\">oct. 1, 2024<\/div><\/div><\/div><\/div><\/div><\/div><\/div><\/div><\/div><\/section>\n\n\n<section class=\"wp-block-cg-blocks-group undefined section section--article-content\"><div class=\"article-main-content\"><div class=\"container\"><div class=\"row\"><div class=\"col-12 col-md-11 col-lg-10 offset-md-1 offset-lg-1\"><div class=\"article-text article-quote-text\">\n<h3 class=\"wp-block-heading\" id=\"h-\"><\/h3>\n\n\n\n<p><em>Este proyecto ha sido subvencionado por el CDTI, cofinanciado con fondos Europeos del Mecanismo de Recuperaci\u00f3n y Resiliencia y apoyado por el Ministerio de Ciencia e Innovaci\u00f3n. Este proyecto tiene&nbsp;n\u00famero de expediente PTAS-20211011<\/em><\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"101\" src=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2023\/07\/Logos-IRON-NPE-001.jpg\" alt=\"\" class=\"wp-image-547626\" srcset=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2023\/07\/Logos-IRON-NPE-001.jpg 1024w, https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2023\/07\/Logos-IRON-NPE-001.jpg?resize=300,30 300w, https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2023\/07\/Logos-IRON-NPE-001.jpg?resize=768,76 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n<\/div><\/div><\/div><\/div><\/div><\/section>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"","protected":false},"author":461,"featured_media":100000873086,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"cg_dt_proposed_to":[],"cg_seo_hreflang_relations":"[]","cg_seo_canonical_relation":"","cg_seo_hreflang_x_default_relation":"{\"uuid\":\"ee8ea337-0968-41e9-bb8d-51d7bb8e6eb5\",\"blogId\":\"\",\"domain\":\"\",\"sitePath\":\"\",\"postLink\":\"\",\"postId\":null,\"isSaved\":true,\"isCrossLink\":false,\"hasCrossLink\":false}","cg_dt_approved_content":true,"cg_dt_mandatory_content":false,"cg_dt_notes":"","cg_dg_source_changed":false,"cg_dt_link_disabled":false,"_yoast_wpseo_primary_brand":"108","_jetpack_memberships_contains_paid_content":false,"footnotes":"","featured_focal_points":""},"categories":[3],"tags":[810],"brand":[108],"service":[],"industry":[25],"partners":[],"blog-topic":[696,726],"content-group":[],"class_list":["post-564808","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-innovation","tag-conduccion-autonoma","brand-capgemini-engineering","industry-automotive","blog-topic-engineering","blog-topic-intelligent-industry"],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v22.8 (Yoast SEO v22.8) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Fusi\u00f3n c\u00e1mara-radar basada en IA: estimaci\u00f3n de profundidad densa para veh\u00edculos aut\u00f3nomos - Capgemini Spain<\/title>\n<meta name=\"description\" content=\"Los avances en IA permiten fusionar en tiempo real los datos proporcionados por radares y c\u00e1maras de alta resoluci\u00f3n para ofrecer una comprensi\u00f3n integral del entorno del veh\u00edculo.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Fusi\u00f3n c\u00e1mara-radar basada en IA: estimaci\u00f3n de profundidad densa para veh\u00edculos aut\u00f3nomos\" \/>\n<meta property=\"og:description\" content=\"Los avances en IA permiten fusionar en tiempo real los datos proporcionados por radares y c\u00e1maras de alta resoluci\u00f3n para ofrecer una comprensi\u00f3n integral del entorno del veh\u00edculo.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/\" \/>\n<meta property=\"og:site_name\" content=\"Capgemini Spain\" \/>\n<meta property=\"article:published_time\" content=\"2024-12-18T11:14:56+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-03-11T07:19:37+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2025\/10\/New-Web-preview-global.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1200\" \/>\n\t<meta property=\"og:image:height\" content=\"627\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Rafael Escarabajal S\u00e1nchez\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"antoniojimeno\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"13 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/\",\"url\":\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/\",\"name\":\"Fusi\u00f3n c\u00e1mara-radar basada en IA: estimaci\u00f3n de profundidad densa para veh\u00edculos aut\u00f3nomos - Capgemini Spain\",\"isPartOf\":{\"@id\":\"https:\/\/www.capgemini.com\/es-es\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.capgemini.com\/wp-content\/uploads\/2023\/03\/digital-process-automation-FS-1.jpg\",\"datePublished\":\"2024-12-18T11:14:56+00:00\",\"dateModified\":\"2025-03-11T07:19:37+00:00\",\"author\":{\"@id\":\"https:\/\/www.capgemini.com\/es-es\/#\/schema\/person\/282d5b17ddeac3c8133510844d3ceeef\"},\"description\":\"Los avances en IA permiten fusionar en tiempo real los datos proporcionados por radares y c\u00e1maras de alta resoluci\u00f3n para ofrecer una comprensi\u00f3n integral del entorno del veh\u00edculo.\",\"breadcrumb\":{\"@id\":\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/#breadcrumb\"},\"inLanguage\":\"es-ES\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es-ES\",\"@id\":\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/#primaryimage\",\"url\":\"https:\/\/www.capgemini.com\/wp-content\/uploads\/2023\/03\/digital-process-automation-FS-1.jpg\",\"contentUrl\":\"https:\/\/www.capgemini.com\/wp-content\/uploads\/2023\/03\/digital-process-automation-FS-1.jpg\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.capgemini.com\/es-es\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Fusi\u00f3n c\u00e1mara-radar basada en IA: estimaci\u00f3n de profundidad densa para veh\u00edculos aut\u00f3nomos\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.capgemini.com\/es-es\/#website\",\"url\":\"https:\/\/www.capgemini.com\/es-es\/\",\"name\":\"Capgemini Espa\u00f1a\",\"description\":\"Capgemini\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.capgemini.com\/es-es\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"es-ES\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.capgemini.com\/es-es\/#\/schema\/person\/282d5b17ddeac3c8133510844d3ceeef\",\"name\":\"antoniojimeno\",\"sameAs\":[\"tamas.lugosi@capgemini.com\"],\"url\":\"https:\/\/www.capgemini.com\/es-es\/author\/antoniojimeno\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Fusi\u00f3n c\u00e1mara-radar basada en IA: estimaci\u00f3n de profundidad densa para veh\u00edculos aut\u00f3nomos - Capgemini Spain","description":"Los avances en IA permiten fusionar en tiempo real los datos proporcionados por radares y c\u00e1maras de alta resoluci\u00f3n para ofrecer una comprensi\u00f3n integral del entorno del veh\u00edculo.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/","og_locale":"es_ES","og_type":"article","og_title":"Fusi\u00f3n c\u00e1mara-radar basada en IA: estimaci\u00f3n de profundidad densa para veh\u00edculos aut\u00f3nomos","og_description":"Los avances en IA permiten fusionar en tiempo real los datos proporcionados por radares y c\u00e1maras de alta resoluci\u00f3n para ofrecer una comprensi\u00f3n integral del entorno del veh\u00edculo.","og_url":"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/","og_site_name":"Capgemini Spain","article_published_time":"2024-12-18T11:14:56+00:00","article_modified_time":"2025-03-11T07:19:37+00:00","og_image":[{"width":1200,"height":627,"url":"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2025\/10\/New-Web-preview-global.jpg","type":"image\/jpeg"}],"author":"Rafael Escarabajal S\u00e1nchez","twitter_card":"summary_large_image","twitter_misc":{"Written by":"antoniojimeno","Est. reading time":"13 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/","url":"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/","name":"Fusi\u00f3n c\u00e1mara-radar basada en IA: estimaci\u00f3n de profundidad densa para veh\u00edculos aut\u00f3nomos - Capgemini Spain","isPartOf":{"@id":"https:\/\/www.capgemini.com\/es-es\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/#primaryimage"},"image":{"@id":"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/#primaryimage"},"thumbnailUrl":"https:\/\/www.capgemini.com\/wp-content\/uploads\/2023\/03\/digital-process-automation-FS-1.jpg","datePublished":"2024-12-18T11:14:56+00:00","dateModified":"2025-03-11T07:19:37+00:00","author":{"@id":"https:\/\/www.capgemini.com\/es-es\/#\/schema\/person\/282d5b17ddeac3c8133510844d3ceeef"},"description":"Los avances en IA permiten fusionar en tiempo real los datos proporcionados por radares y c\u00e1maras de alta resoluci\u00f3n para ofrecer una comprensi\u00f3n integral del entorno del veh\u00edculo.","breadcrumb":{"@id":"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/#breadcrumb"},"inLanguage":"es-ES","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/"]}]},{"@type":"ImageObject","inLanguage":"es-ES","@id":"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/#primaryimage","url":"https:\/\/www.capgemini.com\/wp-content\/uploads\/2023\/03\/digital-process-automation-FS-1.jpg","contentUrl":"https:\/\/www.capgemini.com\/wp-content\/uploads\/2023\/03\/digital-process-automation-FS-1.jpg"},{"@type":"BreadcrumbList","@id":"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.capgemini.com\/es-es\/"},{"@type":"ListItem","position":2,"name":"Fusi\u00f3n c\u00e1mara-radar basada en IA: estimaci\u00f3n de profundidad densa para veh\u00edculos aut\u00f3nomos"}]},{"@type":"WebSite","@id":"https:\/\/www.capgemini.com\/es-es\/#website","url":"https:\/\/www.capgemini.com\/es-es\/","name":"Capgemini Espa\u00f1a","description":"Capgemini","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.capgemini.com\/es-es\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"es-ES"},{"@type":"Person","@id":"https:\/\/www.capgemini.com\/es-es\/#\/schema\/person\/282d5b17ddeac3c8133510844d3ceeef","name":"antoniojimeno","sameAs":["tamas.lugosi@capgemini.com"],"url":"https:\/\/www.capgemini.com\/es-es\/author\/antoniojimeno\/"}]}},"blog_topic_info":[{"id":696,"name":"Engineering"},{"id":726,"name":"Intelligent industry"}],"taxonomy_info":{"category":[{"id":3,"name":"Innovation","slug":"innovation"}],"post_tag":[{"id":810,"name":"Conducci\u00f3n aut\u00f3noma","slug":"conduccion-autonoma"}],"brand":[{"id":108,"name":"Capgemini Engineering","slug":"capgemini-engineering"}],"industry":[{"id":25,"name":"Automotive","slug":"automotive"}],"blog-topic":[{"id":696,"name":"Engineering","slug":"engineering"},{"id":726,"name":"Intelligent industry","slug":"intelligent-industry"}],"following_users":[{"id":173,"name":"antoniojimeno","slug":"antoniojimeno"},{"id":167,"name":"automator","slug":"automator"}]},"parsely":{"version":"1.1.0","canonical_url":"https:\/\/capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/","smart_links":{"inbound":0,"outbound":0},"traffic_boost_suggestions_count":0,"meta":{"@context":"https:\/\/schema.org","@type":"NewsArticle","headline":"Fusi\u00f3n c\u00e1mara-radar basada en IA: estimaci\u00f3n de profundidad densa para veh\u00edculos aut\u00f3nomos","url":"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/","mainEntityOfPage":{"@type":"WebPage","@id":"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/"},"thumbnailUrl":"https:\/\/www.capgemini.com\/wp-content\/uploads\/2023\/03\/digital-process-automation-FS-1.jpg?w=150&h=150&crop=1","image":{"@type":"ImageObject","url":"https:\/\/www.capgemini.com\/wp-content\/uploads\/2023\/03\/digital-process-automation-FS-1.jpg"},"articleSection":"Innovation","author":[],"creator":[],"publisher":{"@type":"Organization","name":"Capgemini Spain","logo":""},"keywords":["conducci\u00f3n aut\u00f3noma"],"dateCreated":"2024-12-18T11:14:56Z","datePublished":"2024-12-18T11:14:56Z","dateModified":"2025-03-11T07:19:37Z"},"rendered":"<meta name=\"parsely-title\" content=\"Fusi\u00f3n c\u00e1mara-radar basada en IA: estimaci\u00f3n de profundidad densa para veh\u00edculos aut\u00f3nomos\" \/>\n<meta name=\"parsely-link\" content=\"https:\/\/www.capgemini.com\/es-es\/investigacion\/perspectivas-de-expertos\/fusion-camara-radar-para-vehiculos-autonomos\/\" \/>\n<meta name=\"parsely-type\" content=\"post\" \/>\n<meta name=\"parsely-image-url\" content=\"https:\/\/www.capgemini.com\/wp-content\/uploads\/2023\/03\/digital-process-automation-FS-1.jpg?w=150&amp;h=150&amp;crop=1\" \/>\n<meta name=\"parsely-pub-date\" content=\"2024-12-18T11:14:56Z\" \/>\n<meta name=\"parsely-section\" content=\"Innovation\" \/>\n<meta name=\"parsely-tags\" content=\"conducci\u00f3n aut\u00f3noma\" \/>","tracker_url":"https:\/\/cdn.parsely.com\/keys\/capgemini.com\/p.js"},"jetpack_featured_media_url":"https:\/\/www.capgemini.com\/wp-content\/uploads\/2023\/03\/digital-process-automation-FS-1.jpg","archive_status":false,"featured_image_src":"https:\/\/www.capgemini.com\/wp-content\/uploads\/2023\/03\/digital-process-automation-FS-1.jpg","featured_image_alt":"","jetpack_sharing_enabled":true,"distributor_meta":false,"distributor_terms":false,"distributor_media":false,"distributor_original_site_name":"Capgemini Spain","distributor_original_site_url":"https:\/\/www.capgemini.com\/es-es","push-errors":false,"featured_image_url":"https:\/\/www.capgemini.com\/wp-content\/uploads\/2023\/03\/digital-process-automation-FS-1.jpg","author_title":"Rafael Escarabajal S\u00e1nchez","author_thumbnail_url":"https:\/\/www.capgemini.com\/es-es\/wp-content\/uploads\/sites\/16\/2024\/10\/rafael-escarabajal.jpg?w=612","author_thumbnail_alt":"","_links":{"self":[{"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/posts\/564808","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/users\/461"}],"replies":[{"embeddable":true,"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/comments?post=564808"}],"version-history":[{"count":4,"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/posts\/564808\/revisions"}],"predecessor-version":[{"id":567270,"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/posts\/564808\/revisions\/567270"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/"}],"wp:attachment":[{"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/media?parent=564808"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/categories?post=564808"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/tags?post=564808"},{"taxonomy":"brand","embeddable":true,"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/brand?post=564808"},{"taxonomy":"service","embeddable":true,"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/service?post=564808"},{"taxonomy":"industry","embeddable":true,"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/industry?post=564808"},{"taxonomy":"partners","embeddable":true,"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/partners?post=564808"},{"taxonomy":"blog-topic","embeddable":true,"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/blog-topic?post=564808"},{"taxonomy":"content-group","embeddable":true,"href":"https:\/\/www.capgemini.com\/es-es\/wp-json\/wp\/v2\/content-group?post=564808"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}