El Audi Q7 deep learning concept muestra su capacidad de aprendizaje automático
En el Salón de la Electrónica de Consumo (CES) que se celebró en Las Vegas, Audi presentó el Audi Q7 deep learning concept.
Una cámara frontal con dos megapíxeles comunicada con una unidad de procesamiento NVIDIA Drive PX2 controlan la dirección del Audi Q7 y constituyen la base del Audi Q7 deep learning concept, un vehículo con sistema de conducción pilotada
El núcleo de este software son redes neuronales preparadas por expertos de Audi y NVIDIA y el reconocimiento de señales dinámicas de control de tráfico.
El Audi Q7 deep learning, con un conductor humano al volante, se familiariza con la ruta y los alrededores gracias a la observación y con cámaras de aprendizaje adicionales. Esto entabla una correlación entre las reacciones del conductor y el entorno detectados por las cámaras.
Así, durante la prueba de conducción, el coche es capaz de comprender instrucciones como las procedentes de una señal temporal de tráfico, interpretarlas de modo correcto y actuar tal y como la situación requiere. El sistema es tan perfecto que incluso puede adaptarse a cambios de tiempo o de luz. Controla y domina las tareas de día y de noche, con luz solar o con luz artificial.
Para la instauración de este sistema, Audi estuvo presente en la Conferencia y Talleres de trabajo sobre Sistemas de Procesamiento de Información Neuronal (NIPS), un evento sobre inteligencia artificial celebrado en Barcelona el pasado mes de diciembre. El método se basa en el aprendizaje de refuerzo profundo. En otras palabras, la red de Audi Q7 deep learning concept aprende del conductor.
Audi trabaja en la inteligencia artificial con los líderes de la industria electrónica. Y NVIDIA ha colaborado profesionalmente con Audi desde 2005, siendo considerada la mayor operadora mundial de la industria de los semiconductores. La plataforma modular de infotainmenet (MIB), que fue introducida en 2013, equipaba el procesador Tegra 2 de NVIDIA. Y la MIB2 que le siguió en el Audi Q7 en 2015, trabaja con un procesador NVIDIA T30.
Este 2017 en el MIB2+ que se instalará en el Audi A8, un procesador Tegra k1 es la clave. Este procesador soporta diversas pantallas de alta resolución, incluyendo la 2ª generación del Audi virtual cockpit. Junto con la MIB2+, el nuevo controlador central de asistencia al conductor (zFAS) en el nuevo Audi A8 también hará su debut en un modelo de producción en serie. En el futuro, llegará el procesador X1 de NVIDIA.
Mobileye también es otro sociol básico de Audi, y su chip de procesamiento de imagen está también integrado en el zFAS. La empresa israelí de alta tecnología es la líder mundial en el campo del reconocimiento de imagen para aplicaciones automotrices. Una cámara de Mobileye está en uso en algunos modelos Audi- Audi Q7, en la series de los A4/A5 y en el nuevo Q5 y este software de procesamiento de imágenes reconoce un gran número de objetos, como las delimitadores de carril, coches, señales de tráfico y peatones
En el nuevo Audi A8 Audi y Mobileye suben un nivel más aún, utilizando métodos de reconocimiento de imagen de aprendizaje profundo. Las redes neuronales permiten al sistema el autoaprendizaje al determinar qué características son apropiadas y relevantes para identificar los distintos objetos. Con esta metodología el coche puede incluso reconocer situaciones de conducción sin tráfico, un importante requisito previo para una conducción segura y pilotada.
Por primera vez en el nuevo A8 Audi Traffic jam pilot assit permitirá al conductor dejar que el vehículo asuma el control total momentáneamente, lo cual supone un escenario para empezar la próxima década con altos niveles de automatización.
Debes ser identificado introducir un comentario.