La Universidad de Michigan, bien conocido por sus esfuerzos en la tecnología de auto-manejo de automóviles, ha estado trabajando en un algoritmo mejorado para predecir los movimientos de los peatones que toma en cuenta no solo lo que están haciendo, sino también cómo lo están haciendo. Este lenguaje corporal puede ser crítico para predecir lo que una persona hace a continuación.
Mantener un ojo en los peatones y predecir lo que van a hacer es una parte importante del sistema de visión de cualquier vehículo autónomo. Comprender que una persona está presente y dónde hace una gran diferencia en la forma en que el vehículo puede operar, pero mientras algunas compañías anuncian que pueden ver y etiquetar a las personas en tal o cual rango, o bajo estas o esas condiciones, pocos o ninguno pueden hacerlo. Dicen que pueden ver gestos y posturas.
Dichos algoritmos de visión pueden (aunque en la actualidad es poco probable) ser tan simples como identificar a un humano y ver cuántos píxeles se mueven en unos pocos cuadros, luego extrapolarlos desde allí. Pero, naturalmente, el movimiento humano es un poco más complejo que eso.
El nuevo sistema de UM utiliza los sistemas de cámara lidar y estéreo para estimar no solo la trayectoria de una persona, sino su postura y forma de andar. La postura puede indicar si una persona está mirando hacia o lejos del auto, o usando un bastón, o inclinándose sobre un teléfono; la marcha indica no solo la velocidad sino también la intención.
¿Alguien está mirando por encima del hombro? Tal vez van a dar la vuelta o caminar hacia el tráfico. ¿Están extendiendo sus brazos? Tal vez le están indicando a alguien (o quizás al auto) que se detenga. Estos datos adicionales ayudan a un sistema a predecir el movimiento y permiten un conjunto más completo de planes de navegación y contingencias.
Es importante destacar que se desempeña bien con solo un puñado de marcos con los que se puede trabajar, lo que quizás incluya un solo paso y el movimiento del brazo. Eso es suficiente para hacer una predicción que supera fácilmente a los modelos, una medida crítica del rendimiento ya que no se puede suponer que un peatón será visible por más de unos pocos cuadros entre las obstrucciones.
No se puede hacer mucho con estos datos ruidosos y poco estudiados en este momento, pero percibirlos y catalogarlos es el primer paso para convertirlos en parte integral del sistema de visión de un AV. Puede leer el documento completo que describe el nuevo sistema en IEEE Robotics and Automation Letters o en Arxiv (PDF).
Uber está mejorando sus implementaciones de IoT en todo el mundo mediante la adopción de…
Obras de motor de materia y Bharti Airtel, un proveedor de servicios de telecomunicaciones ha…
En The Legend of Zelda: Breath of the Wild, los guardianes son una forma primitiva…
Muchos de nosotros nos enamoramos absolutamente de Wall-E, el personaje principal de una…
Dhruv Bhutani / Android AuthorityCada año, los fanáticos de los teléfonos inteligentes esperan con ansias…
Apple ha anunciado que Final Cut Pro finalmente llegará para el iPad. Tras años de…