Categories: NoticiasTecnología

Elon Musk no se equivocó al automatizar la línea de ensamblaje del Modelo 3, estaba un poco adelantado a su tiempo

En 2017, cuando Tesla anunciaron increíblemente ambiciosos objetivos de producción del Modelo 3 de 5,000 modelos 3 por semana y el comienzo del "infierno de producción", los analistas se mostraron cautelosos. Pero Elon Musk insistió en que podía lograrlo, citando la hiper automatización, una línea de ensamblaje robótica, como su arma secreta para aumentar la velocidad de fabricación y reducir los costos. Avanza un año y medio y Tesla lo entrega. 91,000 vehículos en el cuarto trimestre de 2018. Pero el avance no se produjo sin problemas masivos y se alejó de la visión original de Musk de una línea de ensamblaje altamente automatizada.

¿Que pasó?

Preguntado por qué el impulso hacia la automatización no tuvo éxito, Elon La respuesta giraba en torno a un problema importante: la visión robótica, o el software que controla lo que los robots de la línea de ensamblaje pueden "ver" y luego ver en función de esa visión de computadora. Desafortunadamente, los robots de la línea de ensamblaje simplemente no pudieron manejar orientaciones inesperadas de objetos como tuercas y pernos, o maniobras complicadas entre el chasis del automóvil. Cada uno de estos problemas causaría que la línea de ensamblaje se detuviera. Al final, fue mucho más fácil sustituir a los humanos por robots en muchas situaciones de ensamblaje.

Hoy en día, la visión por computadora (el término general para la visión robótica) está en todas partes y representa la próxima frontera de las tecnologías de inteligencia artificial y las aplicaciones innovadoras en una variedad de industrias. Los avances que están realizando en este momento los investigadores y las empresas en el espacio son impresionantes y representan las piezas faltantes necesarias para hacer realidad la visión de Elon Musk de una línea de montaje de automóviles automatizada. Básicamente, estos avances les darán a las computadoras y los robots la capacidad de lidiar de manera confiable con la amplia gama de casos inesperados en las esquinas, esos tornillos y tuercas errantes, que ocurren en el mundo real.

Un momento decisivo en la visión por ordenador.

La visión por ordenador experimentó un momento decisivo en 2012 con la aplicación de redes neuronales convolucionales. Desde entonces, realmente ha recogido vapor. Antes de 2012, la visión por computadora consistía en gran medida en soluciones hechas a mano, básicamente, los algoritmos tenían conjuntos de reglas definidas manualmente y podían describir matemáticamente las características de una imagen de manera relativamente efectiva. Estos fueron seleccionados a mano y luego combinados por un investigador de visión artificial para identificar un objeto específico en una imagen, como una bicicleta, un escaparate o una cara.

El aumento del aprendizaje automático y los avances en las redes neuronales artificiales cambiaron todo eso, lo que nos permite desarrollar algoritmos que utilizan enormes cantidades de datos de entrenamiento que pueden descifrar y aprender automáticamente las características de la imagen. El efecto neto de esto fue doble: (1) las soluciones se volvieron mucho más robustas (por ejemplo, una cara aún podría identificarse como una cara, incluso si estuviera orientada de manera ligeramente diferente, o en la sombra), y (2) la creación de buenas soluciones se volvió dependiente de grandes cantidades de datos de entrenamiento de alta calidad (los modelos aprenden características basadas en los datos de entrenamiento, por lo que es fundamental que los datos de entrenamiento sean precisos, suficientes en cantidad y representen la diversidad de situaciones que el algoritmo puede ver más adelante).

Ahora en el laboratorio: GANs, aprendizaje no supervisado y datos sintéticos

A continuación, nuevos enfoques como GAN (Generative Adversarial Networks), aprendizaje no supervisado y fondo sintético ofrecen la posibilidad de reducir sustancialmente la cantidad de datos de capacitación necesarios para desarrollar modelos de visión por computadora de alta calidad, así como el tiempo y el esfuerzo necesarios para recopilar datos. los datos. Con estos enfoques, las redes pueden iniciar su propio aprendizaje e identificar casos de esquina y valores atípicos con mayor fidelidad, mucho más rápido. Los humanos pueden evaluar los casos de esquina para refinar soluciones y obtener un modelo de alta calidad mucho más rápido.

Estos nuevos enfoques están expandiendo rápidamente la envolvente de la visión de computadora en términos de aplicaciones, robustez y confiabilidad. No solo tienen la promesa de resolver los desafíos de manufactura del Sr. Musk, sino que también ampliarán dramáticamente los límites en innumerables aplicaciones críticas, algunas de las cuales se destacan a continuación:

  • Automatización de fabricación: los robots tendrán cada vez más la capacidad de tratar objetos en orientaciones aleatorias, como un asiento de automóvil que está 20 grados descentrado o un tornillo que se encuentra a una pulgada demasiado hacia la izquierda. Aún más, los robots podrán identificar de manera confiable objetos blandos, flexibles y transparentes (piense, por ejemplo, en la bolsa de plástico de los calcetines que compró en Amazon la semana pasada). Los nuevos proveedores de robótica como Berkshire Grey están a la vanguardia de esto.

  • Detección facial: Anteriormente, la detección facial no era robusta en los casos de esquina como los ángulos laterales, el sombreado parcial u oclusión o las caras de los bebés. Ahora, los investigadores están descubriendo que la visión por computadora puede funcionar para identificar trastornos genéticos raros en una foto de una cara, con un 90 por ciento de precisión. Ciertas aplicaciones están siendo puestas en manos de los consumidores, lo que solo es posible porque los algoritmos se han vuelto cada vez más robustos para diversas condiciones de iluminación y otras situaciones que surgen como resultado de un menor control sobre la captura de imágenes.

  • Imágenes médicas: los avances ahora permiten la automatización de la evaluación de IRM, la detección de cáncer de piel y una serie de otros casos de uso importantes.

  • Automatización y asistencia al conductor: los sistemas de conducción automática fallaron cuando estaba nublado, ya que no podían diferenciar entre niebla pesada y una roca. Ahora, el aprendizaje no supervisado y la capacidad de crear datos sintéticos (liderados por personas como Nvidia) están comenzando a usarse para entrenar el sistema en casos de esquina que incluso miles de millones de millas recorridas registradas no pueden descubrir.

  • Agricultura: Empresas como Blue River Technology (adquirida por John Deere) ahora son capaces de diferenciar de manera confiable entre malezas y cultivos, y rocían selectivamente el herbicida de forma automática, lo que permite una reducción dramática en la cantidad de químicos tóxicos en uso en la agricultura comercial.

  • Bienes raíces e información sobre la propiedad: el uso de la visión computarizada en la parte superior de las imágenes geoespaciales podría permitir a las empresas identificar automáticamente cuándo las inundaciones, los incendios forestales o los vientos huracanados pueden representar un peligro para propiedades específicas, lo que permite a los propietarios tomar medidas con mayor rapidez antes de que ocurra un desastre.

Al observar estos avances, una cosa se aclara rápidamente: Elon Musk no estaba equivocado. Es solo que su visión (robótica y de otro tipo) estaba a uno o dos años de distancia de la realidad. La inteligencia artificial, la visión artificial y la robótica están cerca de un punto de inflexión de precisión, fiabilidad y eficacia. Para Tesla, significa que el próximo paso hacia el "infierno de producción" (probablemente para el modelo Y) verá una línea de ensamblaje muy diferente en sus fábricas de Fremont y Shanghai, una que implementará con más éxito la robótica combinada con la visión artificial.

Maria Montero

Me apasiona la fotografía y la tecnología que nos permite hacer todo lo que siempre soñamos. Soñadora y luchadora. Actualmente residiendo en Madrid.

Recent Posts

Uber utilizará la eSIM de Valid para casos de uso de IoT

Uber está mejorando sus implementaciones de IoT en todo el mundo mediante la adopción de…

3 years ago

Matter Motor Works se asocia con Airtel para habilitar sus bicicletas AERA con soluciones IoT

Obras de motor de materia y Bharti Airtel, un proveedor de servicios de telecomunicaciones ha…

3 years ago

Escultura de Zelda Guardian rastrea a humanos y mascotas a través de una cámara

En The Legend of Zelda: Breath of the Wild, los guardianes son una forma primitiva…

3 years ago

Nos encanta este diminuto Wall-E controlado por radio

Muchos de nosotros nos enamoramos absolutamente de Wall-E, el personaje principal de una…

3 years ago

Serie Samsung Galaxy S24: fecha de lanzamiento, especificaciones, precio y todos los rumores hasta ahora

Dhruv Bhutani / Android AuthorityCada año, los fanáticos de los teléfonos inteligentes esperan con ansias…

3 years ago

Final Cut Pro para iPad: fecha de lanzamiento, características, compatibilidad, precio

Apple ha anunciado que Final Cut Pro finalmente llegará para el iPad. Tras años de…

3 years ago