South by Southwest: las novedades del evento

South by Southwest
El South by Southwest finaliza el 20 de marzo.

La innovación no se detiene. Así se vivieron los siguientes días del festival de Austin, Texas.

Edney Souza, nuestro director académico de Brasil que se encuentra en Estados Unidos, sigue de cerca el South by Southwest. Desde allí nos explica en primera persona cómo fueron la cuarta y quinta jornada de este evento que se extenderá hasta el próximo 20 de marzo.

Día 4: Inteligencia artificial y conversación

El día comenzó con el panel “Una nueva prueba de Turing: ¿puede la IA encontrar un conejo perdido?”. Alex Castrounis (Why of AI e Northwestern University), Casey Hudetz (DocuSign) y Pamela Pavliscak (Pratt Institute) discutieron si la Inteligencia Artificial puede interpretar el texto del libro I Want My Hat Back de Jon Klassen.

Es un libro para niños, donde un oso pierde su sombrero y habla con varios animales hasta que se da cuenta que fue el conejo el que se lo quitó y luego se lo come. Como es un libro infantil, no está claro que realmente el oso se haya comido al animalito y ese es el tema principal del panel. ¿Puede una Inteligencia Artificial descifrar qué le pasó al conejo? La respuesta depende de cómo abordes el desafío.

Si esperas que la Inteligencia Artificial entienda los dibujos, qué animal dice cada frase, qué emociones sienten los animales y luego responde qué le pasó al conejo, la respuesta es no.

Este es un desafío mundial propuesto a miles de científicos y aún sin resolver. Los animales del libro no son reconocidos por la Inteligencia Artificial debido a su diseño caricaturizado. Los modelos de IA existentes funcionan bien para identificar animales reales, no dibujos.

Las líneas al lado de cada imagen no indican quién habla, pero como sabemos que es el oso el que perdió el sombrero y los colores son diferentes, los humanos podemos hacer esta asociación.

Hay IA entrenadas para identificar emociones, pero los modelos de éstas funcionan en rostros humanos y personas. En el libro, los humanos pudimos identificar algunos sentimientos en los animales por su mirada (no tienen boca) y por el contenido del texto.

Sin embargo, si describe todas las imágenes y pone a los autores en cada oración, hay una IA, llamada GPT-3, que puede entender que el oso se comió al conejo. Vale la pena señalar que el GPT-3 tiene 175 mil millones de parámetros de aprendizaje automático e intenta simular conversaciones normales cuando se le solicita. Existe la posibilidad de que la IA haya "pateado" que el conejo se haya comido en lugar de "analizar" el problema en profundidad.

De todos modos me gustó entender en el panel que la IA solo resolvía el problema al convertir a texto. Las IA siguen resolviendo solo problemas muy específicos para los cuales fueron entrenadas. Cuando es necesario fusionar diferentes modelos en un análisis, todavía están lejos de funcionar como humanos.

Posteriormente fue el turno del panel “Cómo habla la gente y qué significa para la tecnología” donde Jonathan Bloom y Tanya Kraljic de Google.

Cuando las personas hablan con un asistente de voz de Google, el 7% de las veces tocan el dispositivo, el 29% hacen gestos con las manos y el 86% hacen contacto visual. Este fue un estudio de la propia compañía donde se colocaron cámaras en algunos hogares (con el consentimiento de las personas) para estudiar la interacción con el asistente de voz.

Explicaron a lo largo del panel cómo estudian los gestos, la integración social e incluso las pausas de conversación para mejorar los productos de Google.

Hablaron sobre Project Relate, donde las personas con dificultades del habla pueden usar una aplicación para entenderse mejor.

También dijeron cómo las expresiones son importantes en el habla. Debido a esto, algunas personas usan otro producto de Google, Live Transcribe, cerca de su cara para ver lo que dicen mientras se realiza la transcripción.

Curiosidad: como Live Transcribe es un producto principalmente para sordos, el video promocional no tiene sonido:

0:00
/

Dado que la retroalimentación visual es crucial, el asistente de Google enciende algunas luces mientras se comunica con las personas. También citaron a Jibo, un robot asistente, como un buen ejemplo de una interfaz con interacción social.

Comprender cómo nos comunicamos hace posible utilizar las tecnologías existentes de formas más inteligentes y avanzadas.

Día 5: Coches Eléctricos, Coches Autónomos y Computación Cuántica

La primera charla de hoy fue "BEV y más allá: diseñando un futuro eléctrico" con Frank Brown de Ford. BEV es la abreviatura de Battery Electric Vehicles y con toda la inestabilidad global en torno al petróleo, la demanda de vehículos eléctricos se ha disparado en los Estados Unidos.

Henry Ford conoció a Thomas Edison y casi lanzaron juntos un automóvil eléctrico alrededor de 1914. Casi al mismo tiempo, surgió un automóvil eléctrico, el Detroit Electric producido por Anderson Electric Car Company en Detroit, Michigan. La empresa fabricó 13.000 coches eléctricos entre 1907 y 1939.

La idea de los coches eléctricos no es nueva, ¿qué ha cambiado entonces?. Con los autos eléctricos Tesla de Elon Musk volviéndose más rápidos y poderosos que los autos de gasolina, fue entonces cuando todo el mundo automovilístico volvió a este tipo de vehículo.

Frank habló sobre el futuro del Mustang, un automóvil que siempre ha sido un símbolo de Estados Unidos. Ahora existe la versión eléctrica del Ford Mustang con una potencia máxima de 480 CV (10 CV más que su versión de gasolina) y puede recorrer hasta 300 millas (482 km) con una carga de batería.

Confieso que esperaba aprender más sobre Argo AI, un servicio de entrega en el que Ford y Walmart están trabajando juntos utilizando vehículos autónomos en Miami, Austin, Texas y Washington, DC.

Luego asistí a la conferencia “La revolución del transporte cuántico” con Whurley, CEO de Strangeworks, una empresa que busca hacer que la computación cuántica sea accesible para todos.

Se espera que la revolución de la computación cuántica impacte en todas las áreas de nuestras vida en lo 3 a 10 años. Sin embargo, de momento ya existen algunos proyectos que utilizan esta tecnología puntera, como por ejemplo:

· Volkswagen utilizó la computación cuántica en un proyecto piloto para la optimización del tráfico en Lisboa

· Mitsubishi y Groovenauts: Rutas de recolección de basura optimizadas usando computación cuántica e IA, reduciendo de 2300 km a 1000 km recorridos

· Toyota y DENSO están optimizando los sistemas de transporte multimodal, coordinando el flujo de pasajeros y el tráfico entre los servicios de viajes compartidos y los autobuses públicos.

· Deutsche Bahn está utilizando la computación cuántica para optimizar su planificación de material rodante para los 40.000 trenes que viajan a más de 5.700 estaciones todos los días.E ainda falou de outros projetos de empresas como FS Italiane, OneSky, Frankfurt Airport, NEC, Airbus, Total Energies, AT&T e NASA. Ou seja, grandes empresas que têm que resolver problemas logísticos já estão usando ou planejando usar computação quântica.

También habló de otros proyectos de empresas como FS Italiane, OneSky, Aeropuerto de Frankfurt, NEC, Airbus, Total Energies, AT&T y NASA. Es decir, las grandes empresas que tienen que resolver problemas logísticos ya están usando o planean usar la computación cuántica.