Del lunes 4 al viernes 8 de abril de 2016, 3DCadPortal atendio la Conferencia anual GTC de NVIDIA Corporation en San José, California, EUA. Ahí Jen-Hsun Huang CEO de NVIDIA nos ofreció explicación de sus productos y la visión de la empresa en una conferencia magistral, donde abordó temas de aplicación como, aprendizaje profundo e inteligencia artificial, coches, máquinas autónomas y robots que ya contestan en tiempo real.
Jen presentó una nueva plataforma de realidad virtual con nuevos dispositivos puestos como lentes y comentó que empresas startups de realidad Virtual como NEXT VR, Jaunt y Magic Leap han recibido 1,500 millones de dólares en fondos de inversión, la cual es altísima y habla de la oportunidad que se viene.
Jen destaco el proyecto de realidad virtual Marte 2030, donde se puede hacer un recorrido por la superficie del planeta rojo en 3D, con la estación programada por la NASA y el vehículo que se piensa utilizar para desplazarse. Steve Wozniak apareció en vivo en la pantalla y dio un paseo virtual con los lentes de realidad virtual Oculus, comentando que le gustaría visitar el planeta. También comentó que la tecnología IRAY VR estará disponible en Junio, para un visualización con realismo como nunca antes visto, incluyendo una versión LITE. Ahí vimos en 3D la propuesta del nuevo edificio corporativo a escala de NVIDIA, con texturas, iluminación, como si ya estuviera construido. Algunos asistentes pensaron que el edificio ya se podía visitar ¡
En inteligencia artificial el avance fue impresionante, hace un año las computadoras no podías reconocer más que una taza de café, al presentarse varios objetos, ahora reconocen mejor que un ser humano ¡. Jen comentó que la TESLA M40 ya está impulsando a las redes sociales. Mostró cómo una computadora puede “pintar” en base a conocimiento de millones de pinturas.
Presentó la TESLA P100, el procesador gráfico más avanzado para híper escalamiento, y la DGX-1, la primera súper computadora para aprendizaje profundo del mundo con capacidad de 170 Teraflops, equivalente a 250 servidores y a un precio bajísimo de 129,000 dólares. También presentó los avances en vehículos autónomos con la primera plataforma de cómputo para auto DRIVE PX. Esta e del tamaño de una tarjeta gráfica puede percibir cuándo se aproxima un vehículo, con el objetivo de que el manejo de estos nuevos autos sea más seguro. La compañía ya habla de una carrera de autos autónomos ¡.
David Luebke, VP de investigación gráfica de NVIDIA presentó los avances en video 360, Holopresencia de una hija con su papá, usando Oculus y escaneo en tiempo real de la niña. En su presentación de Pantallas para Realidad Virtual y Aumentada comenta que en un futuro, la realidad virtual puede reemplazar a las pantallas y la realidad aumentada podría reemplazar a los teléfonos inteligentes ¡. Comentó que los retos son la cercanía del ojo, el campo de visión, la resolución, el tamaño, la Latencia (tardanza en responder a cambios de posición de la cabeza), enfoque, potencia. Ahora los lentes de Realidad virtual parecen a los visores de los buzos debido al campo de visión requerido. A futuro, los lentes de RV van a ser mucho más pequeños y cómodos.
NVIDIA ofreció una conferencia de sus productos profesionales, donde presentó la nueva tarjeta de video M6000 con 24 GB de memoria RAM de video ¡. Comentaron que con los nuevos dispositivos móviles, ahora podemos llevar la realidad virtual al cliente y permitirle visualizar los proyectos ahí mismo donde se planean realizar, construir, armar, etc. Ya no está restringida a equipos de escritorio muy costosos.
En el área de presentación destacó la “Villa Virtual”, donde se estuvieron ofreciendo de manera continua durante todo el evento, diferentes experiencias de Realidad Virtual a los asistentes, desde la cumbre del Monte Everest, ejemplos de configuraciones de Autos Audi, hasta videojuegos tales como la estación del tren bala en Japón, jugando por primera vez en una experiencia inmersiva a 360 dentro del juego ¡. Audi presentó los detalles de cómo definieron la experiencia de compra del auto mostrándolo como si fuera real a 90 cuadros por segundo con lentes Oculus en los distribuidores.
También se presentó el vehículo autónomo y las nuevas técnicas de reconocimiento por “Ladar” (LAser Detection And Ranging), que es un radar láser que detecta los vehículos cercanos y evita colisiones, así como personas y frena para evitar arrollarlos.
La segunda presentación magistral estuvo a cargo de Rob High de IBM Watson, proyecto de conocimiento, que ya le permite a un robot contestar casi como si fuera un ser humano, entendiendo lo que se le pregunta y contestando de acuerdo a su base de conocimiento. Rob comenta que el cómputo basado en conocimiento está en crecimiento exponencial y va a formar parte de nuestras vidas en un futuro cercano, gracias al poder de los procesadores gráficos GPU. Por ejemplo, podemos indicar a The North Face que queremos visitar Alaska, y nos va a recomendar la chamarra adecuada de acuerdo a la temperatura que vamos a enfrentar. También presentó los Robots con forma de humanos Aldebaran quien contesta cuál es su color favorito, interactuando con un ser humano y respondiendo con gestos tales como mover los ojos y al pedirle se pone a bailar sin problema ni le da pena.
Christian Reinhard de Elektrobit, presentó cómo con pantallas interiores y realidad aumentada, vamos a poder recibir información de los vehículos que están cerca, la velocidad y dirección en la que nos dirigimos, ayuda para estacionarnos, estar conectados mientras manejamos. Estas pantallas nos permitirán ver la información aumentada son necesidad de tabletas y lentes que están disponibles el día de hoy. Nos indicara la distancia a la que se encuentra el auto de enfrente, y el control de manejo se va a adaptar a los vehículos que vamos alcanzando. Las GPU´s y los sistemas gráficos están en el corazón de esta tecnología. Para el 2021 se tendrán 5.5 millones de autos con pantallas de información y 600,000 con realidad aumentada proveniente de los sensores del auto. EB va a ofrecer software para la creación de Realidad Aumentada para el sector automotriz.
En la tercera y última conferencia magistral, “Poder, Autonomía Paralela y Gente”, el Presidente del Instituto de Investigaciones de Toyota Gill Pratt, nos presenta cómo los robots, las súper computadoras y los autos se conjuntan para que la inteligencia artificial beneficie al ser humano, mientras maneja. Explico que la inspiración principal del Instituto son los 1.2 millones de personas que mueren cada año en accidentes de automóvil, no siempre manejando, a veces atropellados. Pratt menciona que comparando el cerebro humano con una computadora Von Neumann, el cerebro no solamente tiene mucho más capacidad, sino que consume muchísima menos energía para trabajar, como indica un estudio de DARPA. Está estudiando 3 modos de control, el modelo serie en el que el auto te indica qué hacer, el modelo interactivo donde el auto toma control cuando es necesario, y el modo paralelo, donde el auto tiene adentro un “ángel guardián” que maneja con nosotros y nos ayuda a evitar accidentes.
La empresa de construcción especializada en hospitales McCarthy, de las más grandes de EUA, mostro cómo está utilizando la realidad virtual para ganar más proyectos, para sus proyectos presentan las maquetas virtuales y el cliente puede ver y caminar dentro de los edificios. Pueden diseñar y verificar los diseños en conjunto con el cliente y que sienta que ya está dentro del edificio y tener una idea del tamaño real y la escala del proyecto.