En un video revelador que muestra la increíble capacidad de la nueva aplicación Project Astra de Google, se demostró una interacción sorprendente entre el probador y Gemini, el asistente de inteligencia artificial. Durante la demostración, el probador le preguntó a Gemini sobre la ubicación de sus gafas, a lo que el IA respondió con precisión, indicando que estaban en un escritorio cerca de una manzana roja, a pesar de que dicho objeto no estaba visible en ese momento.
Estas gafas no eran unas gafas comunes, sino que estaban equipadas con una cámara incorporada y una interfaz visual avanzada. El probador las colocó y pudo interactuar con Gemini, haciendo preguntas sobre el entorno que veía. La cámara del dispositivo capturaba el entorno, mientras que una forma de onda en la interfaz indicaba que el IA estaba escuchando. Además, aparecían subtítulos en pantalla que reflejaban las respuestas de Gemini en voz alta.
Aunque el vistazo al dispositivo fue breve, se pudo observar que tenía un diseño simple y discreto, a diferencia de Google Glass, siendo menos voluminoso. Aunque es probable que Google no esté lista para lanzar oficialmente estas gafas en su conferencia I/O, el concepto de Project Astra y la visión de “agentes universales” de Google podrían llegar a dispositivos como teléfonos móviles o gafas en el futuro.
Este avance en tecnología portátil podría infundir esperanza a aquellos que han lamentado la desaparición de Google Glass u otros productos portátiles fallidos de la compañía. Aunque aún no se conocen muchos detalles, la demostración de Project Astra promete una emocionante evolución en la forma en que interactuamos con la tecnología en nuestro día a día.