¿Cuál es el plan de Google para los lentes de realidad aumentada?

La RA superpone la información a lo que se está viendo en el mundo real. Es un concepto sencillo, pero que dará paso a una forma radicalmente distinta de interactuar con la tecnología

Los lentes de realidad aumentada cambiarán fundamentalmente la forma en que usamos la tecnología y nuestra relación con Internet. Facebook habla de sus planes generales, y Microsoft tiene las HoloLens para empresas, mientras que los rumores en torno a la oferta de Apple están en su punto más alto. En el frente del hardware, la especulación de Google está notablemente ausente. La falta de rumores sobre los lentes de realidad aumentada aún no es desconcertante debido al trabajo de software y las adquisiciones de Google, pero podría serlo pronto.

Por qué la RA

La RA superpone la información a lo que se está viendo en el mundo real. Es un concepto sencillo, pero que dará paso a una forma radicalmente distinta de interactuar con la tecnología. Mucho antes de los teléfonos inteligentes, uno se dirigía a un lugar específico de su escuela o de su casa para utilizar un ordenador. La miniaturización del hardware y la proliferación del acceso a la conectividad celular a principios de la década de 2000 cambiaron esa situación, de modo que la tecnología te sigue.

Dicho esto, hay similitudes entre el uso de un teléfono y el de un portátil u ordenador de sobremesa. Sigues buscando información de forma activa, literalmente cazando y picoteando aplicaciones. Las alertas push cambiaron esa dinámica en el sentido de que ahora te guían a una acción, y la RA llevará eso a un nivel completamente nuevo.

Las notificaciones en las gafas de RA tendrán el potencial de apoderarse de toda tu visión de una manera muy inmediata. Si no se hace con tacto, esto podría ser perturbador y molesto, pero la inmediatez ofrece algunas nuevas oportunidades.

Notificaciones

Si estás en la calle, las aplicaciones de mapas podrían avisarte de un restaurante que se ajuste a tus preferencias. Esto es posible con un teléfono hoy en día, pero una aplicación que te envíe una alerta push tiene que estar muy segura de que la verás a tiempo y no cuando estés a varias manzanas de distancia. Además, una serie de estas alertas sería molesta si tuvieras que sacar el teléfono cada vez que se envía una. En cambio, en las gafas sería un asunto de baja fricción porque el dispositivo ya está fuera y encendido.

Google Live View Ar 2

Google Live View Ar 1

Google Live View Ar 3

Esta nueva naturaleza de las alertas tiene enormes ramificaciones para los asistentes virtuales. Hoy en día, sus capacidades proactivas están limitadas por el hecho de que los usuarios tienen que comprobar activamente una notificación o abrir un feed/una bandeja de entrada (Instantánea del Asistente). Al igual que con la localización, las notificaciones enviadas por los servicios de asistencia hoy en día tienen que estar muy seguras de que una alerta es realmente útil. En el futuro, los recordatorios basados en la realidad aumentada podrían ser activados por cosas que se ven en el mundo.

En resumen, las notificaciones de AR en los cristales serán muy llamativas por lo presentes e inmediatas que son, pero extrañamente más sutiles.

Los HUD y el espacio de trabajo en todas partes

Las pantallas de visualización frontal (HUD) se han asociado históricamente a los aviones, pero cada vez llegan más a los coches. Más allá de las notificaciones de la RA, las gafas permiten un HUD a la carta. Esto será útil cuando se navegue por una ciudad y se tengan las indicaciones, como por ejemplo cuándo girar, superpuestas justo delante de uno. La realidad aumentada también será muy conveniente para ver las instrucciones mientras cocinas o realizas una tarea de mantenimiento o montaje. Por otra parte, imagina que la lista de la compra aparece al entrar en una tienda o que puedes anotar tus tareas del día.

Una vez que la gente se familiarice con las pantallas flotantes y cuando la resolución mejore, las gafas de realidad aumentada se utilizarán para trabajar. El potencial de los espacios de trabajo virtuales es enorme. Se podría tener un número infinito de pantallas flotantes para realizar mejor las multitareas que se pueden utilizar en cualquier lugar de forma privada.

Todo siempre encendido

Con los smartphones de hoy en día, apagar la pantalla significa el fin de lo que estás haciendo. Cuando la gente se acostumbre a los HUD, querrá que estén siempre disponibles. Esa expectativa de disponibilidad constante se extenderá a los asistentes inteligentes y a poder pedir ayuda en cualquier momento del día, estés donde estés.

Google Maps Live View Landmarks

Google Maps Live View Landmarks 2

Hoy en día, a pesar de la proliferación de los AirPods, la mayoría de las personas siguen sin hablar con Siri o Google Assistant mientras están en el mundo por la incomodidad social. Pero también hay un elemento de cómo es más rápido ver una pantalla en lugar de escuchar a su asistente virtual leer en voz alta un largo mensaje o notificación. Al tener la RA una pantalla, los asistentes son mucho más eficientes y tienen más probabilidades de ser utilizados.

Además de las pantallas y la voz, la RA introducirá la cámara siempre activa. Puede que al principio no esté siempre encendida debido a las limitaciones de energía, pero incluso en las primeras versiones, la gente encontrará una enorme utilidad en tener una cámara siempre lista que les permita capturar rápidamente un punto de vista en primera persona. Más adelante, una cámara siempre encendida podría ver cosas que los usuarios pasan por alto e incitarles a actuar.

Lo que tiene ahora Google AR

En cuanto al software, Google está trabajando para hacer posibles muchas de las experiencias clave que la gente asocia con la RA. Sin embargo, dada la realidad de los factores de forma disponibles hoy en día, el trabajo se centra en los smartphones.

Google cuenta con dos experiencias de RA emblemáticas, empezando por Mapas. Live View ofrece indicaciones para caminar encendiendo la cámara del teléfono y mostrando flechas y chinchetas flotantes gigantes en la pantalla. En el fondo, Google utiliza la ubicación y compara lo que estás viendo con su vasto corpus de datos de Street View. La empresa lo denomina Sistema de Posicionamiento Visual, que permite a los dispositivos determinar en qué lugar del mundo te encuentras y qué estás viendo.

Google Live View

El siguiente es Google Lens. Actualmente, esta herramienta de búsqueda visual puede identificar texto para copiarlo y traducirlo sin problemas, mientras que el reconocimiento de objetos reconoce plantas, productos, animales y lugares de interés. Una integración más avanzada de Mapas permite tomar un menú para ver los platos recomendados y las fotos de las reseñas públicas, mientras que hay un ayudante de tareas que se conecta a la Búsqueda.

Más allá de las funciones y herramientas, Google está trabajando sutilmente para familiarizar a la gente con la RA a través del fenómeno que suponen los animales en 3D y otros objetos virtuales en la Búsqueda que se pueden colocar en su entorno. Google cree que “la forma más fácil de asimilar una nueva información es verla”, y esto se extiende a la educación (modelos del cuerpo humano y de las células) y al comercio. Ya se pueden explorar los coches en la Búsqueda, mientras que una sala de exposiciones virtual es más útil que tener que confiar en las fotos a la hora de comprar, dado el estado del mundo actual.

Para los desarrolladores, Google dispone de Cloud Anchors persistentes para crear capas de RA sobre el mundo real, mientras que su tecnología de oclusión ayuda a hacer más realistas las experiencias virtuales. La empresa también es capaz de detectar la profundidad con una sola cámara.

Lo que le falta a Google para las gafas de realidad aumentada

Al estar en vivo hoy, estos servicios están siendo utilizados activamente y optimizados por millones de usuarios. Sin embargo, nada de esto importa si no se miniaturiza.

Hablando de forma anecdótica tanto con entusiastas de la tecnología como con usuarios habituales, Google Lens no se utiliza mucho hoy en día. En lugar de hacer una foto para guardar información, los usuarios podrían utilizar Lens para copiar rápidamente el texto que necesitan y guardarlo en su aplicación de notas. Sin embargo, ese no es un hábito arraigado.

Levantar un teléfono para realizar tareas te saca de tu realidad actual y te obliga a centrarte en la nueva que es la pantalla que tienes delante.

Google Lens

Eso cambiaría cuando lleves físicamente algo destinado a tomar fotos, y tu pantalla de inicio AR sea más o menos un visor. Una interfaz de este tipo te entrena para tomar fotos para obtener un análisis por parte de Lens de la ayuda que se puede extraer. Google Lens podría muy bien ser la acción/herramienta por defecto de las primeras gafas de realidad aumentada.

Por otra parte, si bien la navegación con RA ya es inmensamente útil en un teléfono cuando se navega por zonas urbanas densas, las gafas proporcionarán una experiencia significativamente más útil que es manos libres y puede ocupar toda la pantalla para asegurarse de que no se pierde un giro.

El verdadero potencial de la realidad aumentada se materializa en el hardware dedicado. En su estado actual, las herramientas de RA se están adaptando a un factor de forma de hardware que es más adecuado para interacciones cortas y mucho menos inmersivas. Es un flaco favor a las aplicaciones de RA de hoy que limita las expectativas de la gente para la tecnología futura.

Estado del hardware

La última mención pública de qué desarrollo de hardware está haciendo la división de AR/VR de Google fue en mayo de 2019 (vía CNET) por parte de Clay Bavor:

“En el lado de los dispositivos de hardware, estamos mucho más en un modo de I+D y construyendo cuidadosamente los ladrillos de Lego que vamos a necesitar para encajar y hacer algunas experiencias realmente atractivas”.

El vicepresidente continuó diciendo que los futuros dispositivos llevarían las “experiencias útiles” del teléfono inteligente a “factores de forma más nuevos y diferentes.”

Mientras tanto, The Information a principios de 2020 reportó que a mediados de 2019 “antiguos miembros del equipo de RA de Google dijeron que la compañía no estaba trabajando en un esfuerzo comparable [a las rumoreadas gafas de Apple y Facebook].”

Desde entonces, Google adquirió el fabricante de gafas inteligentes North. Conocida por Focals, la empresa canadiense estaba teniendo problemas de financiación mientras intentaba lanzar Focals 2.0. Ese proyecto se canceló y los empleados se incorporaron para “unirse a los esfuerzos más amplios [de Google] para construir dispositivos y servicios útiles”. North se unió a la división de hardware de Google y no a Google AR & VR, aunque tiene sentido que cualquier gafa venga bajo la marca “Made by Google”:

La experiencia técnica de North nos ayudará a seguir invirtiendo en nuestros esfuerzos de hardware y en el futuro de la informática ambiental.

El alcance de la experiencia interna de Google en materia de miniaturización son hoy los Pixel Buds 2020. Es sin duda un comienzo, ya que la voz será una de las principales formas de controlar la entrada en las gafas inteligentes. Por otra parte, la adquisición de Fitbit sin duda aumenta el talento interno en materia de wearables.

Sin embargo, el verdadero problema de la realidad aumentada es la tecnología de las pantallas. Los chips son cada vez más pequeños y más eficientes desde el punto de vista energético, mientras que el procesamiento de la voz en el dispositivo, como se ve en el nuevo Asistente de Google, permite interacciones más rápidas. El gran cuello de botella son las pantallas que tienen un amplio campo de visión sin dejar de tener un tamaño cercano al de las gafas normales.

En definitiva, no hay una imagen muy clara de lo que Google está haciendo en las gafas de realidad aumentada. El talento y la tecnología están ciertamente ahí, especialmente con North, pero sigue pareciendo extraño que Google no tuviera algo ya en desarrollo antes.

El pasado de Google Glass

El elefante en la habitación es Google Glass. La misma nota de The Information del año pasado describía cómo “la lentitud de Google en el hardware de RA era en parte deliberada” debido a que ese esfuerzo anterior de 2013-15 era tan destacado (incluyendo pero no limitándose a la observación de barcazas) y no tenía nada que mostrar (más allá de la empresa).

Si bien ese esfuerzo es ampliamente percibido como un fracaso, creo que Google cometió un error al cerrarlo para los usos del consumidor. Las Google Glass sólo podían llamarse vagamente RA, ya que el dispositivo sólo ofrecía una pantalla flotante en la esquina superior derecha de tu visión. El dispositivo no era consciente de tu entorno, y la tecnología era básicamente un smartwatch desmontado en tu cara en términos de utilidad.

Dicho esto, Google debería haber seguido iterando en público. Glass fue capaz de proporcionar un primer vistazo a cómo las notificaciones de manos libres podrían ser increíblemente útiles. En más de una ocasión durante esta pandemia, me he encontrado prefiriendo no sacar mi teléfono mientras estaba en ciertos ambientes. Me acostumbré a usar los Pixel Buds y Assistant para enviar mensajes y escuchar notificaciones, pero tener una pantalla para cada una de esas interacciones habría sido infinitamente mejor y más rápido. Por ejemplo, poder ver la lista de la compra y navegar a través de la voz habría sido realmente útil.

Si Google hubiera seguido desarrollando esa tecnología de pantalla prismática, podría haber aumentado de tamaño (para mostrar más información) y podría haber acelerado otras investigaciones e inversiones en pantallas. Las generaciones futuras se habrían beneficiado de procesadores más eficientes y, a su vez, de la duración de la batería.

El vidrio no necesitaba ser un producto de mercado masivo para tener éxito, aunque la gente habría acabado descubriendo su utilidad. Sólo el hecho de saber cómo quiere la gente utilizar este nuevo factor de forma tiene un gran valor. Google habría sido sinónimo y adyacente a esta tecnología emergente.

En cierto modo, el hecho de que Google cierre Glass para un público más amplio y no empresarial refleja cómo Google fue el primero en los wearables de muñeca con Android Wear. Sin embargo, le faltó convicción para llevar a cabo esa visión. Podríamos estar asistiendo a un escenario en el que Apple acabe perfeccionando tanto el smartwatch como las gafas inteligentes, a pesar de que Google haya entrado primero en el campo.

Google Glass Killed

Product Photography Of The Google Glass Wearable.

Al hacerlo, Google estaría perdiendo el control y la capacidad de dar forma al futuro. El teléfono inteligente mató a los reproductores de MP3, a las cámaras fotográficas y a otros innumerables aparatos de un solo uso, mientras que hace un buen trabajo al replicar la funcionalidad de un ordenador portátil. Si hay algo que pueda reemplazar ese factor de forma como conductor diario y dispositivo de trabajo, son las gafas.

El éxito de Google y su dominio del mercado actual nacen de tener el sistema operativo, la plataforma y el ecosistema de smartphones dominantes en la actualidad. Si Google no resuelve el problema de las gafas inteligentes, desaparecerá literalmente de la visión de la gente.

Facebook, que perdió el móvil, está siendo cada vez más bloqueado por Apple en iOS. El gigante de las redes sociales está haciendo todo lo posible para no quedarse fuera de nuevo (y reducirse a las aplicaciones) construyendo el próximo factor de forma de hardware y el sistema operativo.

Existe un futuro potencial en el que Lens y Maps estén disponibles como servicio en las gafas de realidad aumentada de todo el mundo, pero Google estaría al albur de los proveedores de sistemas operativos. Mientras tanto, todos los demás -después de ver cómo funcionaron los smartphones- quieren controlar la experiencia de principio a fin y no dejar que un gran competidor tenga rienda suelta sobre las interacciones y los datos de los usuarios.

Hojas de té aumentadas

En lugar de la RA, cuando la división de hardware de Google habla de la tecnología del futuro se centra sistemáticamente en la computación ambiental:

Creemos que la tecnología puede ser aún más útil cuando la informática está en cualquier lugar que la necesites, siempre disponible para ayudarte. Tus dispositivos se desvanecen en el fondo, trabajando junto con la IA y el software para ayudarte a lo largo del día. A esto lo llamamos computación ambiental.

El jefe de hardware Rick Osterloh escribió lo anterior para recapitular la línea de hardware de 2019 de la compañía ese octubre. Lo reiteró de forma reveladora en junio de 2020 al anunciar la adquisición de North:

Estamos construyendo un futuro en el que la utilidad esté a tu alrededor, en el que todos tus dispositivos funcionen juntos y la tecnología pase a un segundo plano. Lo llamamos computación ambiental.

Las gafas de realidad aumentada son el factor de forma que Google puede crear para “asistirle a lo largo del día”, y cuando se hace bien “se desvanece en el fondo”. Puede que Google haya aprendido con Glass a no precipitarse con una tecnología incipiente, pero su historial con tecnología y hardware incipientes no significa que obtenga el beneficio de la duda.

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like