NoticiasMeta Quest

Meta lanza una demostración de «First Hand» para mostrar el seguimiento manual de Quest a los desarrolladores

Esta semana, Meta lanzó una nueva aplicación de demostración llamada First Hand para mostrar el tipo de experiencias que los desarrolladores pueden crear con las herramientas de seguimiento de manos sin control de la compañía.

El seguimiento de manos sin controlador ha estado disponible en Quest durante años en este punto, y aunque es una modalidad de entrada más accesible que usar controladores, los controladores siguen siendo la principal forma de entrada para la gran mayoría de juegos y aplicaciones en los auriculares.

Meta ha estado presionando cada vez más para que los desarrolladores adopten el seguimiento manual como algo más que una novedad y, con ese fin, ha estado creando herramientas para que sea más fácil para los desarrolladores aprovechar la función. Pero, ¿qué es mejor que un buen ejemplo práctico?

Esta semana, Meta lanzó una nueva demostración basada exclusivamente en el seguimiento manual llamada First Hand (nombrada en referencia a una aplicación de demostración de Oculus llamada First Contact). Aunque la demostración está diseñada en gran medida para mostrar las capacidades de seguimiento manual a los desarrolladores, First Hand está disponible para que cualquiera lo descargue de forma gratuita desde App Lab.

En el blog para desarrolladores de Oculus, el equipo detrás de la aplicación explica que se creó con el «SDK de interacción», que forma parte de la » Plataforma de presencia » de la empresa, un conjunto de herramientas creadas para ayudar a los desarrolladores a aprovechar la realidad mixta y el seguimiento manual. capacidades de Quest.First Hand también se lanza como un proyecto de código abierto, lo que brinda a los desarrolladores una forma de mirar debajo del capó y tomar prestado código e ideas para crear sus propias aplicaciones de seguimiento de manos.

El equipo de desarrollo explicó algunas de las ideas detrás del diseño de la aplicación:

First Hand muestra algunas de las interacciones de Hands que consideramos las más mágicas, sólidas y fáciles de aprender, pero que también son aplicables a muchas categorías de contenido. En particular, dependemos en gran medida de las interacciones directas. Con las heurísticas de toque directo avanzadas que vienen listas para usar con Interaction SDK (como la limitación de toque, que evita que su dedo atraviese los botones accidentalmente), interactuar con UI 2D y botones en VR se siente realmente natural.

También mostramos varias de las técnicas de agarre que ofrece el SDK. Hay algo visceral en la interacción directa con el mundo virtual con las manos, pero hemos descubierto que estas interacciones también necesitan un ajuste cuidadoso para que realmente funcionen. En la aplicación, puede experimentar interactuando con una variedad de clases de objetos (pequeños, grandes, restringidos, con dos manos) e incluso aplastar una roca apretándola lo suficientemente fuerte.

El equipo también compartió 10 consejos para los desarrolladores que buscan hacer uso del Interaction SDK en sus aplicaciones de Quest, consúltelos en la publicación del desarrollador.

También te podrían interesar

Dejar un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más en Noticias