Apple Vision Pro especificaciones, características y detalles completos

Blog

HogarHogar / Blog / Apple Vision Pro especificaciones, características y detalles completos

Mar 28, 2023

Apple Vision Pro especificaciones, características y detalles completos

Hoy Apple finalmente reveló Vision Pro, su lanzamiento de "computadora espacial" de $ 3500

Hoy, Apple finalmente reveló Vision Pro, su "computadora espacial" de $ 3500 que se lanzará en 2024. Aquí hay un resumen de sus especificaciones y características anunciadas.

Vision Pro es técnicamente opaco, pero usa cámaras a color de alta resolución para mostrarte el mundo real y una pantalla en el frente para mostrar tus ojos a otras personas.

Es un auricular de ultra alta gama con la resolución más alta y la mayoría de los sensores en un producto AR/VR. Presenta nuevas características nunca antes enviadas, y su visionOS fusiona el seguimiento de ojos y manos para una entrada intuitiva mientras reconsidera las líneas entre 2D, AR y VR.

Vision Pro tiene un marco de aleación de aluminio personalizado que soporta una placa frontal de vidrio laminado curvo "tridimensionalmente formado" para lograr un diseño relativamente delgado.

Lo que hace que Vision Pro sea más liviano que los auriculares como Quest 2 es la separación de la batería del auricular. Algunos otros auriculares como Meta Quest Pro y Pico 4 tienen la batería en la parte trasera de la correa, pero el diseño de Apple se la quita completamente de la cabeza con una batería externa atada a un conector magnético a la izquierda de la banda para la cabeza.

Apple afirma que la batería externa duró 2 horas en las siguientes condiciones de prueba:

Alternativamente, Vision Pro se puede usar perpetuamente conectando la batería a una fuente de alimentación USB-C. Apple aún no ha entrado en detalles sobre cuánta energía se necesita.

Vision Pro tiene un total de doce cámaras, un sensor TrueDepth, un sensor LiDAR y seis micrófonos.

Seis de las doce cámaras están bajo el cristal frontal.

Dos de estos proporcionan color de alta resolución para la vista del mundo real de los auriculares, transmitiendo "más de mil millones de píxeles de color por segundo".

Las otras cuatro cámaras frontales se utilizan para el seguimiento de la posición de los auriculares y probablemente tengan lentes de ojo de pez.

Uno de los propósitos del sensor TrueDepth es el seguimiento manual. Apple describe la calidad del seguimiento de la mano como "tan precisa que libera completamente las manos de la necesidad de torpes controladores de hardware".

Vision Pro carece de cualquier tipo de controlador rastreado, aunque es compatible con los juegos tradicionales de iPad en una pantalla virtual con un gamepad.

El sensor LiDAR se usa para realizar una malla 3D en tiempo real de su entorno, junto con las otras cámaras frontales.

Las aplicaciones pueden aprovechar esta malla, pero no obtienen acceso a los datos reales de la cámara. Un ejemplo de caso de uso que dio Apple fue el de objetos virtuales que proyectan sombras en mesas reales, pero esto solo araña la superficie de lo que debería ser posible.

Dos cámaras orientadas hacia abajo rastrean tu rostro, mientras que cuatro cámaras IR internas a su lado rastrean tus ojos, con la ayuda de un anillo de iluminadores LED alrededor de las lentes.

El seguimiento ocular de Vision Pro tiene tres propósitos: autenticación, representación foveada y manejo de su avatar FaceTime.

Apple está llamando a su nueva autenticación de escaneo de iris OpticID, siguiendo el esquema de nombres de TouchID y FaceID de sus otros dispositivos. OpticID es la forma de desbloquear Vision Pro, y también funciona con las compras de Apple Pay y el autocompletado de contraseñas. Al igual que con TouchID y FaceID, los datos biométricos que alimentan a OpticID se procesan en el dispositivo mediante un procesador Secure Enclave.

El renderizado foveado es una técnica en la que solo la pequeña región de la pantalla que sus ojos están mirando actualmente se renderiza en resolución completa, liberando así el rendimiento ya que el resto tiene una resolución más baja. Los recursos de GPU liberados se pueden usar para un mejor rendimiento, para aumentar la resolución de representación o para aumentar la configuración de gráficos. Aprovecha el hecho de que nuestros ojos solo ven en alta resolución en el mismo centro de la fóvea.

Finalmente, el seguimiento ocular se combina con las cámaras hacia abajo para rastrear sus expresiones faciales en tiempo real para conducir su FaceTime Persona, la versión de Apple de los avatares fotorrealistas. Meta ha estado mostrando investigaciones sobre esto durante más de cuatro años, pero parece que Apple será el primero en enviar, aunque no con la misma calidad que la investigación de Meta.

Para fusionar la entrada de todas estas cámaras, sensores y micrófonos, Apple desarrolló un chip personalizado que llama R1.

Apple afirma que R1 "prácticamente elimina el retraso, transmitiendo nuevas imágenes a las pantallas en 12 milisegundos".

A modo de comparación, el fundador de la empresa francesa de auriculares Lynx afirma que la latencia de transferencia de Meta Quest Pro es de 35 a 60 milisegundos. Sin embargo, no está claro si se trata de una comparación similar.

Vision Pro solo tiene dos controles físicos, ambos en la parte superior. Un botón para capturar "videos espaciales" y "fotos espaciales" en cualquier momento, y una Corona Digital.

Al presionar Digital Crown, aparece la vista de inicio del sistema. Pero girarlo controla tu nivel de inmersión, desde AR completo hasta VR completo. Si va a la mitad, por ejemplo, verá VR frente a usted y AR detrás de usted.

En los auriculares existentes como Meta Quest y Pico 4, la transferencia es una opción de alternar, lo que significa que debe elegir entre inmersión total o sin inmersión. En cambio, Apple quiere permitirte elegir exactamente qué tan comprometido estás con tu entorno real.

Una característica completamente única de Vision Pro es una pantalla externa que muestra sus ojos a otras personas en la habitación e indica qué tan consciente está de ellos. Apple llama a esta tecnología EyeSight.

Cuando estás en una aplicación AR, EyeSight muestra un patrón de color frente a tus ojos, y cuando estás en una aplicación VR, solo muestra el patrón con tus ojos invisibles.

Cuando alguien se acerque a usted, Vision Pro mostrará un recorte de la persona y EyeSight le mostrará sus ojos.

EyeSight utiliza un panel OLED curvo con una lente lenticular para que la perspectiva de sus ojos se vea correcta independientemente del ángulo desde el que las personas miren los auriculares. Apple afirma que esto es efectivamente "una pantalla 3D que hace que el dispositivo se vea transparente".

Apple describió asegurarse de que "nunca esté aislado de las personas que lo rodean" como uno de sus "objetivos de diseño fundamentales" para Vision Pro, y la compañía lo ve como un claro diferenciador de los auriculares completamente opacos como Meta Quests.

Vision Pro cuenta con dos paneles micro-OLED con una densidad de píxeles sin precedentes. Apple dice que cada uno es "del tamaño de un sello postal", pero juntos tienen 23 millones de píxeles.

Apple no reveló la resolución exacta, pero 23 millones de píxeles totales sugerirían una resolución por ojo de alrededor de 3400 × 3400 para una relación de aspecto cuadrada, o alrededor de 3680 × 3140 para la relación de aspecto de 7: 6 que muestra el marketing.

Sin embargo, en realidad no conocemos la relación de aspecto real de las pantallas, y también es concebible que la cifra de 23 millones de Apple solo cuente los píxeles visibles para las lentes.

Apple confirmó que las pantallas de Vision Pro admiten una amplia gama de colores y un alto rango dinámico, pero no reveló especificaciones detalladas como el brillo máximo.

Vision Pro funciona con el mismo chip Apple Silicon M2 que se usa en las Mac recientes.

Apple dice que esto ofrece un "rendimiento independiente sin precedentes" y permite que Vision Pro "mantenga una temperatura agradable y funcione prácticamente en silencio".

En comparación con las especificaciones rumoreadas de la próxima generación del chipset Qualcomm Snapdragon que usará Meta Quest 3, el M2 de Apple debería ofrecer un rendimiento de CPU de subproceso único aproximadamente un 30-50% más rápido, subprocesos múltiples aproximadamente un 80% más rápido y aproximadamente un 5-15% más de GPU fuerza.

Sin embargo, sin conocer las velocidades de reloj exactas de los procesadores en cada auricular, esto es solo unmuy comparación aproximada. Además, en la práctica, Vision Pro debería tener una potencia de GPU disponible de manera más efectiva que Quest 3, ya que utiliza renderizado mejorado.

visionOS es el "sistema operativo espacial" personalizado de Apple para Vision Pro, y presumiblemente también para futuros auriculares en la línea Vision.

Apple describe visionOS como "familiar, pero innovador". Te presenta aplicaciones 2D flotantes por las que te desplazas con un movimiento rápido de los dedos. Selecciona los elementos del menú con los ojos con solo mirarlos y usa los dedos para hacer clic.

Muchas de las aplicaciones y servicios propios de Apple están disponibles en visionOS, incluidos Notes, Messages, Safari, Keynote, Photos, FaceTime y Apple Music.

En lugar de simplemente existir dentro de su marco 2D, muchas de las aplicaciones de Apple "se vuelven espaciales", ocupando espacio a tu alrededor. En las llamadas grupales de FaceTime, por ejemplo, la vista de la cámara web de cada persona se convierte en su propio rectángulo flotante, con audio espacial proveniente de cada persona. Apple también dio el ejemplo de poder sacar modelos 3D de los mensajes al espacio real.

Vision Pro también le permite expandir la pantalla de su Mac en una enorme pantalla virtual de forma inalámbrica con solo mirarla.

Un enfoque principal de visionOS es ver películas y programas de televisión en una pantalla virtual enorme, incluida la compatibilidad para ver películas en 3D de la biblioteca de Apple con profundidad.

Vision Pro tiene "módulos de audio" en su costado, cada uno con dos controladores. Apple lo describe como el "sistema de audio espacial más avanzado de la historia".

Si tiene un iPhone con un sensor TrueDepth FaceID, puede escanear su rostro para habilitar el audio espacial personalizado, donde el sistema adaptará el sonido a la geometría de su cabeza y oído para obtener el audio espacial más preciso posible.

Vision Pro también utiliza una técnica llamada Audio Ray Tracing, en la que escanea las características y los materiales de su espacio para "hacer coincidir con precisión el sonido de su habitación". Esta técnica también se utiliza en los altavoces HomePod de Apple.

Apple afirma que los compradores de Vision Pro estarán "totalmente convencidos de que los sonidos provienen del entorno que los rodea".

Apple Vision Pro saldrá a la venta en los EE. UU. a principios de 2024 a partir de $ 3500. Estará disponible en línea y en Apple Stores.

Apple dice que más países obtendrán Vision Pro "más adelante el próximo año", pero no reveló exactamente qué países.

Apple Vision Pro Lanzamiento de Meta Quest Pro Sistema operativo Ajuste de lente Tipo de pantalla Píxeles totales Conjunto de chips HDR Cámaras a color Sensores de profundidad Seguimiento ocular y facial Ubicación de la batería Duración de la batería Pantalla frontal Micrófonos Autenticación Controladores rastreados Precio Auricular Píxeles totales muy