Apple Vision Pro: así es como estas gafas van a leer tu mente

Apple Vision ProComo todo lo que anuncia Apple, las nuevas Apple Vision Pro han sido acogidas con una mezcla de curiosidad y entusiasmo. Estas gafas parecen ser el comienzo de una nueva época para el desarrollo de la realidad mixta y aumentada, quizás para el metaverso.

Por un precio de 3.499 dólares en EE.UU, donde estará disponible a comienzos de 2024, este dispositivo proporcionará nuevas experiencias gracias a la combinación de contenido digital con el mundo real en un entorno completamente inmersivo.

Bajo la apariencia de unas futuristas gafas de buceo, las  Apple Vision Pro nos permitirán sumergirnos en mundos que hoy apenas podemos imaginar, gracias a una placa MicroOLED con 23 millones de píxeles divididos en dos paneles que permiten alcanzar el 4K HDR con una gran nitidez en cualquier ángulo.

También cuenta con auriculares con un chip M2 que garantiza el nulo retraso en la emisión de imágenes. Es la respuesta de Apple, con puñetazo en la mesa incluido, a las Quest 3 anunciadas por Meta días antes.

interfaz cerebro-máquina

Las gafas inteligentes de Apple

El sistema operativo visionOS permite al usuario controlar la interfaz 3D con los ojos, manos y voz. Así, los iconos de las aplicaciones reaccionarán ante la mirada y podrán «expandirse completamente en su espacio» como si de una animación 3D se tratara.

De hecho, más allá de sus características técnicas, nos hallamos ante un interfaz cerebro-máquina con apariencia de gafas. Así lo que afirma un antiguo trabajador de Apple en Twitter. 


Se llama Sterling Crispin y, haciendo uso de la nueva funcionalidad de Twitter que permite publicar tuits largos a las cuentas verificadas, explica cómo las nuevas Apple Vision Pro pueden «leer la mente». Si bien la mayor parte del trabajo realizado para Apple está sujeto a cláusulas de confidencialidad, Crispin ha decidido compartir algunas de las investigaciones que realizó para la compañía digida por Tim Cook, relacionadas con el desarrollo de las Apple Vision Pro.

así leen nuestra mente las gafas apple vision pro

Gafas Ap

«En general, gran parte del trabajo que hice implicó detectar el estado mental de los usuarios en función de los datos de su cuerpo y cerebro cuando se hallan en experiencias inmersivas. Cuando un usuario se encuentra en una experiencia de realidad mixta o realidad virtual se puede inferir si se se siente distraído, asustado, prestando atención, recordando una experiencia pasada o algún otro estado cognitivo.

Y estos pueden determinarse a través de mediciones como el seguimiento ocular, la actividad eléctrica en el cerebro, los latidos y ritmos cardíacos, la actividad muscular, la densidad sanguínea en el cerebro, la presión arterial, la conductancia de la piel, etc.», explica.

«Uno de los mejores resultados -añade- implicó predecir que un usuario iba a hacer clic en algo antes de que realmente lo hiciera. Eso supuso mucho trabajo y es algo de lo que estoy orgulloso. Tu pupila reacciona antes de que hagas clic en parte porque esperas que suceda algo después de que hagas clic. Por lo tanto, puede crear biorretroalimentación con el cerebro de un usuario al monitorear su comportamiento ocular y rediseñar la interfaz de usuario en tiempo real para crear más de esta respuesta anticipatoria de la pupila».

Sterling Crispin se refiere también a otra patente sobre el uso del aprendizaje automático y las señales del cuerpo y el cerebro para predecir el nivel de concentración o relajación del usuario para actualizar los entornos virtuales y adaptarlos a su estado mental. «Imagina un entorno inmersivo adaptable que te ayude a aprender, trabajar o relajarte al cambiar lo que ves y escuchas en segundo plano», señala.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *