apple gafas ray ban meta1693406189
Apple planea lanzar sus primeras gafas inteligentes el próximo año. Se trata de lentes para andar en la calle, muy diferentes al complejo headset que, al final del día, son las Vision Pro. Una fuente citada por Bloomberg indica que este wearable sería similar a las Ray-Ban de Meta, pero con una fabricación superior.
Se espera que el nuevo dispositivo de la empresa de Cupertino debute a finales de 2026.
Mark Gurman, periodista de tecnología en el diario estadounidense, detalla en su más reciente reporte que las gafas de Apple integrarán cámaras, micrófonos y altavoces en el armazón. Los usuarios podrán escuchar audio, realizar llamadas e interactuar con Siri, el asistente de voz de la compañía, para hacer consultas o activar funciones por comando.
Uno de los aspectos más innovadores del nuevo producto sería su conexión con el ecosistema de inteligencia artificial de Apple. De acuerdo con Gurman, las cámaras y sensores del dispositivo estarán diseñados para capturar y transmitir información contextual, lo que permitiría funciones como traducción simultánea, lectura de textos e indicaciones de navegación precisas.
Para respaldar estas capacidades, Apple estaría desarrollando un nuevo chip, basado en la arquitectura S utilizada en los procesadores del Apple Watch, que permitirá procesar datos directamente en el dispositivo. La producción masiva de este microprocesador comenzaría a principios 2026.
Apple y sus intenciones de incursionar en un mercado millonario
Durante años, se ha especulado sobre el interés de Apple en el segmento de las gafas inteligentes. A finales del año pasado, Bloomberg reveló que la empresa había iniciado una evaluación interna para anticipar la recepción de su propuesta y detectar posibles áreas de mejora.
En una fase inicial, este programa (conocido como Atlas) reclutó a un grupo selecto de empleados en la sede central de Cupertino, California, con el fin de obtener sus opiniones. Posteriormente, se previó la organización de grupos focales para profundizar en los ajustes necesarios. Estas pruebas estarían lideradas por el equipo de Calidad de Sistemas de Productos, perteneciente a la división de ingeniería de hardware.
“Probar y desarrollar productos que todos puedan llegar a amar es fundamental para nuestra labor en Apple. Por eso buscamos participantes que se unan a un próximo estudio de usuarios con gafas inteligentes actualmente disponibles en el mercado”, indicó la división en un correo dirigido a ciertos colaboradores retomado por el medio.
Con estos esfuerzos, Apple buscaría posicionarse en un mercado con un valor potencial de miles de millones de dólares. Technavio, una firma de análisis de mercado, estima que el sector global de gafas inteligentes alcanzará un valor de 90,600 millones de dólares entre 2025 y 2029, con una tasa de crecimiento anual compuesta del 14.5% durante ese periodo.
Para aprovechar esta tendencia, Apple deberá presentar una propuesta capaz de rivalizar con las Ray-Ban Meta, que han impulsado significativamente la demanda global. De acuerdo con la consultora Counterpoint, los envíos mundiales de gafas inteligentes crecieron 156% interanual en 2023 y 210% en 2024. Las gafas de Meta captaron más del 60% del mercado el año pasado.
¿Podrá Apple alcanzar a las Ray-Ban Meta?
Las Ray-Ban Meta se destacan por su amplia gama de funciones y componentes versátiles, que las hacen útiles en diversos contextos. Su versión más reciente incorpora una cámara ultra gran angular de 12 megapíxeles, capaz de capturar fotos y grabar video en 1080p sin necesidad de usar las manos. También cuentan con auriculares de apertura ovalada, que ofrecen una alta calidad de sonido, con bajos mejorados y reducción de ruido.
Entre sus funciones más atractivas se encuentra la transmisión en vivo, que permite a los usuarios compartir sus experiencias en tiempo real a través de plataformas como Instagram Live o Facebook Live. Además, integran la opción de interactuar con Meta AI mediante el comando de voz "Hey Meta", lo que habilita tareas como traducción de idiomas, consultas informativas y recomendaciones personalizadas.
En meses recientes, Meta añadió una función de traducción en tiempo real que, al activar el modo de voz, permite mantener conversaciones fluidas en idiomas como francés, español e italiano, incluso sin conexión a internet.
Para competir con estas funcionalidades, Apple deberá acelerar el desarrollo de su suite de inteligencia artificial, Apple Intelligence, que aunque prometía ser pieza clave en la actualización más significativa de Siri desde su lanzamiento, a casi un año de su presentación, aún no ha cumplido con las expectativas.
Cuando Apple introdujo esta plataforma, afirmó que Siri incorporaría importantes mejoras. No obstante, el asistente ha quedado rezagado frente a rivales como Google Gemini o Alexa+, de Amazon. Desde la llegada de Apple Intelligence, el asistente ha adquirido la capacidad de responder por escrito y ha adoptado una apariencia renovada, así como una voz más natural, lo que ha permitido interacciones más fluidas y personalizadas. Sin embargo, estas mejoras no han representado un avance significativo en comparación con lo que ya ofrecen sus competidores.
La semana pasada, Gurman reportó que, como consecuencia de este rezago, la compañía estaría rediseñando la arquitectura de Siri desde cero con base en un gran modelo de lenguaje (LLM, por sus siglas en inglés). Este proyecto estaría a cargo del equipo de inteligencia artificial con sede en Zúrich, Suiza.
Concretar esta transformación será clave no solo para que Apple cierre la brecha frente a sus principales competidores en IA, sino también para dotar a sus futuras gafas inteligentes de funcionalidades avanzadas que puedan competir con el ecosistema de Meta.