El Demo Day 2025 de Emerson Collective dejó una de las definiciones más fuertes del año en Silicon Valley. Sam Altman, director ejecutivo de OpenAI, y Jony Ive, diseñador responsable del iPhone, adelantaron junto a Laurene Powell Jobs que su proyecto conjunto apunta a lanzar, en menos de dos años, un dispositivo pensado para marcar el inicio de la era post-smartphone.
Sam Altman y Jony Ive adelantaron que el "iPhone de la IA" llegará en menos de dos años
El diseñador del teléfono móvil de Apple y el CEO de OpenAI compartieron escenario con Laurene Powell Jobs y revelaron que trabajan en un equipo sin pantalla, basado en voz y sensores, que busca inaugurar una nueva era de interacción con la inteligencia artificial.
-
Como usar Perplexity AI, la Inteligencia Artificial que te muestra cómo te queda la ropa que te querés comprar
-
En plena expansión de la IA, 49 empresas recaudaron al menos u$s100 millones en financiamiento
Si los plazos se mantienen, el producto podría ver la luz antes de 2027.
La colaboración entre ambos empezó de manera discreta tiempo atrás, con un acuerdo inicial para explorar nuevas formas de hardware. Ese borrador terminó de tomar forma este año, cuando OpenAI incorporó a io Products, la compañía de Ive, y puso al británico al frente del diseño de su primer dispositivo propio. El objetivo: crear una interfaz nativa para los modelos de IA, totalmente distinta a los formatos actuales.
Un dispositivo sin pantalla y con “conciencia contextual”
Durante la charla, Altman describió el uso cotidiano del celular moderno como “una caminata por Times Square”: repleto de estímulos, notificaciones y ruido. Su visión, dijo, es lo contrario: un objeto que transmita calma y que permita una relación más natural con la inteligencia artificial. Ive coincidió y contó que la etapa inicial del proyecto fue más conceptual que técnica, con discusiones sobre qué es una herramienta, cómo debería comportarse y qué tipo de vínculo humano-tecnología buscan construir.
Ese proceso derivó en un concepto disruptivo: un dispositivo sin pantalla, basado en la voz, sensores y una presencia constante pero discreta. La idea es que funcione como un asistente con conciencia contextual profunda: que comprenda lo que el usuario dijo, leyó o necesita, y que decida por sí mismo cuándo intervenir y cuándo permanecer en silencio. “Un amigo útil, no un intruso”, resumieron.
Altman también reconoció que hubo prototipos descartados porque no generaban emoción. El modelo actual sí lo hizo. “Da ganas de morderlo”, admitió entre risas, en referencia al impacto del diseño. Ive, por su parte, sostuvo que la industria perdió la capacidad de generar alegría en los productos y que este proyecto busca recuperar esa sensación.
La adquisición de io Products dejó además otro dato clave: unos 55 ingenieros, desarrolladores y diseñadores se integraron directamente a OpenAI. Ive continúa como consultor externo, pero coordina el enfoque estético y funcional de todo el hardware que la empresa emprenda.
Si los tiempos se cumplen, el dispositivo llegará al mercado antes de 2027, con la ambición de convertirse en lo más cercano al “iPhone de la IA”: un equipo que no sea un teléfono más, sino el primer puente hacia una computación cotidiana guiada por inteligencia artificial, sin pantallas y con una interacción radicalmente distinta.





Dejá tu comentario