Mira el nuevo vídeo de Inteligencia visual en acción del iPhone 16

Experimenta la nueva inteligencia visual del iPhone 16 en acción

El botón de control de la cámara del iPhone 16 será aún más útil. He estado jugando con una versión anterior de la nueva función Visual Intelligence de Apple y así es como es usarla. Apple está lanzando una nueva función para la serie iPhone 16 llamada Inteligencia Visual que te permite usar la cámara para aprender sobre el mundo que te rodea. Es parte de la versión beta para desarrolladores de I OS 18.2 que llegó a finales de octubre. Ahora bien, es importante recordar que esta es sólo una versión beta, lo que significa que es una versión inicial destinada a desarrolladores, no a consumidores en general. Pero incluso en esta etapa inicial, estoy empezando a comprender qué hace esta herramienta y por qué podría resultar útil. Parece que tienes un botón AI dedicado en tu iPhone. Debido a que requiere un botón de control de la cámara, necesitarás un modelo de iPhone 16 o 16 pro para usarlo antes de probarlo. Echemos un vistazo rápido a cómo funciona. Simplemente mantenga presionado el control de la cámara e iniciará la interfaz de inteligencia visual, presione el botón del obturador para tomar una foto y desde allí podrá hacer clic en el ícono que parece un bocadillo para enviar al chat de GP T. con una lupa para iniciar una búsqueda en Google de imágenes similares. Pero su iPhone puede reconocer automáticamente cosas como tiendas, restaurantes y su entorno para poder tomar fotografías de los horarios de las comidas y otra información. Pensé que la mejor manera de probar la inteligencia visual es llevarla a alguna parte. Nunca he estado en City Point Mall en el centro de Brooklyn. Vamos a comprobarlo. Así que he estado jugando con la inteligencia visual que forma parte de la versión beta y la versión beta para desarrolladores de I OS 18.2 ya que es una versión inicial, por lo que algunas funciones aún no funcionan. Es difícil para mí tener una idea clara de cómo funcionará esto cuando finalmente llegue a los consumidores. Pero en el tiempo que he trabajado con él y sus partes, siento que es una forma más rápida de ingresar al chat de GP T. Por ejemplo, cuando estaba deambulando por la tienda de anime al otro lado de la calle, fue rápido y fácil apuntar mi cámara a un personaje y luego preguntarle a Chat G BT sobre el programa, el personaje o el manga en el que estaba. Así que siento que es una forma más rápida de acceder a información y encontrar cosas sin abrir el teléfono, abrir el chat, G BT o Google y requerir una búsqueda. Lo mismo se hace a través de la búsqueda de imágenes de Google. Podría apuntar mi cámara a un letrero, ya sabes, un artículo en una tienda, y si quisiera comprarlo en otro lugar o aprender más sobre él, encontraría otros enlaces en eBay y otras fuentes. Busque el icono y los enlaces web al respecto. Entonces creo que es una forma más rápida de acceder a algunas herramientas. ¿Es fundamentalmente diferente de lo que puedes hacer en tu teléfono? No, al menos no todavía, pero es un atajo muy útil. En general, creo que la inteligencia visual es muy prometedora. Está claro que se trata de una versión beta y que aún no está destinada al consumidor general. Pero realmente me gustó la conveniencia de apuntar con el iPhone a algo y obtener más información de ello. Aunque esto se parece a Google Lens, es casi imposible hablar de ello sin compararlo con Google Lens. Entonces, en cierto modo, no es completamente nuevo, es solo el hecho de que Apple está poniendo esto directamente en el sistema operativo y poniendo un botón en este dispositivo para pensar en usar IA y buscar cosas a tu alrededor. de una manera diferente. Lo encuentro muy interesante y me genera mucha curiosidad sobre el futuro y hacia dónde irán las cosas. Mientras continuamos probando Visual Intelligence y muchas otras funciones de Apple Intelligence como nuevas actualizaciones de software, consulte mi historia completa en CNET para obtener más información. Gracias por mirar y hasta la próxima.

Fuente