Probé la nueva inteligencia visual del iPhone 16 y parece el futuro

Mientras pasaba por una casa de té japonesa en el Bowery Market de Nueva York, tuve que apuntar mi iPhone al mostrador y presionar un botón en el costado de mi teléfono para ver el horario, las fotos de los clientes y llamar a la tienda. o hacer un pedido.

La nueva herramienta de Inteligencia Visual de Apple para la línea iPhone 16 está diseñada para eliminar el paso intermedio de desbloquear su teléfono, abrir Google o ChatGPT y escribir una solicitud o cargar una foto para obtener una respuesta. Una versión inicial de la función está disponible como parte de la versión beta para desarrolladores de iOS 18.2 de Apple, que se lanzó a los participantes del programa el miércoles.

Si bien la versión que probé fue una vista previa destinada a desarrolladores y no a usuarios generales, me dio una idea de cómo funciona Visual Intelligence y qué aporta a la experiencia del iPhone. Después de probar esta primera versión durante un breve periodo de tiempo, descubrí que funciona mejor para obtener información rápida sobre puntos de referencia. Si bien esto puede ser conveniente, creo que los consumidores tardarán tiempo en aceptar esta función una vez que se lance, ya que representa una nueva forma de pensar sobre cómo usamos nuestros teléfonos.

Aún así, apunta a un futuro en el que no necesitaremos abrir múltiples aplicaciones para hacer cosas en nuestros dispositivos móviles, y eso es prometedor.

Pero tendré más que decir después de haber pasado más tiempo con él y la versión final esté en funcionamiento.

Leer más: La explosión cámbrica: cómo la IA transformará su teléfono, próximamente

Cómo funciona la inteligencia visual

Visual Intelligence se basa en el nuevo botón de control de la cámara en el iPhone 16, 16 Plus, 16 Pro y 16 Pro Max. Simplemente presione y mantenga presionado el botón y verá un mensaje que explica qué es Visual Intelligence y que dice que las imágenes no se guardan en su iPhone ni se comparten con Apple.

Icono de insignia de arte AI Atlas

Con la interfaz de Visual Intelligence abierta, haga clic en el botón de cerrar cámara para tomar una fotografía. Desde allí, puede hacer clic en un botón en la pantalla o hacer clic en buscar para preguntarle a ChatGPT sobre la imagen.Botón para iniciar la búsqueda de Google. Puedes optar por utilizar ChatGPT con o sin una cuenta; Las encuestas permanecen anónimas y no se utilizan para entrenar el modelo ChatGPT a menos que inicie sesión.

Una captura de pantalla de la función Visual Intelligence de Apple Intelligence en un iPhone que muestra el color de Game Boy Una captura de pantalla de la función Visual Intelligence de Apple Intelligence en un iPhone que muestra el color de Game Boy

Tomé una foto de una consola de juegos retro y pregunté cuándo salió. Visual Intelligence utilizando ChatGPT obtuvo la respuesta correcta.

Lisa Eadicicco/CNET

La versión actual de Visual Intelligence también incluye una opción para informar una inquietud haciendo clic en el ícono que parece tres puntos. Si desea deshacerse de la imagen y reemplazarla por otra, haga clic en el botón incógnita El botón del obturador suele ser un icono en la pantalla.

Además de Google o ChatGPT, el iPhone también mostrará ciertas opciones dependiendo de a qué apuntes la cámara, como el horario de la tienda si la apuntas a una tienda o restaurante.

como usarlo

En el poco tiempo que llevo con Visual Intelligence hasta ahora, lo he usado para obtener información sobre restaurantes y tiendas, hacer preguntas sobre videojuegos y más.

Si bien esta es una forma rápida y conveniente de acceder a ChatGPT o Google, lo más interesante para mí es la forma en que ubica restaurantes y tiendas. Hasta ahora, esto ha funcionado bien al apuntar la cámara al escaparate de una tienda en lugar de a un cartel o pancarta.

Por ejemplo, al escanear el exterior de Kettle, la tienda de té japonesa que mencioné anteriormente, Visual Intelligence recopila automáticamente información útil, como fotografías de diferentes bebidas. Tuve la misma reacción cuando fotografié la antigua tienda de videojuegos cerca de mi oficina. Después de presionar el botón del obturador, Apple mostró el nombre de la tienda con fotos del interior, un enlace para visitar su sitio web y la opción de llamar a la tienda.

viz-intell-captura de pantalla-1.jpg viz-intell-captura de pantalla-1.jpg

El menú de la cafetería no tenía fotografías de las bebidas, pero gracias a Visual Intelligence, mi teléfono sí las tenía.

Lisa Eadicicco/CNET

Una vez dentro, utilicé Visual Intelligence para pedirle a ChatGPT recomendaciones de juegos basadas en títulos de la tienda y aprender más sobre las consolas y los juegos de la tienda. Sus respuestas fueron muy claras, pero hay que tener en cuenta que los chatbots como ChatGPT no siempre aciertan.

Cuando le pedí a ChatGPT coincidencias similares baile de personalidad Después de rodar los juegos en la estantería, propuso otros títulos basados ​​en música e historia. Esto parece una respuesta razonable, ya que los juegos de Persona Dancing son derivados rítmicos del popular juego de rol japonés Persona. Tuve que tomar una foto rápidamente y preguntar cuándo se lanzó para descubrir que GameBoy Color se lanzó en 1998. (Obtuve resultados similares cuando hice las mismas preguntas en la aplicación ChatGPT).

ChatGPT da como resultado Apple Intelligence en iPhone. ChatGPT da como resultado Apple Intelligence en iPhone.

Esta respuesta sobre juegos que me podrían gustar de ChatGPT y Visual Intelligence era demasiado compleja.

Lisa Eadicicco/CNET

Si bien hasta ahora he disfrutado experimentando con Visual Intelligence, siento que será mucho más útil cuando viajo. Poder apuntar mi iPhone a un lugar emblemático, una tienda o un restaurante para obtener más información habría sido útil durante mis viajes a Francia y Escocia a principios de este año. En una ciudad que ya conozco, no suelo sentir la necesidad de aprender más sobre los lugares cercanos.

Leer más: Esto es lo que aprendí después de cambiar mi Apple Watch por un Samsung Galaxy Ring

Inteligencia visual y el futuro de los teléfonos

No puedes evitar comparar Visual Intelligence con Google Lens, que te permite aprender sobre el mundo que te rodea usando la cámara de tu teléfono en lugar de escribir un término de búsqueda. En su forma actual (nuevamente, una vista previa para los desarrolladores), Visual Intelligence casi parece un botón dedicado de Google Lens/ChatGPT.

Teniendo en cuenta que Google Lens existe desde hace años, puede que esto no parezca nada nuevo o diferente. Pero el hecho de que este tipo de funcionalidad tenga su propio botón en el iPhone más nuevo es una prueba de ello. Muestra que Apple cree que hay una mejor manera de buscar y hacer cosas en nuestros teléfonos.

Apple no está sola en esto; Empresas emergentes como Google, OpenAI, Qualcomm y Rabbit creen que la IA transformará la cámara en una herramienta de descubrimiento y la utilizará de nuevas formas en nuestros dispositivos móviles. En su Cumbre anual Snapdragon de esta semana, Qualcomm mostró un concepto de asistente virtual que utiliza una cámara para hacer cosas como dividir la cuenta en tres partes en un restaurante basándose en una foto de un recibo.

El truco consiste en conseguir que la gente corriente lo acepte. Aunque es más rápido y eficiente, creo que la memoria muscular evitará que muchas personas abandonen los viejos métodos táctiles en favor del disparo.

Formar nuevos hábitos lleva tiempo. Pero Visual Intelligence se encuentra sólo en sus primeras etapas de vista previa, por lo que todavía queda mucho por venir.

Apple iPhone 16, 16 Plus contará con colores y botones más atrevidos

Ver todas las fotos



Fuente