Este gran error muestra por qué no puedes confiar en ChatGPT con tus preguntas de seguridad en el hogar

Lejos de preocuparme por la IA en la seguridad del hogar, soy un gran admirador de que nos ahorre tiempo y haga las cosas bien, especialmente en la detección de objetos. Pero eso no significa que debas ingresar a ChatGPT y comenzar a hacerle preguntas sobre tecnología doméstica, privacidad o qué tan seguro es el dispositivo.

Si desea que uno de los agentes de Google le avise cuando se entregó o recogió un paquete, o que un vecino de ADT de confianza le abra la puerta a un miembro reconocido de la familia, la IA es excelente. pero tu en efecto No se deben buscar consejos de seguridad, especialmente en la situación actual.

Hay una buena razón para esto: incluso los mejores LLM (grandes modelos de lenguaje) alucinan información a partir de los patrones que recopilan. Este es un problema particular en el mundo de los hogares inteligentes, donde las características, modelos, compatibilidad, vulnerabilidades y actualizaciones de la tecnología cambian con frecuencia. Es fácil que ChatGPT se confunda acerca de lo que es correcto, actual o incluso real, y estas son preguntas clave al tomar decisiones de seguridad en el hogar. Echemos un vistazo a algunos de los errores más importantes para que pueda entender a qué me refiero.

Chat AI alucina que los Teslas están espiando la seguridad de tu hogar

Tesla Model S y 3 renderizados en la estación de pulso pb

El ala de combustible alternativo de BP está ampliando las capacidades de carga de vehículos eléctricos en los EE. UU. mediante la compra de equipos de carga rápida Tesla DC.

PA

Desde refrigeradores hasta iPhones, nuestros expertos están aquí para ayudar a hacer el mundo un poco más complicado.

Preguntarle a un chatbot sobre una tecnología de seguridad en particular siempre es una tarea arriesgada y nada lo demuestra muy bien. esta es una historia popular de reddit sobre la IA del chat que Tesla le dijo al usuario que podía acceder a sus “sistemas de seguridad del hogar”. Bueno, eso no es cierto: es una alucinación basada en el exclusivo servicio HomeLink de Tesla, que le permite abrir puertas de garaje que se adaptan a sus necesidades. Servicios como Google Gemini también sufren alucinaciones, lo que hace difícil creer los detalles.

Si bien la IA puede escribir de todo, desde ensayos hasta correos electrónicos de phishing (no lo haga), aún así obtiene información incorrecta, lo que puede generar preocupaciones de privacidad injustificadas. Curiosamente, cuando le pregunté a ChatGPT a qué podían conectarse los Teslas y rastrearlo, no me dio el mismo error, pero hizo Omita funciones como HomeLink, de modo que aún no obtenga la imagen completa. Y esto es sólo el comienzo.

Desde refrigeradores hasta iPhones, nuestros expertos están aquí para ayudar a hacer el mundo un poco más complicado.

Los chatbots no pueden responder preguntas sobre amenazas o desastres domésticos en curso

Respuesta de ChatGPT sobre la ubicación del huracán. Respuesta de ChatGPT sobre la ubicación del huracán.

La IA conversacional no le proporcionará detalles importantes sobre desastres inminentes.

Tyler Lakoma/ChatGPT

ChatGPT y otros LLM también tienen dificultades para absorber información en tiempo real y utilizarla para asesorar. Esto es especialmente notable durante desastres naturales como incendios forestales, inundaciones o huracanes. Cuando el huracán Milton aterrizó este mes, le pregunté a ChatGPT si mi casa estaba en peligro o dónde iba a golpear Milton. Si bien el chatbot evitó respuestas incorrectas, no pudo darme ningún consejo más que consultar los canales meteorológicos locales y los servicios de emergencia.

No pierda el tiempo si hay un problema potencial en su hogar. En lugar de depender de la inteligencia artificial para obtener respuestas rápidas, aplicaciones meteorológicas y Programas como Watch Dutylas últimas imágenes satelitales y noticias locales.

Los LLM carecen de actualizaciones importantes sobre violaciones de datos y seguridad de marca

La versión web de ChatGPT responde preguntas sobre la seguridad de Ring. La versión web de ChatGPT responde preguntas sobre la seguridad de Ring.

Si bien ChatGPT puede recopilar información sobre el historial de una empresa de seguridad, a menudo omite información clave o comete errores.

Tyler Lacoma/ChatGPT

Un chatbot AI haría bien en proporcionar una breve descripción general de la historia de una marca con violaciones de seguridad y señales de alerta para la compra de sus productos. Desafortunadamente, no parecen ser capaces de hacerlo todavía, por lo que no se puede confiar en lo que dicen sobre las empresas de seguridad.

Por ejemplo, cuando le pregunté a ChatGPT si Ring tenía violaciones de seguridad, dijo que había experimentado incidentes de seguridad de Ring, pero no fue así. cuando (hasta 2018), esta es información importante. También pasó por alto cambios clave, incluido el fin de pago por parte de Ring de los clientes afectados este año y el cambio de política de Ring en 2024 que dificulta la vigilancia de los datos desde la nube.

ChatGPT responde la pregunta sobre Wyze. ChatGPT responde la pregunta sobre Wyze.

ChatGPT no es bueno para proporcionar un cronograma de eventos y no se debe confiar en él para hacer recomendaciones.

Tyler Lakoma/ChatGPT

Cuando pregunté sobre Wyze, que CNET no recomienda actualmente, ChatGPT dijo que es una “buena opción” para la seguridad del hogar, pero dijo que hubo una violación de datos que expuso los datos de los usuarios en 2019. Pero no mencionó que Wyze expuso bases de datos y archivos de video en 2022, luego nuevamente en 2023 y nuevamente en 2024, lo que permitió a los usuarios acceder a videos domésticos privados que no eran de su propiedad. Si bien las revisiones son buenas, no obtendrá una imagen completa del historial de seguridad o si las marcas son confiables.

Leer más: Le preguntamos a un destacado criminólogo cómo escogen las casas los ladrones

Las IA de chat no saben si los dispositivos de seguridad necesitan una suscripción

ChatGPT responde la pregunta sobre las suscripciones a Reolink. ChatGPT responde la pregunta sobre las suscripciones a Reolink.

ChatGPT no puede explicar adecuadamente las suscripciones o niveles de seguridad.

Tyler Lakoma/ChatGPT

Otra pregunta común sobre seguridad en el hogar que veo es sobre la necesidad de una suscripción para usar sistemas de seguridad o cámaras domésticas. Algunas personas no quieren pagar suscripciones regulares o quieren asegurarse de que lo que obtienen vale la pena. Si bien los chatbots pueden proporcionar información sobre muchas recetas, no ayudarán aquí.

Cuando le pregunté a ChatGPT si Reolink requiere una suscripción, no pudo darme ningún detalle, ya que la mayoría de los productos no requieren una suscripción para las funciones básicas, pero Reolink ofrece “planes de suscripción” para las funciones avanzadas posibles. Intenté reducirlo con una pregunta sobre Reolink Argus 4 Pro, pero nuevamente ChatGPT fue vago acerca de que algunas funciones son gratuitas y otras requieren una suscripción. A medida que avanzan las respuestas, fue en su mayor parte inútil.

Mientras tanto, consulte la guía de CNET sobre suscripciones a cámaras de seguridad o Página de suscripciones personales de Relink muestra que Reolink ofrece suscripciones clásicas y mejoradas para cámaras LTE, que van desde $ 6 a $ 7 por mes, dependiendo de cuántas cámaras desee admitir, y de $ 15 a $ 25 para almacenamiento adicional en la nube y notificaciones enriquecidas/alertas inteligentes. Encontrar estas respuestas lleva menos tiempo que preguntar a ChatGPT y obtienes números reales con los que trabajar.

ChatGPT no es un lugar para su dirección particular o información personal

Imagen digital de elegir un chatbot frente a una pantalla de mensajes. Imagen digital de elegir un chatbot frente a una pantalla de mensajes.

No permita que los chatbots sepan demasiado sobre su información personal.

Vertigo3d vía Getty

Como dijo el famoso detective: “una cosa mas.” Si alguna vez le ha preguntado a un chatbot sobre la seguridad del hogar, nunca le dé información personal como la dirección de su casa, nombre, condiciones de vivienda o cualquier tipo de información de pago. IA como ChatGPT hubo errores antes lo que permitió a otros usuarios espiar información personal similar.

Además, la política de privacidad de LLM siempre puede actualizarse o dejarse lo suficientemente vaga como para permitir la elaboración de perfiles y la venta de los datos de los usuarios que recopilan. Quitar datos de las redes sociales es muy malo, tu en efecto No quiero enviar datos personales directamente a un servicio de IA popular.

Ten cuidado con la información que proporcionas en una pregunta e incluso con cómo la expresas, porque siempre hay personas que quieren utilizarla. Si cree que ha proporcionado su dirección en línea demasiadas veces, tenemos una guía para ayudarlo a solucionarlo.

Leer más: Su información personal está por todo Internet. Esto es lo que puedes hacer al respecto

Para obtener más información, consulte si debe pagar por funciones ChatGPT más avanzadas, nuestra revisión detallada de Google Gemini y las últimas noticias sobre Apple Intelligence.



Fuente