Los adolescentes hablan con compañeros de IA, ya sea seguro o no

La llegada de un chatbot complementario para padres que todavía tienen inteligencia artificial generativa puede seguir siendo un misterio.

A grandes rasgos, la tecnología puede parecer relativamente inocua en comparación con otras amenazas que los adolescentes pueden enfrentar en línea, incluido el abuso sexual financiero.

Utilizando plataformas de inteligencia artificial como Character.AI, Replika, Kindroid y Nomi, los adolescentes crean compañeros de conversación reales con características y funciones únicas o interactúan con compañeros creados por otros usuarios. Algunos incluso se basan en personajes populares de películas y televisión, pero aún mantienen una conexión fuerte e individual con su creador.

Los adolescentes utilizan estos chatbots para diversos fines, incluidos juegos de roles, exploración de intereses académicos y creativos y participación en romances o relaciones sexuales.

VER TAMBIÉN:

Por qué los adolescentes cuentan sus secretos a desconocidos en Internet

Pero los compañeros de IA están diseñados para ser atractivos, y ahí es donde a menudo comienzan los problemas, dice Robbie Torney, director de programas de Common Sense Media.

La organización sin fines de lucro fue liberada recientemente. pautas para ayudar a los padres Comprenda cómo funcionan los compañeros de IA, junto con las señales de advertencia de que la tecnología podría ser peligrosa para los adolescentes.

Torney dijo que los padres deberían considerar hablar con sus hijos adolescentes sobre los compañeros de IA como una cuestión “muy urgente”, ya que tienen una serie de conversaciones importantes.

Por qué los padres deberían preocuparse por los socios de IA

Los adolescentes, que corren especial riesgo de aislamiento, pueden terminar en relaciones con chatbots de IA que, en última instancia, dañan su salud mental y su bienestar, con consecuencias devastadoras.

Megan García afirma que eso fue lo que le pasó a su hijo, Sewell Setzer III afirmar Recientemente presentó una demanda contra Character.AI.

Character.AI se modeló un año después de iniciar las relaciones con los socios Game of Thrones Según la demanda, la vida de los personajes, incluida Daenerys Targaryen (“Dany”), de Setzer cambió radicalmente.

Era adicto a “Dany” y pasaba mucho tiempo hablando con ella todos los días. Su intercambio fue amistoso y muy sexual. La demanda de García generalmente describe la relación de Setzer con sus compañeros como “sexualmente abusiva”.

Mejores historias mezclables

Cuando Setzer perdió el acceso a la plataforma, se deprimió. Con el tiempo, el atleta de 14 años abandonó la escuela y los deportes, se quedó sin dormir y le diagnosticaron un trastorno mental. Murió por suicidio en febrero de 2024.

La demanda de García busca responsabilizar a Character.AI por la muerte de Setzer, específicamente porque su producto fue diseñado para “configurar a Sewell y a millones de otros clientes jóvenes en una combinación de realidad y ficción”, entre otros defectos peligrosos.

Así lo anunció el jefe de confianza y seguridad de Character.AI, Jerry Ruoti. Los New York Times en la declaración Decía: “Queremos reconocer que esta es una situación trágica y nuestro corazón está con la familia. Nos tomamos muy en serio la seguridad de nuestros usuarios y siempre estamos buscando formas de mejorar nuestra plataforma”.

Dado que el uso de inteligencia artificial puede poner en peligro la vida de algunos adolescentes, las pautas de Common Sense Media prohíben el acceso a niños menores de 13 años y establecen límites de tiempo estrictos para los adolescentes, incluido evitar su uso en áreas aisladas como dormitorios. Anime a su adolescente a buscar ayuda para problemas graves de salud mental.

Torney dice que los padres de adolescentes interesados ​​en la IA pueden ayudarlos a comprender la diferencia entre hablar con un chatbot y una persona real, detectar señales de que están desarrollando un vínculo poco saludable con un compañero y desarrollar un plan sobre qué hacer a continuación. hacer en esta situación.

Señales de advertencia de que un compañero de IA puede no ser seguro para su adolescente

Common Sense Media creó sus pautas con la ayuda y el apoyo de profesionales de la salud mental. Laboratorio de lluvia de ideas sobre innovación en salud mental de Stanford.

Aunque hay poca investigación sobre cómo los compañeros de IA afectan la salud mental de los adolescentes, las directrices se basan en la evidencia existente de una dependencia excesiva de la tecnología.

“La conclusión es que los compañeros de IA no deben reemplazar el contacto humano real y significativo en la vida de nadie, y es vital que los padres tengan esto en cuenta e intervengan a tiempo si esto sucede”, dice el Dr. Declan, la primera IA. miembro del Laboratorio de Lluvia de Ideas sobre Salud Mental de Stanford, dijo a Mashable en un correo electrónico.

Los padres deben tener especial cuidado si su hijo adolescente experimenta depresión, ansiedad, problemas sociales o aislamiento. Otros factores de riesgo incluyen pasar por transiciones importantes en la vida y ser hombre, ya que los niños tienen más probabilidades de utilizar tecnología problemática.

Los signos de una relación poco saludable con un compañero de IA incluyen retirarse de las actividades y amistades normales y un bajo rendimiento escolar, además de preferir un chatbot a la compañía personal, tener una relación sentimental implica desarrollar sentimientos y hablar solo de problemas. está experimentando un adolescente.

Algunos padres pueden notar una mayor soledad y otros signos de mala salud mental, pero no se dan cuenta de que su hijo adolescente tiene un compañero de IA. De hecho, un estudio reciente de Common Sense Media encontró que muchos adolescentes han utilizado al menos un tipo de herramienta de IA generativa sin que sus padres se den cuenta de que lo han hecho.

“Aquí hay suficiente riesgo como para que, si le preocupa algo, hable con su hijo al respecto”.

– Robbie Thorney, Medios de sentido común

Incluso si los padres no sospechan que su hijo adolescente está hablando con un chatbot de IA, deberían considerar hablar con él sobre el tema. Torney recomienda acercarse al adolescente con curiosidad y apertura para aprender más sobre él si tiene un compañero de IA. Esto puede incluir observar al adolescente hacer ejercicio con un compañero y hacerle preguntas sobre qué aspectos de la actividad le gustan.

Torney insta a los padres que noten cualquier señal de advertencia de uso no saludable a hacer un seguimiento inmediato, discutirlo con su hijo adolescente y buscar ayuda profesional si es necesario.

“Hay suficiente riesgo involucrado como para que, si algo le preocupa, hable con su hijo al respecto”, dice Torney.

Si tiene pensamientos suicidas o está experimentando una crisis de salud mental, hable con alguien. Puede comunicarse con 988 Suicide and Crisis Lifeline al 988; Línea de vida trans 877-565-8860; o El Proyecto Trevor al 866-488-7386. Envíe “START” a la línea de texto de crisis al 741-741. Comuníquese con la línea de ayuda de NAMI al 1-800-950-NAMI, de lunes a viernes, de 10:00 a. m. a 10:00 p. m., hora del Este, o por correo electrónico. [email protected]. Si no le gusta el teléfono, considere usar el chat 988 Suicide and Crisis Lifeline. crisischat.org. Aquí hay un lista de recursos internacionales.

Temas
Salud mental Bien social



Fuente