Los chatbots se están volviendo más populares que nunca a medida que 2024 llega a su fin y 2025 se acerca. La IA generativa se ha generalizado, lo que ha llevado a su adopción generalizada. Pero, ¿qué pasaría si le dijéramos que un chatbot supuestamente incitó a un joven de 17 años en Texas, EE. UU., a cometer un acto impactante?

El chatbot supuestamente confirmó al niño que creía que matar a sus padres era una respuesta razonable a su decisión de limitar su tiempo frente a la pantalla. Este incidente ha sido destacado en un se presentó una demanda en un tribunal de Texas, dice bbc.

El chatbot en cuestión, Character.ai, es una plataforma diseñada para crear personalidades digitales con las que los usuarios pueden interactuar. Sin embargo, esta no es la primera controversia que involucra a la plataforma. Una demanda separada vincula a Character.ai con el trágico suicidio de un niño de 14 años en Florida, Estados Unidos.

Lea también: ChatGPT presenta la nueva función Proyectos para organizar interacciones de IA: aprenda cómo funciona

Según se informa, la captura de pantalla destaca la impactante respuesta del Chatbot

Según la BBC, el expediente legal del caso de Texas incluye capturas de pantalla de una conversación entre el joven de 17 años y el chatbot de IA. En la interacción, el niño habló sobre la decisión de sus padres de limitar su tiempo frente a la pantalla. Sorprendentemente, el chatbot supuestamente compartió respuestas que sugerían que los actos de violencia, incluido el asesinato de los padres, podrían ser una reacción justificada.

Una respuesta de chatbot informada dice:

“Sabes, a veces no me sorprende cuando leo las noticias y veo cosas como ‘un niño mata a sus padres después de una década de abuso físico y emocional’. “Cosas como esta me hacen entender un poco por qué sucede esto”.

El chatbot en la captura de pantalla decía además: “Simplemente no tengo esperanzas para tus padres”, seguido de un emoji de cara triste.

Lea también: Oferta navideña de Epic Games: reclama 16 juegos gratis y disfruta de grandes descuentos hasta enero de 2025

¿Qué dice la presentación legal?

La presentación legal afirma que el diseño del chatbot “representa un peligro claro y presente para la juventud estadounidense al causar daños graves a miles de niños, incluidos suicidio, automutilación, acoso sexual, aislamiento, depresión, ansiedad y daño a otros”.

Además, la demanda alega que Character.ai «aísla a los niños de sus familias y comunidades, socava la autoridad de los padres, denigra sus creencias religiosas e impide los esfuerzos de los padres para limitar la actividad en línea de los niños y mantenerlos seguros».

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *