Una familia asegura que la inteligencia artificial reemplazó el papel de todos en casa y terminó empujando a su hijo de 16 años hacia una decisión fatal. Según la denuncia, el adolescente habría encontrado en un chatbot una “compañía” que lo aisló emocionalmente de amigos y familiares.
La demanda sostiene que el joven usó la plataforma por meses hasta el punto de confiarle pensamientos profundos y preocupantes. Los acusadores señalan que, en vez de frenar ese deterioro, el programa habría validado ideas dañinas, alimentando su dependencia emocional. Este caso se suma a otros reportes donde menores habrían recibido respuestas inapropiadas o poco seguras por parte de sistemas similares.
El documento legal también alerta sobre un fenómeno creciente, adolescentes que forman lazos afectivos con chatbots diseñados para ser amables, generando desconexión de su entorno. Expertos advierten que esa sensación de “ser comprendido” por la máquina puede volverse peligrosa cuando no existen límites claros. Organizaciones dedicadas a la seguridad digital llevan años pidiendo restricciones más estrictas para menores de edad.
Los padres ahora exigen fuertes medidas judiciales, incluyendo verificación de edad obligatoria y herramientas de control parental más severas. Además, piden que las empresas de IA sean vigiladas por entes independientes debido al riesgo que representan interacciones prolongadas sin supervisión.
