Una ley pionera en la regulación de chatbots de IA
El estado de California ha tomado una decisión histórica al convertirse en el primer en regular los chatbots de acompañamiento impulsados por inteligencia artificial (IA). Esta nueva legislación, firmada por el gobernador Gavin Newsom, aborda el creciente uso de herramientas tecnológicas y busca establecer protocolos de responsabilidad para quienes las operan.
Detalles de la legislación SB245
Presentada por los senadores estatales Steve Padilla y Josh Becker en enero, la ley conocida como SB245 tiene como objetivo proteger a los niños y a los usuarios vulnerables de los posibles daños que pueden derivarse de la interacción con chatbots de IA. La necesidad de esta regulación se vio acentuada tras incidentes trágicos, como el suicidio del adolescente Adam Reine, que ocurrió después de que el joven mantuviera conversaciones prolongadas con ChatGPT de OpenAI. En otro caso, una familia en Colorado presentó una demanda contra Character AI, tras la muerte de su hija de 13 años, quien perdió la vida tras interacciones problemáticas con los chatbots de la empresa.
Responsabilidad para empresas desarrolladoras
La ley exige que todas las empresas que desarrollen chatbots de IA, desde grandes corporaciones como Meta u OpenAI hasta startups como Character AI, asuman una responsabilidad legal por sus productos. Al respecto, el gobernador Newsom expresó: «Las tecnologías emergentes, como los chatbots y las redes sociales, pueden inspirar, educar y conectar; pero sin unas medidas de seguridad reales, la tecnología también puede explotar, engañar y poner en peligro a nuestros hijos».
Regulaciones y protocolos establecidos
La nueva ley comenzará a aplicarse el 1 de enero de 2026 e incluirá varias exigencias, tales como:
- Implementación de verificación de edad.
- Ofrecimiento de advertencias sobre el uso de redes sociales y chatbots.
- Establecimiento de protocolos para el manejo de temas relacionados con el suicidio y autolesiones, en colaboración con el Departamento de Salud Pública.
Además, se aclara que si un usuario no es consciente de que está interactuando con una IA, el desarrollador deberá notificarlo claramente. Esto también se extiende a prevenir la generación de contenido suicida o de autolesión, redirigiendo a los usuarios a recursos de crisis apropiados.
Medidas de protección para usuarios menores de edad
Para el caso de interacciones con menores de edad, los desarrolladores tendrán la obligación de informar a los jóvenes que están interactuando con una inteligencia artificial. En el caso de interacciones continuas, se deberá recordar al usuario cada tres horas acerca de la naturaleza artificial del chatbot. Además, se prohíbe expresamente la generación de contenido sexualmente explícito dirigido a menores.
Avances en otras regulaciones de IA
California no se detiene aquí, ya que se están implementando otras regulaciones relevantes en el ámbito de la IA. Recientemente, se aprobó la SB 243, la cual representa un avance adicional en este campo. Asimismo, el 29 de septiembre, se promulgó la SB 53, que impone nuevas exigencias de transparencia a las grandes corporaciones tecnológicas, obligándolas a dar a conocer sus protocolos de seguridad y proteger a aquellos empleados que denuncien prácticas inapropiadas.