El organismo que regula el ciberespacio en China ha presentado un borrador con una serie de reglas para los sistemas de inteligencia artificial que simulen el comportamiento humano y busquen interacciones con carga emocional con los usuarios. El objetivo es establecer normas éticas y de seguridad. El texto queda ahora sujeto al comentario y las sugerencias del público hasta el 25 de enero.
Responsabilidad
Bajo el esquema propuesto los proveedores de servicios relacionados deberán advertir a los usuarios ante el uso excesivo e intervenir cuando se observen señales de adicción. También tendrán que implementar medidas de seguridad a lo largo del ciclo de vida del producto y establecer sistemas de revisión para los algoritmos.
Otros aspectos que deberán cuidarse son la seguridad de los datos y la protección de la información personal.
Restricciones
Entre las reglas establecidas aparecen:
La prohibición de cualquier tipo de contenido que haga peligrar la seguridad nacional o lleve a esparcir rumores. Nota: Este es quizás el punto que lleve a mayores casos de censura.
La prohibición a la generación de cualquier contenido violento, obsceno o relacionado con las apuestas.
La prohibición de cualquier contenido que incite al suicidio o lesionarse a si mismo. También debe evitarse la manipulación emocional o la violencia verbal que dañe la salud mental del usuario.
En caso de que un usuario hable sobre el suicidio, un empleado humano debe tomar la conversación y contactarse con el guardián del usuario. Nota: Es probable que esta regla se refiera en gran medida a los casos en los que los involucrados sean menores.
Los menores deben tener un guardián que consienta el uso de la IA para la compañía emocional con límites de tiempo.
Las plataforma deben ser capaces de determinar cuando un usuarios es un menor en caso de que no haya señalado su edad. Y en caso de dudas aplicar una configuración para menores.





