Los fiscales generales de los 50 estados de EE.UU. quieren que los legisladores establezcan una comisión dedicada a investigar el impacto de la inteligencia artificial en la explotación infantil, según informó The Associated Press anteriormente. En una carta al Congreso, los fiscales generales afirman que la comisión propuesta debería encontrar soluciones para prevenir la creación de material de abuso sexual infantil (CSAM) generado por IA.
Según se detalla en la carta, los fiscales generales señalan que los actores malintencionados pueden entrenar una IA utilizando imágenes de niños maltratados y no maltratados para crear deepfakes y también animar "imágenes sexualizadas nuevas y realistas de niños que no existen, pero que pueden parecerse a niños reales". La carta añade que las herramientas de IA ampliamente disponibles hacen que este proceso sea "más fácil que nunca".
La iniciativa, liderada por el Fiscal General de Carolina del Sur, Alan Wilson, incluye firmas de los fiscales generales de los 50 estados y cuatro territorios. Cada fiscal jefe pidió al Congreso que estableciera una comisión para "estudiar los medios y métodos de la IA que se pueden utilizar para explotar a los niños", así como para ampliar "las restricciones existentes sobre CSAM para abarcar explícitamente CSAM generado por IA".
El gobierno de EE.UU. ya ha comenzado a evaluar algunos de los riesgos relacionados con la IA. Después de que la administración Biden presentara un plan para promover el uso ético de la IA en mayo, el Senado celebró una audiencia notablemente amistosa sobre la regulación de la IA. Aún no hay planes sólidos para implementar leyes exhaustivas para controlar el uso de la IA, algo que la Unión Europea ya está haciendo.
"Aunque sabemos que el Congreso es consciente de las preocupaciones en torno a la IA, y se ha propuesto recientemente legislación a nivel estatal y federal para regular la IA en general, gran parte del enfoque se ha centrado en la seguridad nacional y las preocupaciones educativas", dice la carta. "Y aunque esos intereses merecen ser considerados, la seguridad de los niños no debe quedar en el olvido al evaluar los riesgos de la IA".