El pasado febrero, los 10 países que integran la Asociación de Naciones del Sudeste Asiático (ASEAN) publicaron la Guía para la gobernanza y la ética de la IA, durante la 4ta. Reunión de Ministros Digitales.
Esta guía propone siete principios para implementar, diseñar, desarrollar y explotar sistemas de inteligencia artificial en el sudeste de Asia, estos son: transparencia, equidad, seguridad, confiabilidad, centralidad humana, privacidad, y responsabilidad, los que serán aplicables a los sistemas tradicionales de IA como la búsqueda de Google o asistentes de voz, lo que deja de lado –por ahora– a sistemas generativos como ChatGPT, Gemini o Midjourney, aunque deja la puerta abierta para incluir en un futuro directrices para estos.
El documento puede ser consultado por organizaciones de la región que deseen diseñar, desarrollar e implementar tecnologías tradicionales de IA en aplicaciones comerciales y no militares, su meta es fomentar la interoperabilidad de los marcos de IA en todas las naciones de ASEAN y no son, por los momentos, legalmente vinculantes.
Asimismo, incluye recomendaciones sobre iniciativas a nivel nacional y regional que pueden ser adoptadas por los gobiernos locales para generar directrices de gobernanza, incluso los que pertenecen a países que ya han implementado normas para la IA, como Singapur, Filipinas e Indonesia.
Las normas existentes han fragmentado el panorama
Esta es una más de las propuestas regionales que se han ido sumando en los últimos meses a la necesidad de establecer normativas y procesos de aproximación y gestión de la IA que, aunque es una preocupación global, no cuenta aún con una propuesta lo suficientemente global.
Entonces, diversos países, o regiones, han propuesto reglas distintas entre sí, lo cual presenta un paisaje algo fragmentado y sectorizado. Por ejemplo, la Unión Europea ha propuesto normas más estrictas e intervencionistas en su Ley de Inteligencia Artificial, que clasifica esta tecnología en función de su riesgo: inaceptables, alto riesgo, riesgo limitado y riesgo mínimo.
En la UE, IA inaceptable (como la IA manipuladora) está prohibida, la de alto riesgo está estrictamente regulada, y en esta clasificación la mayoría de las obligaciones recaen en los desarrolladores y proveedores. La IA de riesgo limitado está sujeta a obligaciones de transparencia, como que los desarrolladores deben asegurarse de que los usuarios finales sepan que están interactuando con IA (como chatbots y deepfakes), mientras todo lo que sea de riesgo mínimo (como filtros de spam o programas de edición) no están reguladas por esta ley.
Entretanto, Canadá también está avanzando en la legislación de la IA. Por ahora, el Comité Permanente de Industria y Tecnología de la Cámara de los Comunes está discutiendo la Ley de Datos e Inteligencia Artificial de Canadá (AIDA, por sus siglas en inglés), introducida en 2022 y que –como se lee– propone un régimen amplio basado en el impacto para “permitir la confianza de los ciudadanos, fomentar la innovación responsable y seguir siendo interoperable con los mercados internacionales”.
La AIDA plantea la interoperabilidad con los mercados internacionales como una de sus metas, pero –y esta es una posible “falla” que expertos critican– no distingue, como sí lo hace la Ley IA de la UE, entre los diversos tipos de IA y sus usos, por lo que la interoperabilidad podría no darse.
Esta normativa se diseñó para regular toda IA usada en Canadá de la misma manera, por lo que empresas y entes de distintas naturalezas se enfrentarán a los mismos retos (aunque no sean afectados de la misma manera) de adecuación y vigilancia de sus aplicaciones de IA, lo que significa que una empresa pequeña que use una solución de bajo impacto para, digamos, atención al consumidor, tendrá que usar más recursos que una grande, cuyo uso de la IA (probablemente de alto riesgo) sea más amplio y complejo.
La propuesta de Estados Unidos
En octubre de 2023, el presidente Biden emitió una orden ejecutiva que establece reglas y gobernanza sobre la IA y la ciberseguridad, mediante la imposición de un cronograma de acción gubernamental que inició con la obligación de que los desarrolladores de los sistemas de IA más potentes reporten información vital, como sus resultados de las pruebas de seguridad, al Departamento de Comercio.
La orden también exige que diversas agencias gubernamentales reporten sus evaluaciones de riesgos con respecto al uso de IA al Departamento de Seguridad Nacional. Con esto, y de acuerdo con la Ley de Producción de Defensa, todas las compañías que desarrollen modelos que representen un riesgo grave para la seguridad nacional, económica, de salud y pública deben notificar al gobierno federal cuando entrenen el modelo y compartir los resultados de todas las pruebas de seguridad.
Asimismo, impone desarrollar estándares, herramientas y pruebas para ayudar a garantizar que los sistemas de IA sean seguros y confiables, para esto, el Instituto Nacional de Estándares y Tecnología estableció normas rigurosas para pruebas exhaustivas antes de su divulgación al público. Las agencias que financian proyectos de ciencias biológicas son las primeras que deberán establecer estos estándares como condición para la financiación federal.
Entre los objetivos de la Administración Biden también está establecer medidas para detectar contenido generado por IA y autenticar el contenido oficial (para reducir el uso del contenido deepfake), para lograrlo, el Departamento de Comercio tiene la tarea de elaborar una guía para la autenticación de contenido y la creación de marcas de agua para etiquetar el contenido generado por IA.
Finalmente, los ciudadanos contarán con una legislación sobre privacidad de datos para proteger los datos personales, mediante el uso de sistemas de IA, y otras tecnologías, como las herramientas criptográficas. La evaluación de cómo las agencias recopilan y utilizan la información disponible comercialmente está incluida en la orden, así como el desarrollo de pautas para que las agencias federales evalúen la efectividad de las medidas de protección de la privacidad, incluidas las utilizadas en los sistemas de inteligencia artificial.