Tanto gobiernos como ONG’s están buscando la manera de regular la Inteligencia Artificial (IA). Te contamos cuáles son las propuestas principales.
Y estas declaraciones no se toman a la ligera. Gobiernos y ONG poco a poco comienzan a tener más debates al respecto para proponer cómo regular esta tecnología. Pero ¿qué tienen en común estos códigos y a quiénes beneficia?
Gobiernos: los principales responsables en regular la IA
“La pregunta es si estos desarrollos tecnológicos nos están ayudando a crear sociedades más equitativas, más sustentables, menos desiguales, menos discriminadoras que lo que tenemos en el mundo y la respuesta es no, al contrario”, dijo Gabriela Ramos, subdirectora general de departamento de Ciencias Sociales y Humanas de la UNESCO en un podcast con la periodista Gabriela Warketin.
De acuerdo con Ramos, el problema de estos desarrollos tecnológicos es que cuando se lanzan al mercado, las consideraciones son comerciales, geopolíticas y para mantener un liderazgo tecnológico y que la principal responsabilidad de normar éticamente es de los gobiernos.
Desde abril de 2021, la Comisión Europea propuso el primer marco regulatorio de la Unión Europea (UE) para la IA. En su caso, establecen que los sistemas de IA se pueden usar de diferentes maneras y las califican según el riesgo que representan para los usuarios.
Estos son: riesgos inaceptables, aquellos considerados una amenaza para las personas y que deben ser prohibidos; de alto riesgo, aquellos que afectan negativamente a la seguridad o los derechos fundamentales, que incluyen a la IA generativa como ChatGPT y aspectos como biométricos, educación, trabajo, leyes, migración asistencia legal, entre otros; y de riesgo limitado, que deben cumplir con requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones informadas. Esto incluye sistemas de IA que generan o manipulan contenido, como imágenes, audio, video o los deepfakes.
Por otro lado, la firma legal Goodwin compartió que “no ha habido una consideración seria de un análogo de Estados Unidos a la Ley de IA de la UE”, a pesar de que es en este mismo país donde se encuentran las principales empresas desarrolladoras de IA, como OpenAI, Microsoft, Google y Meta.
Solo hasta enero de 2023, NIST, una agencia del Departamento de Comercio de Estados Unidos, publicó su marco de gestión de riesgos de la Inteligencia Artificial como una guía voluntaria para el sector, conocido como el RMF. Más allá de la gestión de riesgos, la RMF busca promover el desarrollo y uso confiable y responsable de los sistemas de IA. Pero no es obligatoria.
En el caso de Canadá, el Instituto Canadiense de Investigación Avanzada (CIFAR, por sus siglas en inglés), creó la Pan-Canadian AI Strategy desde 2017. Sin embargo, más allá de una regulación específica, el instituto se encarga de realizar investigaciones sobre la IA para la ciencia, la salud, el medio ambiente y el comercio con un enfoque ético y contribuir a las conversaciones sobre políticas globales para fomentar el uso ético y responsable de la IA.
Pero, dado que los impactos ambientales son globales, varios gobiernos están preocupados por la regulación. En el caso del Medio Oriente, Dubai creó una guía de principios éticos para el desarrollo de la IA, que busca promover justicia en los algoritmos, transparencia, ser más humana e inclusiva.
Por su parte, Arabia Saudita cuenta con la Autoridad de la Data y la IA (SDAIA, por sus siglas en inglés), que es la autoridad competente y una referencia para los países árabes en el monitoreo y regulación de los datos y la IA.
Los esfuerzos de las ONG’s para regular la IA
La regulación de la IA es un tema complicado porque requiere de expertos en el tema. Por ello, los gobiernos pueden ayudarse de ONG’s y sus recomendaciones para regular de la manera más eficiente.
Angel Melguizo, asesor de la UNESCO en IA y socio de ARGIA consulting, compartió en una entrevista con este medio que la solución tiene que ser global, pero que la regulación no puede ser igual para todos. “Hay una América Latina y es diferente los retos que tiene a otras regiones, como Europa. Incluso, dentro de América Latina hay Américas Latinas”.
En noviembre de 2021, los 193 Estados miembros de la Conferencia General de la UNESCO adoptaron la Recomendación sobre la Ética de la Inteligencia Artificial , siendo este el primer instrumento normativo mundial sobre el tema.
De acuerdo con la UNESCO, este instrumento busca promover los derechos humanos, la dignidad humana, ser una guía ética y una base normativa global que permita construir un sólido respeto por el estado de derecho en el mundo digital.
Melguizo compartió que la IA no solo tiene que ser regulada de manera que fomente la democracia y las economías, sino también asegurarse de que estas tecnologías se desarrollen de manera sostenible y sustentable para el Medio Ambiente.
Por otro lado, la Organización para la Cooperación y Desarrollo Económicos (OCDE) cuenta con un observatorio , principios y clasificaciones para regularla de la mejor manera.