Este es uno de los pasos más importantes que está dando el bloque para regular la IA y consiste en cuatro instalaciones experimentales donde se probarán los productos en torno a esta tecnología en el cual se invirtieron alrededor de 240 millones de dólares.
La operación de estos sistemas e instalaciones comenzará a partir del siguiente año, informaron las autoridades. Además, dijeron que con ellas buscan brindar un espacio para la prueba de IA y robótica en diferentes sectores productos y de atención, como la medicina, la manufactura, la agricultura o las ciudades.
Lucila Scioli, directora de Inteligencia Artificial e Industria Digital de la UE, dijo en el evento de lanzamiento en Copenhague, Dinamarca, que con esta nueva medida se lancen productos “confiables” que combatan problemas como la desinformación, que describió como uno de los riesgos potenciales de esta tecnología.
Estas medidas no son una cuestión nueva para la Unión Europea, una región que se ha esforzado en regular la Inteligencia Artificial, además de que diversos grupos han pedido que el gobierno ponga en marcha esfuerzos para controlar esta tecnología a través de legislaciones que mantengan seguros a los usuarios.
La semana pasada, la directora de la Organización del Consumidor Europeo (BEUC), Ursula Pachl, mostró su preocupación respecto a los posibles engaños, manipulación y daño que puede generar a partir de desinformación, ampliación de sesgos y actividades fraudulentas.
“Hacemos un llamado a las autoridades de datos y protección del consumidor para que inicien investigaciones y no esperen sin hacer nada”, exigió Pachl a través de un comunicado
Cabe recordar que la UE está en camino para aprobar una regulación para controlar la Inteligencia Artificial. Se le conoce como Ley Europea de IA, se trata de la primera regulación para los sistemas de IA en Occidente y adopta un enfoque donde las obligaciones de un sistema son proporcionales al nivel de riesgo que plantea.
De acuerdo con la legislación, hay cuatro niveles de riesgo que puede plantear la IA: inaceptable, alto, limitado y riesgo mínimo o nulo. En el caso de las que pueden generar un riesgo inaceptable deben estar prohibidas, señala el documento.
Los sistemas que planteen un riesgo inaceptable se prohibirán, de acuerdo con el documento legal. Sin embargo, las reglas han preocupado a algunos sectores de la industria de la tecnología, pues resaltan la posibilidad de que su alcance tan amplio afecte a otras IA o a su desarrollo.
Se espera que el bloque llegue a un acuerdo y publique el borrador final hacia el cierre de año para que los legisladores la discutan y voten a mediados de junio en busca de su aprobación.