La UE prepara una regulación de tres niveles para la IA: cuanto más potente, más estricas serán las limitaciones

  • La categoría más importante se medirá según los usuarios del modelo: mínimo, 45 millones

  • La regulación es necesaria, pero puede acabar ralentizando del desarrollo de la IA en la UE

Ia Ue
13 comentarios Facebook Twitter Flipboard E-mail

La Unión Europea sigue trabajando a toda máquina para lanzar la que será la primera gran regulación de IA de la historia. El proceso, que comenzó en mayo de 2022, se enfrenta ahora a su fase final, y lo hace con un planteamiento singular que aboga por clasificar los sistemas de IA en tres grandes niveles de prestaciones para luego aplicar distintas restricciones según el alcance de cada uno de ellos.

Tres niveles, tres. En Bloomberg afirman haber tenido acceso a un borrador de la llamada AI Act en el que se habla de tres categorías de sistemas de IA. El primero, el de los modelos fundacionales (tipo GPT-4 o PaLM 2) que son base de la mayoría de implementaciones prácticas. El segundo, el de los sistemas "muy capaces" que se diferencian en la capacidad de proceso usada para entrenarlos. El tercero, los sistemas de propósito general como ChatGPT, y aquí se mediría su influencia según su número de usuarios.

La UE perfila su propuesta. Los representantes de las tres instituciones de la Unión Europea ya apoyaron esa solución basada en capas o categorías en una reunión previa este mes, pero según Bloomberg los expertos han desarrollado esta propuesta más concreta que tiene fecha del 16 de octubre. Anteriormente ya habíamos visto ese marco regulatorio basado en el riesgo que planteaban esas soluciones. Veamos esas grandes categorías y sus limitaciones.

Primero, todos los modelos fundacionales. Los desarrolladores de IA deberán documentar tanto el modelo como su proceso de entrenamiento antes de publicarlo. Necesitarán analizar su seguridad tratando de forzar malos comportamientos, y también será necesario conocer cómo se gestionan los posibles conflictos de copyright. Estos modelos, según el documento, pueden "realizar de forma competente un amplio rango de tareas diferentes".

Segundo, los modelos fundacionales "altamente capaces". Si el modelo es más ambicioso, tendrá que pasar por una evaluación más exhaustiva. De hecho, expertos externos designados por la nueva AI Office de la UE realizarán las pruebas "red-teaming" de evaluación de seguridad. También habrá comprobaciones periódicas de que se siguen las normas y de que se mantiene la transparencia. Estos modelos se clasificarán según la potencia de cálculo aplicada para entrenarlos medida en FLOPS, una magnitud ya tradicional al evaluar supercomputadores. De momento los rangos de potencia no se han establecido, pero se irán actualizando.

Tercero, los sistemas IA de escala y propósito general. Habrá aquí también análisis de seguridad externos y obligación de crear un informe de riesgos y medidas para minimizarlos. Estos sistemas se clasificarán según el número de usuarios: si se pasa de 10.000 usuarios empresariales o de 45 millones de usuarios registrados, el sistema se considerará como integrante en esta categoría. Aún así, la AI Office podrá incluir en ella otros sistemas cuando no se superen ese número de usuarios pero puedan plantear riesgos.

Si no cumplen, suspensión. Las medidas específicas no están aún detalladas en el borrador según Bloomberg, pero esa AI Office recolectará la documentación, organizará las pruebas de cumplimiento de las normas, creará un registro de expertos de seguridad y llevará a cabo las investigaciones. Si se detecta que los modelos incumplen esa regulación, se podrá acudir a la suspensión del modelo "como último recurso". Algo así ocurrió cuando Italia prohibió temporalmente el uso de ChatGPT, por ejemplo. Se espera que se debata esta regulación la semana que viene, aunque no se finalizará su redacción hasta finales de año.

Pero. La puesta en marcha de la regulación, aunque necesaria, tiene un contrapunto: si es demasiado restrictiva podría acabar perjudicando el desarrollo y puesta en marcha de estos sistemas en la UE. Eso volvería a hacer que el viejo continente fuera a la zaga en esta (teórica) nueva revolución mientras EEUU o China avanzan con regulaciones más laxas, si es que acaban estableciéndolas. Los expertos ya hablan de un gran perjudicado, el Open Source, pero es que además esas prisas pueden ser malas consejeras porque la regulación podría nacer obsoleta.

Imagen | Jernej Furman | Tingey Injury Law Firm

En Xataka | Así automaticé toda mi casa con inteligencia artificial y un sistema open source

Comentarios cerrados
Inicio