La inteligencia artificial ha dejado de ser un concepto futurista para convertirse en parte del engranaje cotidiano de nuestras vidas. Desde recomendaciones en plataformas de streaming hasta decisiones críticas en el sector sanitario o financiero, la IA está aquí. Y ante ese avance, la Unión Europea ha decidido —como tantas veces antes— tomar la delantera con una nueva regulación. ¿Es necesario establecer reglas para la IA? Indudablemente. ¿Lo está haciendo Europa de la mejor manera? Ahí es donde empiezan las dudas.

Desde el 1 de agosto, el Código de Buenas Prácticas para Modelos de Inteligencia Artificial de Uso General está disponible como herramienta voluntaria para las empresas. Se trata de un paso previo a la aplicación completa de la Ley de Inteligencia Artificial (AI Act), prevista para agosto de 2026. La intención es clara: establecer estándares de transparencia, seguridad y respeto por los derechos fundamentales. Pero la pregunta que se repite entre los desarrolladores y expertos es si este afán por normarlo todo no corre el riesgo de ahogar la innovación que justamente Europa dice querer promover.

Reglas para la IA, un código bien intencionado, pero no inocente

El código, elaborado con la participación de más de mil actores —desde startups hasta académicos— busca facilitar el cumplimiento del AI Act. Contiene tres capítulos esenciales: transparencia, derechos de autor y gestión de riesgos sistémicos. La idea es que los desarrolladores puedan documentar mejor sus modelos, cumplir con la legislación de propiedad intelectual y anticipar riesgos potencialmente catastróficos, como el mal uso de la IA en la creación de armas o su falta de control autónomo.

Es, sin duda, un paso en la dirección correcta. Nadie quiere una inteligencia artificial que opere en la sombra ni modelos opacos que reproduzcan sesgos sin control. Pero la decisión de Europa de convertir este código en la antesala de una ley extensa, compleja y de cumplimiento obligatorio plantea un viejo dilema: ¿puede la hiperregulación ser tan perjudicial como la falta de reglas?

Europa y su “amor” por las normas

La historia reciente lo demuestra: desde el RGPD hasta la regulación de mercados digitales, la UE tiene una fascinación casi estructural por regular cada nuevo avance tecnológico. A veces con razón. A veces con exceso. La nueva Ley de IA no escapa a esta lógica. Con una clasificación de sistemas según el nivel de riesgo —mínimo, limitado, alto e inaceptable—, impone exigencias que van desde simples notificaciones hasta auditorías, marcado CE, documentación técnica, trazabilidad total y supervisión humana.

Que ciertos sistemas, como el reconocimiento facial o la manipulación conductual, estén directamente prohibidos es una decisión firme y razonable. Pero exigir a una pyme que desarrolle un chatbot que documente y justifique cada línea de código puede terminar siendo contraproducente. El riesgo no es solo burocrático, es también competitivo: mientras en Europa se llenan formularios, en otros lugares se lanzan productos.

El argumento de la seguridad para justificar las reglas de la IA

La Comisión Europea ha sido enfática: la IA no puede desarrollarse sin responsabilidad. Y en eso tiene razón. Los riesgos sistémicos que plantea un mal uso de la inteligencia artificial son reales. Automatización sin control, decisiones discriminatorias, pérdida de privacidad o el potencial uso bélico de modelos generativos son problemas que no pueden dejarse a la autorregulación de las grandes tecnológicas.

Sin embargo, también conviene preguntarse si imponer obligaciones uniformes a todo el ecosistema —desde gigantes tecnológicos hasta pequeños desarrolladores— es la forma más eficiente de actuar. El Código de Buenas Prácticas es voluntario, pero quienes lo adopten tendrán ventajas legales frente al resto. Es decir, una invitación con sabor a presión indirecta.

¿Y qué pasa con la innovación?

Europa quiere convertirse en un referente global en tecnología confiable, pero su historial con la innovación digital no es especialmente brillante. En el ranking de gigantes tecnológicos, las empresas europeas brillan por su ausencia. Y no porque falte talento, sino porque a menudo el entorno normativo resulta más hostil que estimulante.

Imponer exigencias preventivas, aunque bienintencionadas, puede convertirse en una barrera de entrada difícil de superar para startups o proyectos en etapas tempranas. El miedo a sanciones —que pueden llegar a 35 millones de euros o el 7% del volumen global de negocio— desincentiva la experimentación. Y sin experimentación, no hay innovación.

¿Equilibrio posible?

Las reglas en la IA son necesarias, especialmente cuando se trata de tecnologías con tanto impacto. Pero también es importante que esas reglas sean ágiles, proporcionales y adaptables. No todo modelo de IA representa un riesgo existencial. No toda innovación necesita ser vigilada como si fuese plutonio.

Si Europa quiere liderar el desarrollo de una IA ética, necesita combinar exigencia con flexibilidad. Regular sin asfixiar. Supervisar sin paralizar. Y, sobre todo, confiar más en el ecosistema innovador que pretende proteger.

Porque sí, hay que regular la inteligencia artificial. Pero no deberíamos dejar que el temor al futuro nos impida construirlo.