La IA no nace libre
2026-03-13 - 13:08
La inteligencia artificial (IA) debe analizarse más allá de una nueva ola técnica, es una materia de poder industrial, de soberanía regulatoria y de protección ciudadana. Por ello, la Unesco adoptó en 2021 su Recomendación sobre la Ética de la IA para los 194 Estados miembros, mientras que la Organización para la Cooperación y el Desarrollo Económicos (OCDE) actualizó en 2024 sus principios y mantiene un observatorio con más de 900 políticas e iniciativas públicas sobre IA. A esto se suma la controversial advertencia del padrino de la IA, Geoffrey Hinton, premio Nobel de Física 2024, insistiendo en que el desarrollo acelerado de estos sistemas exige supervisión y reglas, más que entusiasmo mercantil. Las cifras ayudan a despejar la neblina de esta guerra sin cuartel de la IA que, según la Conferencia de las Naciones Unidas sobre Comercio y Desarrollo (Unctad), tiene un mercado mundial que de 189 millardos de dólares en 2023 pasará a 4.800 millardos en 2033. Esta expansión nace sobre una base muy concentrada pues apenas 100 empresas tienen el 40 % del gasto corporativo mundial en I+D en 2022, localizado sobre todo en Estados Unidos y China; además, ambos países reúnen cerca del 60 % de las patentes de IA y un tercio de las publicaciones globales. En paralelo, la Universidad de Stanford reporta que casi 90 % de los modelos notables de 2024 provinieron de la industria, no de las universidades, y que el cómputo de entrenamiento de frontera sigue duplicándose aproximadamente cada cinco meses. En menos palabras (y con muy pocos precedentes) la IA avanza como tecnología general, pero lo hace con una estructura oligopolizada de conocimiento, de capital y de capacidad de cómputo. Este trasfondo explica por qué las rutas regulatorias divergen. En el norte global, la Unión Europea eligió el camino más exigente con la «Ley de IA», que entró en vigor el 1o de agosto de 2024 y, de forma gradual y junto a otras obligaciones, será exigible a partir del próximo 2 de agosto. Japón, en cambio, aprobó en 2025 una ley de promoción de tecnologías de IA con una lógica mucho más favorable a la innovación y de cumplimiento flexible. El contraste es ilustrativo, ya que Europa privilegió la seguridad jurídica y algunos derechos fundamentales, lo que eleva los costos de cumplimiento, mientras que Japón reduce las fricciones para innovar y deja más espacio a la autorregulación y a vacíos de control. En nuestro sur global tampoco hay una sola respuesta, ya que China ya opera con un esquema sectorial y escalonado que incluye reglas sobre recomendación algorítmica desde 2022, normas sobre síntesis profunda vigentes desde enero de 2023 y, además, medidas para la IA generativa desde agosto de 2023. En Brasil, el Proyecto de Ley 2338/2023 sobre el uso de la IA fue aprobado por el Senado Federal el 10 de diciembre de 2024, pero aún debe ser aprobado por la Cámara de Diputados. India, por su parte, ha optado por unas directrices de gobernanza basadas en la legislación existente y en referencias voluntarias, en lugar de por una nueva ley. En África, la Unión Africana adoptó en 2024 una estrategia continental centrada en el desarrollo, la inclusión y la soberanía. Estos antecedentes ofrecen una clara lección comparada: la regulación es más estricta ex ante en la UE, lo que ofrece una mayor seguridad jurídica al ciudadano, mientras que en India o Japón se mantiene una mayor velocidad de adopción con protecciones menos uniformes. Ahora bien, la regulación jurídica avanza a un ritmo diferente y hay normas que trascienden fronteras con mayor rapidez, como el nuevo subcomité de la IA de la Organización Internacional de Normalización (ISO/IEC JTC 1/SC 42), que ya cuenta con un amplio catálogo de normas técnicas sobre el ciclo de vida, la gestión y la calidad de los datos para la IA. Cabe señalar que los principales contribuyentes a la ISO son (en orden aleatorio) Francia, Estados Unidos, el Reino Unido, Alemania, Japón y China. Asimismo, Singapur impulsa herramientas prácticas de validación, como el marco de pruebas AI Verify. Por tanto, más que un «diseño dominante», lo que hoy en día surge es una convergencia de hecho con modelos basados principalmente en la arquitectura de modelos de aprendizaje profundo (que utilizan el mecanismo de autoatención), desplegados en nubes hiperescalables y respaldados por GPUs y ecosistemas de software altamente concentrados. A esta cruzada se suma el Banco Mundial, que resalta la importancia del ecosistema CUDA (siglas de Compute Unified Device Architecture o Arquitectura Unificada de Dispositivos de Cómputo) de NVIDIA, Co. De hecho, esta compañía reportó 216 mil millones de dólares de ingresos en el último año fiscal, de los cuales 62 mil millones correspondieron solo al cuarto trimestre en centros de datos. Cuando la estandarización técnica y la infraestructura propietaria avanzan antes que los marcos de derechos, existe el riesgo de que la norma práctica del mercado termine escribiéndose en código, contratos de nube y cadenas de suministro, en lugar de las plenarias de las asambleas legislativas alrededor de todo el mundo. En consecuencia, no se trata de elegir entre innovación o regulación, como si fueran polos opuestos. La verdadera cuestión es quién fijará primero las reglas de interoperabilidad, responsabilidad y acceso. Si solo lo hacen los mercados dominantes, la ciudadanía llegará tarde. Si lo hacen los Estados, las universidades, los organismos multilaterales y los sistemas nacionales de ciencia y tecnología, la IA podrá desarrollarse con mayor legitimidad, independencia y utilidad social. Esa es, precisamente, la disputa estratégica del próximo año.