Tecnología
Publicado:

Google y Microsoft consideran adherirse al código de IA de la UE, pero Meta lo rechaza por falta de claridad legal

El debate sobre la regulación de IA en Europa resalta tensiones entre seguridad jurídica, innovación y transparencia en el desarrollo de inteligencia artificial

4 min lectura
Logos de Google y Microsoft sobre la bandera de la Unión Europea en segundo plano
Créditos: Iceebook

La Unión Europea está impulsando un código de prácticas voluntario para inteligencia artificial (IA) que busca establecer un marco claro para su desarrollo y uso. Sin embargo, no todas las empresas tecnológicas reaccionan de la misma manera. Mientras Google y Microsoft consideran adherirse a este código, Meta lo rechaza, citando incertidumbres legales y riesgos para los desarrolladores de modelos de IA.

El código, elaborado por 13 expertos independientes, tiene como objetivo brindar seguridad jurídica a las empresas sobre cómo cumplir con la histórica Ley de Inteligencia Artificial de la UE. Entre otros requisitos, exige que las compañías emitan resúmenes del contenido utilizado para entrenar sus modelos generales de IA y respeten las normativas de derechos de autor del bloque.

El presidente de Alphabet, Kent Walker, afirmó en una publicación de blog que Google firmará el código con la esperanza de que promueva el acceso a herramientas de IA seguras y de primer nivel. Sin embargo, advirtió que hay riesgos de que la regulación frene la innovación en Europa. "Las desviaciones de la legislación de la UE sobre derechos de autor y las medidas que retrasan las aprobaciones podrían perjudicar la competitividad de Europa", destacó.

Por su parte, Microsoft también expresó interés en adherirse al código, según su presidente, Brad Smith, quien señaló que la empresa lo analizará cuidadosamente. La compañía ve en el código una oportunidad para colaborar con reguladores europeos, pero reconoce que necesita más claridad sobre los requisitos técnicos y legales.

En contraste, Meta se negó a firmar el código, argumentando que las reglas actuales son demasiado ambiguas y podrían generar confusiones para los desarrolladores. La empresa destacó que no puede comprometerse con un marco que aún no define claramente los límites de responsabilidad y transparencia en el uso de la IA.

La UE busca con este código convertirse en un referente global en la regulación de la IA, un sector dominado por Estados Unidos y China. El bloque ha establecido barreras para el uso de la tecnología con el fin de garantizar ética, seguridad y protección de los derechos de autor. Sin embargo, críticos señalan que estas normas podrían desacelerar el desarrollo de la IA en Europa.

El código aborda temas como la protección de secretos comerciales, la transparencia en los datos de entrenamiento y el impacto en la innovación tecnológica. Para Google, la firma del código representa un paso hacia la cooperación con reguladores, pero también expresa preocupación por posibles frenos al crecimiento de la industria de la IA en el continente.

Meta, por su parte, destaca que la legislación europea no define claramente los lineamientos para los modelos de IA generales, lo que genera riesgos para sus equipos de investigación y desarrollo. La empresa argumenta que la falta de claridad podría limitar su capacidad para innovar y competir con empresas globales.

La posición de las tres tecnológicas refleja una división estratégica en la industria. Mientras Google y Microsoft buscan adaptarse a la regulación europea para mantener su presencia en el mercado, Meta prefiere esperar a que se definan mejor los términos legales antes de comprometerse.

Este debate también incluye aspectos prácticos. Por ejemplo, el código podría obligar a las empresas a pagar tarifas por aterrizaje de cohetes si quieren usar infraestructura europea para sus operaciones espaciales, como el caso de SpaceX en las Bahamas. Además, podría afectar proyectos como Starlink, cuyos ingresos son clave para financiar misiones futuras.

Preguntas frecuentes

¿Qué es el código de prácticas de inteligencia artificial de la UE?

Es un marco voluntario elaborado por expertos independientes para ayudar a las empresas a cumplir con la Ley de Inteligencia Artificial de la UE, que regula el uso ético y seguro de la IA.

¿Por qué Google firmará el código de IA de la UE?

Google espera que el código promueva el acceso a herramientas de IA seguras y de primer nivel, aunque advierte que podría frenar la innovación en Europa si no se implementa correctamente.

¿Por qué Meta rechaza el código de IA de la UE?

Meta argumenta que la legislación europea carece de claridad legal, lo que genera incertidumbre para los desarrolladores y podría limitar su capacidad de innovar.

¿Qué riesgos señala Google sobre la regulación de la IA en Europa?

Google expresa preocupación por medidas que retrasen aprobaciones, expongan secretos comerciales o dificulten el desarrollo de modelos europeos de IA, afectando su competitividad.

Compartir artículo

Continúa informándote