La revolución de la inteligencia artificial está transformando la sociedad a un ritmo sin precedentes, pero su avance plantea desafíos inmediatos que ya no pueden posponerse. Así lo sostiene el profesor Shalom Lappin, investigador de la Queen Mary University de Londres, el King's College de Londres y la Universidad de Gotemburgo, quien pide medidas políticas urgentes para frenar el desarrollo sin control de la IA.
Lappin es claro, el foco debe dejar de estar en los temores especulativos sobre máquinas superinteligentes y centrarse en los riesgos tangibles que afectan al mundo real. En su nuevo libro, Understanding the Artificial Intelligence Revolution, el experto documenta cómo la concentración de poder en manos de un puñado de empresas tecnológicas permite que sus intereses comerciales definan la agenda global, desplazando el interés público.
Según su investigación, en 2022 las grandes tecnológicas crearon 32 modelos principales de aprendizaje automático, mientras que las universidades solo desarrollaron tres. Esta desigualdad otorga a las corporaciones el poder de decidir qué problemas aborda la IA y cómo se utiliza, dejando de lado la diversidad de perspectivas y prioridades sociales.
El impacto ambiental es otro desafío que Lappin considera urgente. El entrenamiento de sistemas como ChatGPT-4 consume decenas de gigavatios hora de electricidad, equivalente al gasto anual de miles de hogares. La fabricación de chips implica sustancias químicas peligrosas, gran uso de agua y elevadas emisiones de carbono, lo que multiplica el coste ecológico de la tecnología.
Lappin propone tres prioridades políticas clave. La primera es una regulación internacional robusta: los países, por sí solos, carecen de la capacidad de fiscalizar a los gigantes tecnológicos que operan a escala global. Sugiere aprovechar acuerdos comerciales y foros multilaterales para imponer estándares éticos y de transparencia en el desarrollo y uso de IA.
En segundo lugar, urge reformar la propiedad intelectual. Lappin reclama que las empresas de IA obtengan consentimiento explícito y compensen a los titulares de derechos cuando utilizan obras protegidas para entrenar algoritmos. La transparencia en el uso de los datos y el listado de materiales empleados deben ser requisitos mínimos para las compañías.
El científico también aborda los riesgos de desinformación, sesgos y discurso de odio amplificados por la IA generativa. A medida que crecen las capacidades de crear textos, imágenes y vídeos falsos, la frontera entre realidad y manipulación se difumina, amenazando la cohesión social y la confianza en los hechos compartidos.
Lappin advierte que la autorregulación empresarial ha fracasado a la hora de controlar estos peligros. Propone políticas públicas que combinen libertad de expresión con protección ante daños, además de estrategias activas para combatir la desinformación y la discriminación algorítmica en ámbitos como la salud, la educación o las finanzas.
Finalmente, destaca la necesidad de anticipar el desplazamiento laboral causado por la automatización. La inversión pública en nuevas formas de empleo, servicios y formación será crucial para mitigar el impacto social y evitar el agravamiento de la desigualdad.
Lappin concluye que el futuro de la inteligencia artificial debe decidirse en el ámbito público y democrático, no solo por las dinámicas de mercado. Solo una acción política ambiciosa, coordinada y basada en el interés común podrá garantizar que la IA beneficie a la sociedad y no agrave los desafíos actuales.
Fuente: Taylor & Francis Group