La decisión supone un giro claro en el papel de la inteligencia artificial dentro de la mayor enciclopedia digital del mundo. A partir de ahora, los modelos de lenguaje como ChatGPT, Gemini o Claude no podrán utilizarse para generar contenido nuevo ni modificar artículos existentes, una práctica que había ido creciendo sin regulación formal.
El cambio no es absoluto. Wikipedia permite el uso de IA en tareas concretas como traducciones entre idiomas o sugerencias de corrección de estilo. La condición es que estas herramientas no introduzcan contenido propio ni alteren el significado de la información original. Incluso en estos casos, se recomienda precaución.
La justificación principal está en el conflicto entre cómo funcionan estos sistemas y los principios básicos de Wikipedia. La plataforma se basa en tres pilares: neutralidad, verificabilidad y uso de fuentes fiables. Los modelos de lenguaje, en cambio, generan texto a partir de patrones estadísticos aprendidos de grandes volúmenes de datos, no a partir de un proceso de verificación directa.
Ese funcionamiento implica un problema conocido como “alucinaciones”. La IA puede producir información incorrecta o inventar referencias sin que exista una base real. No se trata de errores puntuales, sino de una limitación estructural del sistema: genera lo que parece coherente, no necesariamente lo que es cierto.
Expertos que trabajan con Wikipedia señalan además otro efecto relevante: la tendencia a la verbosidad. Los textos generados por IA suelen ser más extensos de lo necesario y pueden incluir enlaces inexistentes o datos difíciles de verificar. Esto entra en conflicto directo con el modelo de edición humana de la enciclopedia.
A estos problemas se suman los sesgos. Los modelos de lenguaje no crean información desde cero, sino que reflejan los datos con los que han sido entrenados. Si esas fuentes ya contienen desequilibrios, la IA los amplifica. En el caso de Wikipedia en español, una parte significativa de los editores proviene de España, lo que influye en el tipo de contenido disponible.
El riesgo no es solo la calidad de un artículo individual, sino el funcionamiento del ecosistema completo. Los modelos de IA utilizan Wikipedia como una de sus principales fuentes. Si la enciclopedia empezara a incorporar contenido generado por IA, se produciría un ciclo cerrado donde la información se recicla sin añadir conocimiento nuevo.
Desde el punto de vista operativo, la medida introduce un desafío adicional: detectar el uso de IA. Wikipedia reconoce que no es suficiente analizar el estilo de escritura, ya que algunos editores humanos pueden producir textos similares. La evaluación deberá centrarse en si el contenido cumple las políticas y si está correctamente respaldado.
El cambio de política no surge de una decisión unilateral, sino de un proceso votado por las comunidades que gestionan la enciclopedia. También sigue la línea marcada por su fundador, que ya había señalado que estos sistemas no están preparados para asumir tareas de redacción en este entorno.
Lo que está en juego va más allá de una herramienta concreta. Wikipedia actúa como uno de los principales filtros de conocimiento en internet, y su decisión refleja una tensión creciente entre automatización y fiabilidad. La IA puede acelerar la producción de contenido, pero no garantiza su calidad.
El resultado es un posicionamiento claro: en un entorno donde la generación automática de texto es cada vez más accesible, Wikipedia apuesta por mantener el control humano sobre lo que se publica. La medida no detiene el avance de la IA, pero sí define un límite en uno de los espacios clave donde se construye y valida el conocimiento digital.