Tecnología
Publicado:

La IA invade Reddit: usuarios y moderadores denuncian que el sitio pierde su esencia

Moderadores y usuarios denuncian que Reddit se llena de textos generados con IA, provocando pérdida de autenticidad, más desinformación y un aumento del contenido difícil de moderar

5 min lectura
Logo de Reddit sobre un fondo naranja sólido
Imagen ilustrativa. Créditos: Iceebook

Reddit fue durante años un lugar donde la gente sentía que aún se hablaba entre humanos: historias personales, debates intensos, humor absurdo y miles de comunidades con dinámicas propias. Pero en los últimos meses, esa sensación se ha ido diluyendo. Moderadores y usuarios coinciden en que la inteligencia artificial se ha infiltrado en la plataforma de forma visible, afectando la autenticidad que definía al sitio.

Lo que antes eran relatos espontáneos ahora parecen versiones pulidas o repetidas de otras publicaciones. Y aunque no existe una herramienta infalible para demostrar si un mensaje está escrito por una IA, la duda constante ya está cambiando la forma de usar Reddit.

Los moderadores detectan patrones que no existían antes

Los equipos de moderación de subreddits enormes como r/AmItheAsshole están lidiando con un flujo creciente de publicaciones que resultan sospechosas. Algunos mensajes parecen plantillas recicladas: estructuras idénticas, conflictos calcados de hilos antiguos, descripciones demasiado ordenadas o una combinación extraña de gramática perfecta y cuentas nuevas con historiales descuidados.

Quienes moderan estos espacios llevan años leyendo miles de relatos diarios y reconocen cuando algo “no encaja”. No siempre pueden demostrarlo, pero sí ven patrones que antes no existían: textos excesivamente neutros, repeticiones innecesarias, diálogos que parecen inventados a última hora y detalles que se sienten despersonalizados.

Todo esto provoca que la revisión de contenido sea más lenta y más agotadora, porque ya no basta con detectar spam o violaciones evidentes; ahora deben evaluar si un post entero podría haber sido generado en segundos por un chatbot.

Usuarios frustrados: la experiencia deja de sentirse auténtica

Para muchos redditors, el mayor problema no es si el contenido es falso, sino la sensación constante de que podría serlo. En comunidades centradas en historias personales —como subreddits de relaciones, convivencia o dilemas familiares— cada vez más usuarios dudan de lo que leen.

Esa sospecha erosiona el atractivo principal de Reddit: la cercanía. Si los relatos parecen genéricos, si los conflictos suenan idénticos entre sí o si la narración es demasiado “perfecta”, la comunidad pierde su esencia. Varios usuarios admiten que ya no interactúan igual y que pasan menos tiempo en la plataforma porque la autenticidad está en cuestión.

Lo que antes era “un espacio humano” ahora parece, para muchos, un experimento interminable donde hay que adivinar qué es real y qué no.

La IA también amplifica el contenido tóxico y la desinformación

Los moderadores de subreddits grandes han detectado otro problema: la aparición de publicaciones que parecen diseñadas para provocar discusiones cargadas de odio o manipular la conversación pública. Algunos hilos repiten los mismos estereotipos, situaciones forzadas o mensajes cargados de sesgo, lo que sugiere que no buscan una discusión honesta, sino generar conflicto.

La IA facilita que este tipo de contenido se produzca a gran escala con muy poco esfuerzo. En subreddits políticos o de noticias ya se ha visto cómo estas tácticas pueden camuflar propaganda, desinformación o campañas organizadas que antes requerían cientos de cuentas manuales.

Para los moderadores, diferenciar entre un troll, un usuario aislado o una publicación automatizada se vuelve cada vez más complicado.

Las motivaciones económicas aceleran el problema

Parte del incremento de contenido cuestionable también se explica por el dinero. Reddit introdujo un sistema que permite ganar ingresos según el karma y las interacciones. Esto ha atraído a usuarios dispuestos a publicar historias exageradas o directamente inventadas para obtener más votos.

Además, algunas cuentas con mucho karma se venden por sumas considerables, y otras se usan para acceder a subreddits restringidos, incluidos espacios NSFW donde se promocionan enlaces externos. Para estas prácticas, la IA es una herramienta perfecta: rápida, barata y capaz de generar texto creíble en segundos.

Todo esto convierte a Reddit en un terreno fértil para quienes buscan explotar el sistema sin aportar contenido genuino.

Reddit intenta responder, pero el desafío crece más rápido que las soluciones

La plataforma asegura que está actuando. Afirma que prohibe contenido manipulado y comportamientos no auténticos, y que solo en la primera mitad de 2025 eliminó más de 40 millones de publicaciones sospechosas. Pero quienes moderan a diario sienten que el ritmo de aparición del contenido dudoso supera la capacidad de controlarlo.

El problema no es solo técnico: es cultural. La esencia de Reddit siempre fue la autenticidad, incluso en su caos. Si la confianza desaparece, la comunidad se fragmenta. Y aunque no todo el contenido es generado por IA, la sola posibilidad basta para cambiar cómo se lee, cómo se comenta y cómo se participa.

Reddit sigue siendo enorme y vibrante, pero también es evidente que se enfrenta a uno de sus mayores retos desde su creación. La pregunta es si la plataforma podrá adaptarse sin perder aquello que la hizo tan especial durante más de una década.

Preguntas frecuentes

Por qué usuarios y moderadores dicen que Reddit está perdiendo su esencia

Porque cada vez hay más publicaciones que parecen generadas por IA lo que reduce la autenticidad genera desconfianza y cambia la forma de participar en las comunidades

Qué señales detectan los moderadores para sospechar que un post está generado por IA

Textos muy pulidos o repetitivos estructuras iguales a hilos antiguos detalles poco personales cuentas nuevas y patrones que antes no aparecían en los subreddits grandes

Cómo afecta la IA al contenido tóxico y a la desinformación en Reddit

Permite producir grandes volúmenes de mensajes sesgados o provocadores que pueden camuflar propaganda manipular debates y dificultar que los moderadores distingan usuarios reales de actividad automatizada

Qué factores económicos están acelerando la publicación de contenido artificial

Los sistemas de monetización el valor de las cuentas con mucho karma y el uso de perfiles para acceder a subreddits restringidos incentivan el uso de IA para generar historias rápidas y rentables

Compartir artículo

Continúa informándote