Jeremy Carrasco empezó a publicar en TikTok e Instagram hace apenas unos meses. Sin embargo, en ese tiempo logró sumar cientos de miles de seguidores hablando de un tema que casi nadie abordaba con claridad: cómo reconocer un video generado por inteligencia artificial y qué impacto real tiene esta tecnología en el trabajo de los creadores.
Durante años trabajó detrás de cámaras en producciones para otros influencers. Su salto a las redes no surgió por ambición personal, sino por una preocupación: la conversación pública sobre IA estaba siendo marcada por empresas tecnológicas y no por quienes viven del contenido. Su primera intención era enseñar a usar herramientas de IA de forma responsable, pero ese plan duró poco. Al observar la avalancha de clips sintéticos circulando por las plataformas, entendió que la urgencia estaba en lo básico: ayudar a la gente a identificar cuándo algo no es real.
En sus videos explica señales típicas: texturas que se mueven de forma extraña, miradas rígidas, objetos que aparecen y desaparecen, bocas que no sincronizan bien las palabras o carteles con texto sin sentido. Pequeños fallos que, en conjunto, revelan que el clip no proviene de una cámara, sino de un generador automático. Su mensaje central es simple: crear videos artificiales nunca ha sido tan fácil.
Esa facilidad ha cambiado las reglas del juego. Antes, producir contenido requería tiempo, equipo y creatividad. Ahora, herramientas gratuitas como Sora 2 permiten generar escenas completas en segundos, con música, voces y movimientos sin necesidad de grabar absolutamente nada. Y miles de cuentas ya publican así: volumen en lugar de esfuerzo. Más publicaciones, más oportunidades de lograr visualizaciones y, con ellas, ingresos.
Para muchos usuarios —especialmente en países donde una monetización modesta ya supone un alivio económico— este modelo es atractivo. Un clip de unos segundos puede no valer mucho, pero compilaciones virales de videos creados por IA pueden sumar millones de visitas. El incentivo existe y crece.
Pero el problema no se limita al exceso de contenido automático. También han surgido perfiles que utilizan IA para suplantar a personas reales: rostros de creadoras insertados en cuerpos generados, cuentas que venden productos usando identidades fabricadas o incluso imitaciones completas que se presentan como influencers reales. En algunos casos, la imagen de las creadoras ha terminado en plataformas de pago sin su consentimiento. Para Jeremy, este escenario es una señal clara de que el ecosistema se está volviendo más opaco y más peligroso.
El debate ético tampoco está resuelto. Aunque algunos intentan desarrollar modelos entrenados solo con material propio, la realidad es que los generadores más avanzados necesitan enormes cantidades de datos obtenidos de videos y fotos de millones de personas sin pedir permiso. Para Jeremy, este fundamento ya convierte al sistema en algo cuestionable, incluso antes de hablar del impacto en la economía de los influencers.
A todo esto se suma la actitud de las plataformas. TikTok, Instagram, Facebook y YouTube no solo permiten que los feeds se inunden de contenido generado por IA: también han empezado a construir sus propias herramientas de creación automática, enfocadas especialmente en publicidad. Si las marcas pueden generar anuncios completos en minutos sin contratar a nadie, el trabajo de los creadores —que dependen en gran medida de colaboraciones pagadas— se verá presionado desde dos direcciones: menos visibilidad y menos oportunidades comerciales.
Para algunos creadores, sumarse a la ola de la IA parece una salida lógica. Para Jeremy, es lo contrario. Considera que entrar en ese terreno solo acelera un sistema que termina perjudicando a quienes dependen de su creatividad y su imagen. El auge de los videos sintéticos, dice, amenaza con transformar de forma irreversible la economía que permitió a millones de personas vivir de su contenido.
Fuente: The Verge