Es cosa de entrar a un buscador y hacer una consulta. El resultado hoy es distinto al de hace un tiempo. Lo primero que vemos es a la IA generativa del motor de búsqueda entregar una respuesta que fue elaborada con información extraída de textos, sitios de noticias y más.

Solo luego de esa oferta, se despliegan links como era habitual hace algunos años. Ahí está el fondo de la disputa que enfrenta hoy a medios de comunicación, editoriales y autores con algunas de las Big Tech. Y es que la inteligencia artificial generativa abrió una disputa entre quienes producen contenido original y quienes lo usan como insumo para desarrollar productos tecnológicos.

El enfrentamiento ya no se limita a la pérdida de tráfico desde buscadores o redes sociales hacia los medios. El punto de fondo es otro: plataformas globales usan textos, noticias, imágenes, videos, libros y archivos periodísticos para entrenar modelos, generar respuestas automatizadas y construir nuevos negocios, sin que exista necesariamente autorización, pago o atribución suficiente para quienes financiaron y produjeron ese contenido. El fenómeno es global.

Demandas que finalmente piden regulación En Chile, el debate escaló en paralelo por distintas vías. Los canales asociados a la Asociación Nacional de Televisión (Anatel) demandaron a Google ante el Tribunal de Defensa de la Libre Competencia (TDLC), acusando abuso de posición dominante en mercados vinculados a los motores de búsqueda y la publicidad digital. La acción cuenta con respaldo de Canal 13, TVN, Mega, Chilevisión, TV+ y La Red, y se suma a demandas previas de Copesa, Radio Cooperativa y El Mostrador contra la tecnológica.

Pablo Vidal, presidente de Anatel, planteó el conflicto en términos directos: Google “captura el valor económico del periodismo que otros producen y financian”. Según el dirigente, cuando una plataforma responde al usuario a partir de contenidos elaborados por medios, el clic hacia la fuente original puede desaparecer. “Si las personas no le hacen click al link de referencia, al medio no le llegó ni un peso”, aseguró en entrevista con 24 horas.

La tesis de Anatel apunta a una asimetría estructural: los medios de comunicación asumen los costos de producir información —equipos periodísticos, reportería, edición, verificación, tecnología y archivo— mientras las plataformas digitales concentran buena parte de la captura publicitaria y, ahora, también pueden usar ese material para entregar respuestas generadas por inteligencia artificial. “El periodismo de calidad tiene un costo”, advirtió Vidal, vinculando el problema no solo con la viabilidad financiera de los medios, sino también con el pluralismo informativo y la democracia. La abogada Ximena Rojas Pacini —experta en competencia y mercados digitales— describe el cambio como un giro de fondo en el rol de las plataformas.

A su juicio, con la irrupción de la inteligencia artificial generativa, estas dejaron de operar solo como intermediarias entre usuarios y fuentes para transformarse en proveedoras directas de información. “Las plataformas están pasando de un rol de intermediario a un rol de proveedor directo de la información”, sostuvo en conversación con El Mostrador. Ese tránsito, advierte Rojas, tiene un efecto económico inmediato para los medios: el usuario puede obtener en la propia plataforma una síntesis de la información que antes habría ido a buscar al sitio que la produjo.

“Los lectores, los usuarios, no tienen ningún incentivo, todo lo contrario, tienen un desincentivo a hacer clic en la fuente de información”, explicó. El resultado, añadió, es una desintermediación entre los medios que generan contenido y las audiencias que lo consumen. El fenómeno no se agota en los buscadores.

Rojas advierte que las plataformas de búsqueda, video, streaming y redes sociales integradas con IA generativa pueden usar contenidos de medios para sintetizar y resumir información, entrenar grandes modelos de lenguaje y realizar “grounding”, es decir, recurrir a información nueva para generar respuestas actualizadas. En ese esquema, las plataformas satisfacen directamente la demanda del usuario usando contenido ajeno. En el frente judicial chileno, El Mostrador y Cooperativa presentaron en diciembre de 2024 demandas contra Google y Alphabet ante el TDLC por presuntos abusos en publicidad online y búsquedas online.

La acción busca que Google modifique conductas, adopte medidas de transparencia y compense correctamente a los medios por el uso de sus contenidos. Ximena Rojas, además, representa a Copesa en un procedimiento no contencioso que busca que el TDLC abra una vía regulatoria más amplia. Según explicó a este medio, el objetivo es que se determine un mecanismo de remuneración que deban pagar las plataformas digitales dominantes integradas con inteligencia artificial generativa a los medios de comunicación por el uso de sus contenidos.

La diferencia, subraya, es que no se trata solo de perseguir sanciones caso a caso, sino de establecer una regla prospectiva para todos los medios. “Estamos solicitando una regulación, una normativa para futuro y prospectiva que cubra a todos los medios, no solo a los que tienen espaldas para poder financiar un procedimiento ante el tribunal”, dijo la abogada. El caso internacional La preocupación en la industria de los medios en Chile se inserta en una disputa internacional más amplia.

En Estados Unidos, cinco grandes editoriales —entre ellas Hachette, Macmillan, McGraw Hill, Elsevier y Cengage— y el escritor Scott Turow demandaron a Meta y a Mark Zuckerberg por el uso de libros, artículos científicos y revistas pirateadas para entrenar el modelo de la gigante tecnológica. Se trata de Llama, otro modelo de IA generativa. “Me resulta angustiante e indignante que una de las corporaciones más ricas del mundo haya utilizado a sabiendas copias piratas de mis libros”, señaló Turow.

Meta, en tanto, rechazó las acusaciones y defendió que el entrenamiento de IA con material protegido puede estar cubierto por el uso legítimo. Informe canadiense sobre el uso de noticias en generación de contenidos La evidencia empírica también comienza a acumularse. El informe canadiense AI News Audit, elaborado por investigadores de McGill University, testeó ChatGPT, Gemini, Claude y Grok con 2.

267 historias periodísticas canadienses y 18. 134 consultas. El estudio concluyó que, cuando los modelos respondieron sobre eventos noticiosos presentes en sus datos de entrenamiento, no entregaron atribución de fuente en el 82% de los casos.

Con acceso web, además, las respuestas cubrieron suficiente contenido del reporteo original como para sustituir la visita a la fuente entre el 54% y el 81% de los casos, según el modelo consultado. (Si quieres revisar los informes, sigue el siguiente link: ai-news-audit_policy_2026 o ai-news-audit_technical_2026) El mismo reporte plantea que las compañías de IA interactúan con el periodismo en tres fases: ingestión, producción y distribución. Primero absorben contenidos como datos de entrenamiento; luego los sintetizan en productos que pueden reemplazar la lectura del artículo original; y finalmente distribuyen respuestas al usuario sin dirigirlo necesariamente a la fuente.

Para sus autores, no se trata del mismo problema que abrieron las redes sociales: aquí las empresas no solo agregan atención alrededor de noticias, sino que absorben la sustancia del periodismo y la entregan como producto propio. Rojas advierte que el efecto puede ir más allá de la afectación a los medios medios de comunicaicón. Si la inteligencia artificial se alimenta cada vez más de contenidos sintéticos generados por otros sistemas de IA, y menos de contenido humano original, la calidad de la información disponible también puede degradarse.

En sus palabras, se abre un riesgo de “canibalización de la IA”, donde los modelos terminan retroalimentándose con material de menor calidad. Es decir, asegura que, si las plataformas desplazan a los medios sin sustituir funciones como reportería, investigación, verificación, criterio editorial y responsabilidad institucional, no solo se afecta el financiamiento de la industria, sino también la calidad, diversidad y trazabilidad de la información que reciben los usuarios finales. Así, el conflicto que comenzó como una discusión por tráfico, publicidad digital y poder de mercado está evolucionando.

En definitiva, se plantea que si las Big Tech usan contenido de fuentes confiables, comprobables y que invirtieron para generarlo, y así entrenar modelos y generar nuevos productos comerciales, también deben reconocer, atribuir y remunerar a quienes lo hicieron posible.