Hace ya más de 20 años que Roy Tennant publicó un artículo que se hizo muy famoso en el mundo bibliotecario, tanto por el contenido como por el título. MARC must die se popularizó rápidamente en el mundo bibliotecario y, con el paso del tiempo, se cambió el tiempo verbal hasta llegar a decir que el formato MARC había muerto. Aunque el propio Tennant explicó años más tarde que se le citó mal y que esa no era su intención, lo cierto es que en el cerebro colectivo perduró la idea que más se adaptaba a nuestros deseos: el fallecimiento de ese formato tan engorroso.
Estas semanas me ha venido a la mente ese artículo porque he vuelto a hacer la pregunta que hago a mis alumnos todos los años en mis asignaturas: ¿has usado/consultado algún sitio web hoy? Mis alumnos están dentro del grupo de edad de 18-25 años (unas veces la pregunto a los de primero, otras a los de cuarto, y así voy viendo la evolución de las respuestas) y la contestación mayoritaria ha sido que no. Algo impensable hace años, cuando la web se usaba para todo: diversión, trabajo, gestiones burocráticas, contactar con otras personas.
Hablando con ellos, tratando de hacer un primer análisis simplista, le echamos la culpa a lo evidente: las redes sociales y la inteligencia artificial. Pero llevo días analizando el fututo de la web y, la verdad, es que no me parece nada halagüeño. Aunque ahora mismo no parezca que está muerta, sí tengo la certeza de que está herida. Con cierta gravedad. Y convertir esto en un hecho luctuoso tiene varios culpables. Muchos, la verdad:
Causantes principales
Sin ánimo de ponerlos por orden, ni con la idea de especificar cuál ha tenido más parte de culpa, como si fuera una pelea entre niños, lo cierto es que aquí se podría aplicar perfectamente un refrán muy español: entre todos lo mataron y él sólo se murió. ¿Cuáles son esos culpables? Pues muchos:
- Los bots y el tráfico automatizado. El tráfico generado por bots ha alcanzado en este último año niveles sorprendentes. El informe de Imperva titulado 2025 Bad bot report indica que el tráfico generado por bots alcanzó el 51% del total de actividad de la web, superando por primera vez el tráfico humano (Imperva, 2025).
La concentración de bots de plataformas específicas (en concreto los usados por redes sociales) es especialmente llamativa (Reporterzy, 2025):
-
- El 64% de cuentas de X son de bots.
- Entre el 10 y el 15% de las cuentas de Instagram son gestionadas por bots directamente.
- En TikTok se han eliminado, sólo en los primeros cuatro meses de 2024, más de 170 millones de cuentas falsas gestionadas por bots.
Pero si ya es preocupante el “espacio “ que ocupa el bot -que no ocupa el humano-, no menos preocupante es el “bucle de retroalimentación” generado por las interactuaciones de bots con otros bots, creando una ilusión de autenticidad que erosiona la confianza de los humanos y les genera cansancio.
- Las redes sociales. En general, es el método más usado por la juventud para todo: estar al día, informarse, entretenerse, comunicarse entre ellos. Justo lo que se hacía antes en la web. Hay numerosos estudios (de Reuters, La UE, IAB Spain) que demuestran que personas dentro de determinados rangos de edad no usan ningún buscador (ni siquiera Google) para buscar información. Van directamente a TikTok, Instagram… ¿El motivo? pues son varios: es más rápido, es más ameno, es mejor ver un vídeo breve donde te expliquen en “tu idioma” lo que necesitas saber que leer una página con un montón de texto y tener que localizar lo que quieres, está más conectado con su forma de ver el mundo, etc.
Si bien es cierto que el enfoque humano de las redes sociales, y su tendencia de uso, es un factor determinante, no es el único. No se suele hablar demasiado de los algoritmos y su priorización. Bueno, sí se habla del algoritmo, pero no del enfoque que yo le quiero dar ahora. Desde 2018 las redes sociales priorizan métricas de engagement (los “me gusta”, los comentarios, compartir contenido…) por encima de la autenticidad y la relevancia del contenido. Al algoritmo no le importa si el contenido es de calidad, auténtico y transmite confianza. Lo que le importa es que tenga muchos likes. Este modelo incentiva tres cosas que en el entorno de la web no se dan, porque caen por su propio peso y la gente las detecta y huye de ellas:
-
- Contenido sensacionalista: se favorecen las emociones extremas sobre la información equilibrada y contrastada. Porque da más likes.
- Efecto “winner take all” (Winning, 2025), es decir, que determinados creadores que han logrado cierto estatus son los que dominan el feed de recomendaciones aplastando otras opciones (incluso aunque sea con contenido similar).
- Cámaras de eco amplificadas: se refuerzan las preferencias en vez de ofrecer perspectivas diversas.
En la actualidad hay una saturación de contenido en determinados nichos, ya que hay más oferta que capacidad de consumo, lo que provoca que sea imposible descubrir cosas nuevas de forma natural. Tal y como defienden algunos autores (Winning, 2025), el caso de TikTok es paradigmático: el éxito requiere planificación estratégica de tendencias, participación en modas virales, inversión en publicidad… lo que implica que es ahora sea más difícil destacar con contenido diferente, por muy bueno que sea.
- Resúmenes generados por IA. Parece que es lo que ha hecho saltar la chispa y que cada vez más gente se de cuenta del impacto que tiene el uso de la IA en el futuro de la web. Pero vamos a empezar a apuntar culpables desde el principio. Si la gente no siente necesidad de entrar en una web es porque, entre otras cosas, Google proporciona respuestas muy procesadas a las preguntas que se hacen a su buscador. Desde que desplegó, en 2024, las Ai Overviews se han producido datos alarmantes, tal y como demuestra la investigación del Pew Research Center (2025):
- Los usuarios que obtienen un resumen de Ai Overviews después de hacer una búsqueda sólo hacen clic en un enlace externo el 8% de las ocasiones (Mashable, 2025).
- El 26% de usuarios terminan su sesión en una Ai Overview.
- Sólo el 1% de los usuarios hace click en enlaces citados dentro del resumen de IA.
Una búsqueda “zero click” es aquella en la que el usuario obtiene la respuesta sin tener visitar ningún sitio web. Pues en la actualidad el 60% de búsquedas son “zero click”. Esto ha generado una caída de tráfico orgánico (es decir, natural) que oscila entre el 15 y el 64% (Forbes, 2025). Opino que es una horquilla muy grande que es casi lo mismo que decir entre cero y todo. Pero no creo que sea necesario ir a estudios de eruditos. Piensa en lo que haces tú: después de hacer una búsqueda en Google o en cualquier modelo de IA ¿te quedas con la respuesta y sigues con lo tuyo o vas a una web a profundizar?
Los resúmenes de IA emplean el contenido de los sitios web sin compensarles de ninguna forma. Antiguamente se hacía por medio de publicidad. Ya ni eso. ¿Y qué se ha hecho para luchar contra esto? Pues los datos del informe Consent in Crisis muestran que, entre 2023 y 2024, entre el 28 y el 45% de sitios web con contenido de peso (periódicos, medios de comunicación, empresas de servicios…) restringieron el acceso a los bots de IA para que no indizaran su contenido. Parece que la única solución, hoy en día, está en prohibir.
- Generación masiva de contenido de IA. Vale, pues si no me dejas entrar en tu sitio para coger tu contenido, me lo invento. O algo parecido es lo que está pasando. En realidad el problema es mucho mayor: resulta sumamente fácil rellenar contenido de forma automática. Parece que prima la cantidad por encima de la calidad. Todos podemos ver foros de discusión que antes tenían contenido de calidad y ahora lo tienen artificial (no daré nombre para no herir); o sitios web que tienen contenido que únicamente existe para acaparar tráfico, no valor; o comentarios en redes sociales creados por modelos de LLM para manipular métricas (cuando no desinformación).
Y dado que esto es la pescadilla que se muerde la cola, como los modelos de IA se entrenan con datos de la web, a medida que el contenido de la web está generado por IA, cada vez más se entrenan con contenido contaminado. En algún sitio leí que eso se llama “alucinación digital colectiva”. ¿El efecto? pues que no merece la pena meterse en una web que tenga contenido de ese tipo. Y como no puedes saber si tiene ese tipo de contenido hasta que no te metes, pues directamente no lo haces y prejuzgas.
- El PC también se está muriendo. Y ahora seguro que piensas que tú lo sigues usando. Pues déjame decirte que la tendencia es evidente. Desde que en 2015 los dispositivos móviles superaran al PC como medio para conectarse a Internet hasta la fecha, la diferencia entre ambos no ha ido más que en aumento. Poco a poco, pero aumentando. De hecho, según la AIMC, prácticamente todo el mundo en España usa el móvil para acceder a Internet y cada vez menos gente el PC (en su combinación sobremesa + portátil).

No creo que el PC vaya a morir nunca, por muchos motivos que harían interminable esta entrada, pero es cierto que esta tendencia denota varias cosas. La que más nos afecta ahora mismo al contenido de este post: pues que un sitio web no está pensado para ser visualizado correctamente desde un móvil. Por mucho tema responsive o adaptative que pongas, por mucha adecuación del contenido que hagas, cualquier web del mundo se consulta de forma más ágil, cómoda y comprensible en un monitor que en un móvil. Si la gente ha optado por cambiar móvil por PC para acceder a la información por el camino se ha quedado la web de manera natural. No hay Reddit de la vida que pueda competir con un buen pulgar pasando reels en cualquier red social de mundo. Es imposible. Y otro dato: los que usamos PC nos hacemos cada vez más viejos, mientas que los que usan el pulgar nos van sustituyendo en todos los ordenes de la vida. Es la selección natural de las especies.
- Descomposición de enlaces y pérdida de contenido histórico. El link rot, o descomposición de enlaces, es como se denomina al hecho de que los enlaces de una página web dejen de funcionar porque los recursos a los que apuntan desaparecen, cambian de ubicación si la redirección adecuada o el dominio expira. Es decir, que un enlace roto es una manifestación concreta de ese hecho y el link rot es el fenómeno en general. Dicho en números:
- Ahrefs (2024) documentó que el 66.5% de enlaces a sitios web se han vuelto inactivos desde 2013.
- Pew Research Center (2024) encontró que 38% de páginas web disponibles en 2013 ya no son accesibles.
- BBC (2024) publicó un informe en el que detallaba que el 25% de páginas web publicadas entre 2013-2023 han desaparecido.
A medida que más enlaces se rompen se pierde el acceso a contenidos históricos y relevantes, comprometiendo la fiabilidad y utilización de la web como fuente de información. ¿Quién usaría una enciclopedia a la que le faltan páginas? Pues con esto sucede igual. El pinchar en un enlace que había generado expectativas, porque pensabas que te llevaba al documento que necesitas y que te solucionaría un problema, y que luego no lleva a ningún sitio porque el enlace está roto genera frustración en los usuarios y, con el tiempo, un pensamiento de evidente falta de utilidad de la web.
- Jardines amurallados. El concepto, que fue acuñado por John Malone en la década de los 90 del siglo pasado, se emplea para describir describir entornos digitales cerrados y controlados que limitan la libertad de acceso a la información exterior. Es decir, una forma de sistema propietario pero aplicado a un ecosistema completo. ¿Ejemplos de esto? Alphabet (Google) integra búsqueda, navegador, correo electrónico, vídeo y un sin fin de aplicaciones en su ecosistema para capturar la mayor cantidad posible de tráfico y publicidad. Amazon aprovecha los datos de compras generadas en su sitio para ofrecer publicidad muy segmentada y controlada dentro de su ecosistema cerrado sin compartir información con anunciantes externos. Meta integra y cruza datos de usuarios de Facebook, Instagram y Whatsapp con la idea de obtener métricas de comportamiento que usa para sus campañas internas. Todas estas empresas se caracterizan por:
- Control absoluto de las apps que pueden integrarse y cuáles están permitidas.
- Los datos están confinados y controlados por las empresas.
- La arquitectura es opaca, basada en sistemas propietarios.
Todo esto genera una fragmentación del ecosistema en la web, es decir, que logran aislar a los usuarios dentro de sus plataformas, reduciendo la interconexión con la web abierta y erosionando los principios de web abierta.
- Cambio en el modelo publicitario. Hasta hace unos años la publicidad en la web se basaba en los intercambios abiertos. Se trata de mercados digitales públicos y transparentes donde los editores de sitios web o apps ofrecen sus espacios para anuncios a través de subastas en tiempo real, accesibles a cualquier anunciante, agencia o red publicitaria sin restricciones. En definitiva: es un mecanismo que promueve la web abierta, ya que facilitan el flujo de tráfico y publicidad y ayudan a mantener viva la diversidad de contenidos. Sin embargo, en los últimos años este sistema se ha visto claramente afectado por tres movimientos clave:
- Los navegadores incorporan bloqueo de cookies de terceros desde, aproximadamente y de forma generalizada, el 2020. Esto limita el rastreo esencial para las pujas en tiempo real, ya que impide la identificación persistente de usuarios a través de dominios externos, rompiendo la cadena de datos cross-site que alimenta la segmentación precisa y la atribución de conversiones en RTB (puja en tiempo real).
- Las normas sobre privacidad, como el GDPR europeo que se planteó como la salvación de nuestros datos ante las grandes empresas, han complicado mucho el funcionamiento de los intercambios abiertos. Estas leyes exigen el que usuario de su consentimiento explícito antes de usar datos personales y cookies de terceros, lo que ha obligado a las plataformas publicitarias a replantearse cómo operan. Como resultado, muchas han tenido que limitar el acceso a información sensible para mantenerse dentro de la ley, lo cual ha reducido la capacidad de segmentar audiencias con precisión y personalizar las campañas publicitarias de manera efectiva.
- Aproximadamente el 60% del gasto publicitario digital ha migrado hacia ecosistemas cerrados (jardines amurallados). Es más, los grandes anunciantes obligan al uso de plataformas cerradas gestionadas con métricas opacas y no interoperables.
Todo esto repercute directa y negativamente en los sitios web pequeños, que no pueden gestionar su publicidad libremente, limitándoles el acceso a unos recursos económicos que son fundamentales para su funcionamiento y reduciendo la esperanza de contar con sitios que tengan contenido que se separe del decidido por las grandes empresas.
Podríamos considerar todos estos factores como endógenos, ya que se derivan del comportamiento interno de la plataforma, la web. Con el paso del tiempo, y a causa de un sistema descontrolado donde es el mercado el que manda, todos estos elementos se han ido desarrollando libremente hasta llevarnos a esta situación. Pero también hay otros elementos secundarios, emergentes, que a modo de factor exógeno están poniendo su granito de arena para que la web se convierta en lo que tenemos ahora:
- Manipulación política y desinformación. Cada vez es más común encontrar redes de bots que difunden información falsa de manera masiva, especialmente con objetivos políticos. Lo preocupante es que estos bots, potenciados por inteligencia artificial basada en modelos de LLM, son cada vez más convincentes y difíciles de detectar. Pueden crear deepfakes realistas, inventar historias creíbles y coordinar campañas de desinformación a gran escala. Lo más alarmante es la velocidad: estas operaciones se pueden poner en marcha en cuestión de horas y propagarse viralmente por todo el mundo antes de que nadie pueda reaccionar.
- Fragmentación de las comunidades online. Antes, las comunidades online solían concentrarse en las grandes plataformas porque allí estaban los usuarios. Pero ahora muchas personas, cansadas de la falta de autenticidad y la presencia masiva de bots, están migrando hacia espacios más pequeños y privados como servidores de Discord, grupos de Telegram o foros especializados. Buscan lugares donde puedan estar seguros de que están interactuando con personas reales. El resultado es una Internet cada vez más fragmentada, dividida en pequeñas «islas» aisladas entre sí. Y esto afecta directamente a la web.
- El cierre de sitios web y la pérdida de contenido valioso. Muchos sitios web no desaparecen por falta de actividad, sino por agotamiento de sus administradores (burnout), decisiones empresariales (como cuando fondos de inversión compran y liquidan activos digitales) o simplemente por cambios tecnológicos que los vuelven obsoletos. Aunque organizaciones como Internet Archive intentan preservar este contenido, operan con recursos muy limitados. El resultado es que gran cantidad de información valiosa se pierde para siempre sin posibilidad de recuperación.
El futuro de la web
Las personas valientes que hayan leído hasta aquí pensarán que el panorama es bastante desolador y que se me ha ido la pinza. Y a lo mejor estoy algo pesimista hoy, pero lo cierto es que estas cosas están pasando a nuestro alrededor, desde hace mucho tiempo, y están modificando nuestra forma de trabajar en la web sin que nos demos cuenta. Está siendo todo muy natural. El cambio ha sido lento, minucioso, como si alguien hubiera hecho un diseño de este plan a largo plazo y tuviera muy claro cómo iba a ser cada paso del proceso hasta llegar al final esperado. No es me que caracterice yo por ser conspiranoico. Tranquilos, no me he hecho terraplanista.
Pero hay varios hechos que son claros y que muestran una tendencia hacia una web diferente:
- A este ritmo, el tráfico de bots alcanzará el 60-70% de la actividad de la red total en un par de años. Y posiblemente vaya a más si, poco parece, la tendencia de la agentificación madure y se imponga como modelo de trabajo.
- La posición de dominio de los ecosistemas cerrados (Meta, Google, Amazon, Apple…) irá en aumento. Si no lo remedia una política internacional antimonopolio más estricta lo normal es que cada vez más usuarios pasen más tiempo en ella y haya menos gente en la web abierta, degradada con poca financiación (porque tienen poca publicidad) y menos tráfico.
- Si eso pasa, siempre está la Academia para salvar el patrimonio. O los Estados. No es descabellado pensar que proyectos como Internet Archive se conviertan en repositorios públicos que tengan como finalidad última conservar el patrimonio digital de un país (a modo de Biblioteca Nacional, pero para lo electrónico). De esa manera, la web abierta se convertiría en un espacio para investigadores, documentalistas, archiveros y demás fauna rara a la que le preocupa el legado más que la cuenta de resultados.
- Si eso sucede, el concepto de web desaparecería tal y como lo conocemos hoy ¿hablamos de 10-15 años?
En un escenario ideal —y asumiendo que alguien reaccionara a tiempo— sería inevitable que los gobiernos intervinieran para evitar el desastre. Y antes de que nadie se alarme: no estoy proponiendo nada radical, simplemente siendo realista.
Pensémoslo: ¿Cómo se podría garantizar de otra forma que los creadores de contenido reciban una compensación justa cuando la IA utilice su trabajo? ¿Quién más, aparte de organismos reguladores internacionales, tendría el poder para obligar a las grandes tecnológicas a hacer sus datos interoperables, como ya ocurre con las telecomunicaciones? ¿De qué otra manera se establecerían estándares claros para identificar qué contenido ha sido generado por IA? Y si todo lo demás falla, ¿quién podría financiar y mantener una infraestructura de internet abierta como si fuera un servicio público esencial, como las carreteras o el agua potable?
Hay una teoría que defiende la Web3, la descentralizada, como el futuro más viable de la web. Su propuesta es sencilla (pero muy difícil de explicar a nivel técnico): usar tecnologías descentralizadas como el blockchain para que no dependamos de grandes servidores controlados por pocas empresas. La idea es que cada usuario tenga un control real de sus propios datos e identidad digital. Pero, siendo realistas, en 2025 la Web3 está en pañales. Ha habido avances en áreas como las finanzas y la gente cada vez usa más wallets de criptos, cierto. Pero la tecnología sigue siendo muy complicada de usar para un usuario medio (que no es ni el 70% del usuario normal de la web). Así que me temo que la web3 no va a revolucionar ni Internet ni la web de la noche a la mañana. Puede ser un importante contrapeso frente al poder de las grandes corporaciones; puede ofrecer nuevas formas de interactuar, de poseer contenido y tomar decisiones, pero no la veo como la solución definitiva a un problema tan estructural como el que tenemos.
Entonces, ¿se muere o no?
Pues, aunque parezca una paradoja (bueno, lo es), creo que la afirmación de “la web se muere” (ojo, la web, no Internet, que a estas alturas ya deberíais saber que no es lo mismo), es verdadera, incompleta y prevenible.
Es una afirmación verdadera porque la web abierta, la autónoma, descentralizada y libre está siendo claramente reemplazada por ecosistemas cerrados controlados por corporaciones. La autenticidad humana está siendo sustituida por automatización, creación artificial de contenido y navegación de bots. Esto es un dato, no una opinión. Y eso está provocando la muerte natural de la web tal y como la conocíamos.
Es una afirmación incompleta, porque la web persiste. La seguimos viendo todos los días. Nos seguimos conectando para consultar información, pagar facturas, ver los puntos de la DGT o validad el borrador de Hacienda. Pero cada vez más estamos dentro de una infraestructura tecnológica más restrictiva, monetizada y controlada.
Y, por último, es prevenible. Ya que tengo la esperanza de que a alguien le de por realizar una intervención regulatoria, cultural y tecnológica de forma deliberada y antes de que sea demasiado tarde. De no ser así, si continuamos dejando que el mercado siga determinando el futuro de la web, el final que le espera es convertirse en el nuevo CD-ROM
Y a todo esto, el Consorcio dónde está?
Referencias
American Chase (2025). The future of web development: What’s in 2025 and beyond. Web Development Trends. Recuperado de https://americanchase.com/future-of-web-development/
Ahrefs (2024, 1 de febrero). Link decay: Analysis shows 66.5% of links are dead. Recuperado de https://ahrefs.com/blog/link-rot-study/
BBC (2024, 16 de septiembre). We’re losing our digital history. Can the Internet Archive save the echoes of the web? BBC Future. Recuperado de https://www.bbc.com/future/article/20240912-the-archivists-battling-to-save-the-internet
Cornell, S., & Rozova, A. (2024). The dead internet theory: A survey on artificial interactions and the future of social media. arXiv preprint arXiv:2502.00007.
DeCort, W. (2024). Consent in crisis: The rapid decline of the AI data commons. arXiv preprint arXiv:2407.14933.
Express VPN. (2025, 26 de noviembre). What is a walled garden in internet privacy? Recuperado de https://www.expressvpn.com/blog/walled-garden/
Forbes (2025, 13 de octubre). The ‘dead internet theory’—noted by Altman and Ohanian—what is it and how is AI making it possible. Recuperado de https://www.forbes.com/sites/conormurray/2025/10/13/
Forbes (2025, 13 de abril). The 60% problem — How AI search is draining your traffic. Recuperado de https://www.forbes.com/sites/torconstantino/2025/04/14/
Galaxy (2025, 29 de septiembre). Dead internet theory: How AI broke online truth. Galaxy Insights. Recuperado de https://www.galaxy.com/insights/perspectives/dead-internet-theory-collapse-online-truth
Imperva (2025). 2025 Bad bot report: Insights into bad bot activity across industries. Recuperado de https://www.imperva.com/blog/bad-bot-report/
Mashable (2025, 24 de julio). Another study finds AI Overviews is impacting link clicks on search. Recuperado de https://mashable.com/article/google-ai-overviews-impacting-link-clicks-pew-study
Ohanian, A. (2025, octubre). Alexis Ohanian says ‘much of the internet is now dead’. Business Insider. Recuperado de https://www.businessinsider.com/alexis-ohanian-much-of-the-internet-is-now-dead-2025-10
Pew Research Center (2025). Study on AI Overviews impact on search behavior. Digital Trends Research. Citado en múltiples análisis de impacto de búsqueda IA.
Popular Mechanics (2025, 8 de septiembre). The internet will be more dead than alive within 3 years, trends suggest. Recuperado de https://www.popularmechanics.com/science/a65997294/dead-internet-explained/
Postdigitalist (2025, 20 de agosto). A growth formula for the walled garden internet. Recuperado de https://www.postdigitalist.xyz/blog/growth-walled-garden-internet
Reddit (2025, 13 de octubre). YouTube’s entire creator economy is about to collapse (AI discussion). r/content_marketing. Recuperado de https://www.reddit.com/r/content_marketing/comments/1o5jzcs/
Reporterzy (2025, 21 de septiembre). Dead internet theory is a fact. Bots now outnumber people online. Recuperado de https://reporterzy.info/en/5234,dead-internet-theory-is-a-fact-bots-now-outnumber-people-online
The Verge (2024, 18 de diciembre). What happens when the internet disappears? Digital Culture. Recuperado de https://www.theverge.com/24321569/
Vofox Solutions (2025, 30 de noviembre). 2025 trends & predictions for Web3. Recuperado de https://vofoxsolutions.com/2025-trends-and-predictions-for-web3
Winning WP. (2025, 15 de febrero). Why content discovery is dying and what it means for content creators, big tech and the future. Content Marketing Analysis. Recuperado de https://winningwp.com/the-saturation-problem-why-discovery-is-dying-and-what-it-means-for-content-creators-big-tech-and-the-futu
Deja una respuesta