Si robots.txt le dice a los crawlers dónde pueden ir, y sitemap.xml les muestra qué páginas existen, el llms.txt hace algo diferente: le dice a los agentes de inteligencia artificial qué contenido de tu sitio vale la pena leer y citar.
Es un archivo nuevo, todavía sin estandarización oficial, pero con adopción creciente en la comunidad SEO y técnica. Y como casi todo en la intersección entre SEO e IA en 2026, genera debate: hay quienes lo consideran el próximo gran estándar de visibilidad en IA y quienes lo ven como una moda sin respaldo real.
Por qué los LLMs no leen tu sitio como Google
Para entender para qué sirve el llms.txt, primero hay que entender cómo los modelos de lenguaje acceden al contenido web — y en qué se diferencia de cómo lo hace Googlebot.
Google rastrea e indexa tu sitio completo, página por página, construyendo una representación del sitio que persiste en el tiempo. Un agente de IA como ChatGPT, Perplexity o Gemini funciona diferente: cuando necesita información de la web, hace una búsqueda en tiempo real y carga unas pocas páginas en su contexto. No indexa nada — recupera y procesa sobre la marcha.
El problema es que cuando un agente carga una página HTML típica, recibe una mezcla de contenido real con menús de navegación, banners de cookies, scripts de publicidad, código CSS y JavaScript. Todo ese “ruido” compite con el contenido que realmente importa dentro del contexto limitado del modelo. Si tus páginas más valiosas no son fácilmente parseables, el agente puede ignorarlas o procesarlas mal.
Qué es exactamente el llms.txt
El llms.txt es un archivo de texto plano en formato Markdown, ubicado en la raíz del sitio en /llms.txt, que proporciona un mapa estructurado de las páginas más importantes del sitio junto con descripciones contextuales de cada una.
A diferencia del sitemap.xml que lista todas las URLs para que los crawlers las descubran, el llms.txt es una lista curada y jerarquizada de los recursos más relevantes, con descripciones que ayudan al modelo a entender para qué sirve cada página antes de acceder a ella. El formato es simple:
# Nombre del sitio
> Descripción breve de qué hace el sitio
## Sección principal
- [Título de la página](https://dominio.com/pagina/): descripción de qué contiene
## Documentación
- [Guía de inicio](https://dominio.com/guia/): pasos para comenzar
La propuesta original fue publicada por Jeremy Howard, cofundador de fast.ai, como un estándar comunitario — no es un protocolo oficial respaldado por ningún organismo de estandarización como W3C o IETF.
Quién lo está adoptando y quién no
La adopción es desigual pero creciente. Al cierre del primer trimestre de 2026, entre el 5% y el 15% de los sitios web tienen implementado un llms.txt — lo que significa que la gran mayoría todavía no lo tiene.
En el lado de los que lo adoptaron están plataformas técnicas como Vercel y Hugging Face, que lo usan para que los asistentes de código como Cursor o GitHub Copilot lean su documentación con mayor precisión. Yoast SEO ya lo genera automáticamente desde sus ajustes. Rank Math también tiene soporte nativo.
En el lado escéptico está Google: John Mueller confirmó públicamente que el equipo de Google Search no usa ni recomienda el llms.txt. Cuando apareció el archivo en algunos sitios de Google, fue porque su CMS lo generó automáticamente — no porque Search lo lea. OpenAI, Anthropic, Meta y Mistral tampoco han confirmado públicamente que sus sistemas de producción lo usen de forma sistemática.
El caso a favor: para qué sí sirve
Pese al escepticismo de Google, hay casos donde el llms.txt tiene valor real y demostrable:
- Herramientas de código con IA: Cursor, GitHub Copilot y similares recuperan documentación técnica en tiempo real. Los sitios con llms.txt bien implementado reportan que estos agentes acceden a sus páginas con mayor precisión y generan menos respuestas incorrectas sobre sus productos.
- Sitios con mucho contenido y navegación compleja: medios digitales, universidades, plataformas SaaS — donde el contenido más valioso está enterrado en estructuras de navegación complejas que un agente puede no explorar completamente.
- Control editorial sobre qué páginas se citan: el llms.txt permite señalarle al modelo cuáles son tus páginas canónicas — las que contienen la versión correcta y actualizada de la información sobre tu negocio o producto.
El caso en contra: por qué no es urgente
Los argumentos para no priorizarlo son igualmente válidos. El llms.txt no tiene mecanismo de enforcement: un agente de IA puede ignorarlo completamente sin consecuencias. No es una señal de ranking para Google. Y los principales actores — OpenAI, Google, Anthropic — no han confirmado que sus sistemas de producción lo lean de forma consistente.
Los estudios que monitorearon logs de servidor después de implementarlo reportaron resultados mixtos: algunos vieron tráfico de GPTBot y ClaudeBot al archivo, otros no encontraron ninguna visita en meses. La inconsistencia sugiere que no hay un comportamiento estandarizado en los sistemas actuales.
La conclusión más honesta es que el llms.txt es un apuesta de bajo costo y bajo riesgo: implementarlo lleva menos de 30 minutos con Yoast o Rank Math, no perjudica nada, y si los agentes de IA eventualmente lo adoptan de forma masiva, ya estarás preparado. Pero no reemplaza el trabajo de fondo: schema markup bien implementado, contenido de calidad y buena estructura técnica son lo que realmente determina si los LLMs te citan.
Cómo implementarlo en WordPress
Si tenés Yoast SEO instalado, la forma más sencilla es habilitarlo desde SEO → Configuración general → Características del sitio → llms.txt. Yoast genera automáticamente el archivo con tus últimas entradas y páginas más importantes, filtradas por indexabilidad.
Si querés un llms.txt personalizado, podés crearlo manualmente en la raíz del sitio con las páginas que más te interesa que los agentes encuentren. Para abigdoor, por ejemplo, tendría sentido incluir las páginas de servicios, la landing de medios, los casos de éxito y las guías más completas del blog.
Para entender el contexto más amplio de cómo los agentes de IA rastrean tu sitio y qué otras decisiones técnicas importan, podés ver nuestra guía sobre SEO técnico para agentes de IA en 2026.
