Un director de Google Cloud publicó hoy un framework para repensar el SEO en la era de los agentes de inteligencia artificial, introduciendo una nueva forma de entender cómo las máquinas consumen contenido — y qué implica eso para los sitios que quieren ser citados en respuestas generativas.
El mensaje central es claro: el SEO tradicional optimiza para que un humano encuentre y elija tu página. El SEO para agentes de IA optimiza para que una máquina pueda leer, entender, extraer y reutilizar tu contenido dentro de una respuesta generada. Son objetivos relacionados pero no idénticos.
Cómo los agentes de IA consumen contenido de forma diferente
El framework parte de una distinción fundamental entre cómo Googlebot indexa y cómo un agente de IA consume contenido en tiempo real:
- Googlebot rastrea e indexa para referencia futura. Construye una representación del sitio que persiste en el tiempo y se actualiza periódicamente.
- Un agente de IA recupera contenido en el momento de generar una respuesta. Opera con un contexto limitado, necesita extraer información relevante rápidamente y descarta todo lo que no aporta valor directo a la consulta.
Un agente que llega a una página típica se encuentra con: menús de navegación, banners de cookies, scripts de publicidad, footer con links, código CSS y JavaScript. Todo ese ruido compite con el contenido real dentro de la ventana de contexto del modelo. Las páginas que le facilitan al agente encontrar y extraer la información relevante tienen ventaja directa sobre las que no.
Los tres niveles del framework
1. Accesibilidad para agentes
El primer nivel es que el agente pueda acceder al contenido. Esto implica decisiones en robots.txt sobre qué crawlers de IA están permitidos, velocidad de respuesta del servidor (los agentes abandonan páginas lentas más rápido que los humanos) y contenido crítico que no depende de JavaScript para renderizarse. El 46% de las visitas de agentes de IA comienzan en modo lectura — sin CSS ni scripts. Si tu información clave solo aparece después de ejecutar JavaScript, es invisible para esos agentes. Podés ver cómo gestionar esto en nuestra guía de SEO técnico para agentes de IA.
2. Extractabilidad del contenido
El segundo nivel es que el agente pueda extraer información útil una vez que accede. Los factores más relevantes:
- Estructura semántica clara: H1 único, jerarquía H2/H3 coherente, párrafos que responden preguntas directamente
- Respuesta al principio: el 44% de las citaciones de LLMs vienen del primer 30% del texto. Lo que no aparece pronto raramente aparece en una respuesta de IA
- Datos estructurados: schema markup que le dice al agente qué tipo de entidad es cada elemento — autor, fecha, organización, producto, servicio
- Formato de lista y tabla: más fácil de extraer que párrafos densos para información comparativa o enumerativa
3. Confiabilidad de la fuente
El tercer nivel es la confianza que el modelo asigna a tu fuente. Esto incluye señales que van más allá del sitio propio: menciones en fuentes externas confiables, consistencia de la marca en distintos canales, autoría experta identificable y frescura del contenido. Un sitio técnicamente impecable pero sin presencia en el ecosistema externo puede ser descartado frente a una fuente de menor calidad técnica pero con más corroboración externa.
La convergencia entre SEO tradicional y SEO para IA
Uno de los puntos más relevantes del framework es que las señales que premian el SEO tradicional y las que premian la visibilidad en IA se superponen en gran medida. Los sitios que rankean bien en Google tienen mayor probabilidad de ser citados por los LLMs — no porque los modelos copien a Google, sino porque comparten criterios de calidad y autoridad.
Esto tiene una consecuencia práctica importante: el trabajo de SEO bien hecho no queda obsoleto con la IA. Se vuelve más relevante. La diferencia está en agregar una capa de optimización específica para agentes — estructura de contenido extractable, schema actualizado, velocidad de respuesta — encima de una base de SEO sólida.
Para entender cómo se conecta esto con la capa de consenso que los LLMs usan para seleccionar fuentes, podés leer nuestra nota sobre por qué rankear primero ya no alcanza y qué es la capa de consenso.
