agentsgeo.io

Implementación

Cómo aparecer en ChatGPT, Claude y Perplexity: la guía técnica

Tres caminos por los que un LLM cita una marca, schema esencial, llms.txt, patrones de contenido y cómo medir la mejora cada semana.

Publicado 29 de abril de 2026·11 min de lectura

Si los modelos de lenguaje no citan tu marca, no es porque no existas. Es porque no te están leyendo bien. Esta guía recorre los tres caminos por los que un LLM cita una marca, el schema mínimo que tu sitio necesita, cómo armar un llms.txt útil, y qué patrones de contenido aumentan la probabilidad de citación.

Los tres caminos por los que un LLM cita una marca

Antes de optimizar, tenés que entender por dónde te puede leer un modelo. Hay tres caminos y cada uno requiere palancas distintas.

1. Búsqueda web en tiempo real

Perplexity, ChatGPT con browsing, Claude con web search y Gemini con Search Grounding hacen una query a Google o Bing, leen las primeras URLs y arman la respuesta. Si tu sitio rankea bien para esa query, el modelo te lee. Acá importa el SEO clásico, los Core Web Vitals y la velocidad de respuesta del servidor.

2. Training data

Modelos como GPT, Claude o Gemini aprenden con datasets curados: Common Crawl, Wikipedia, GitHub, papers académicos, blogs editoriales. Si tu marca está representada ahí, el modelo te conoce de antemano. El ciclo de training es lento — entre 6 y 18 meses entre cut-offs — pero el efecto es duradero.

3. Tools y RAG empresarial

En implementaciones B2B, el modelo se conecta a una base de conocimiento controlada vía MCP (Model Context Protocol) o RAG. Acá no importa el SEO público — importa exponer tu documentación de forma consumible por un agente.

El schema mínimo que tu sitio necesita

Un LLM lee entidades. Si tu sitio no las declara explícitamente, el modelo tiene que inferirlas — y la inferencia falla más seguido de lo que pensás. Estas son las piezas que vale la pena tener bien:

Organization

Una sola declaración por sitio, en home y reutilizable por @id en otras páginas. Sirve para que el modelo sepa qué eres.

{
  "@context": "https://schema.org",
  "@type": "Organization",
  "@id": "https://tumarca.com/#organization",
  "name": "Tu Marca",
  "url": "https://tumarca.com",
  "logo": "https://tumarca.com/logo.png",
  "description": "Una frase clara de qué eres y a quién sirves.",
  "knowsAbout": ["categoría 1", "categoría 2", "categoría 3"],
  "sameAs": [
    "https://www.linkedin.com/company/tumarca",
    "https://github.com/tumarca",
    "https://en.wikipedia.org/wiki/Tu_Marca"
  ]
}

El campo sameAs es subestimado. Conecta tu sitio con otros nodos que el modelo ya conoce (Wikipedia, LinkedIn, GitHub) y refuerza la entidad.

Service

Si vendés servicios, declarálos con tipos canónicos. El modelo los lee cuando alguien pregunta “quién hace X”.

{
  "@context": "https://schema.org",
  "@type": "Service",
  "serviceType": "Consultoría SEO",
  "provider": { "@id": "https://tumarca.com/#organization" },
  "areaServed": ["Argentina", "México", "España"],
  "description": "Qué entregás, en una frase.",
  "hasOfferCatalog": {
    "@type": "OfferCatalog",
    "name": "Servicios",
    "itemListElement": [
      { "@type": "Offer", "itemOffered": { "@type": "Service", "name": "Auditoría" } },
      { "@type": "Offer", "itemOffered": { "@type": "Service", "name": "Implementación" } }
    ]
  }
}

FAQPage

Cada página clave debería tener un bloque de preguntas frecuentes con schema. Los LLMs aman las FAQs porque ya están en formato pregunta- respuesta — exactamente lo que necesitan para citar.

DefinedTerm

Si tu marca ocupa una categoría que vale definir (ej. “agentic team OS”, “observatorio de datos híbridos”), declará el término. Eso te posiciona como fuente canónica de la definición.

llms.txt: el archivo que muchos ignoran y vale la pena tener

Es un estándar emergente. Un archivo markdown plano en la raíz de tu dominio (/llms.txt) que resume tu sitio para crawlers IA sin que tengan que parsear tu CSS y JavaScript. Anthropic, Vercel, Mintlify y FastAPI ya lo implementan.

# Tu Marca

## Qué es
Una frase clara de qué hacés.

## Por qué importa
El problema concreto que resolvés.

## Servicios
- Servicio A — qué incluye, en una línea.
- Servicio B — qué incluye, en una línea.

## Quiénes somos
Equipo, ubicación, sitios públicos.

## Contacto
Email, web.

Si tu sitio tiene documentación técnica (típico en B2B SaaS), también existe /llms-full.txt con un volcado más extenso de la documentación.

robots.txt permisivo: la decisión que muchos toman al revés

La mayoría de los sitios bloquea los crawlers IA en robots.txt por miedo a “robo de contenido”. Si tu objetivo es ser citado, tenés que hacer lo opuesto exacto: permitirlos.

User-agent: *
Allow: /

User-agent: GPTBot
Allow: /

User-agent: ChatGPT-User
Allow: /

User-agent: anthropic-ai
Allow: /

User-agent: Claude-Web
Allow: /

User-agent: PerplexityBot
Allow: /

User-agent: Google-Extended
Allow: /

User-agent: Applebot-Extended
Allow: /

Sitemap: https://tumarca.com/sitemap.xml

Edge Middleware para servir versión condensada a bots

Una técnica avanzada: detectar el user-agent del crawler y servirle una versión semánticamente densa de tu home, sin chrome visual, directamente con la información que necesita. En Next.js se hace con Edge Middleware.

// src/middleware.ts
import { NextRequest, NextResponse } from "next/server";

const AI_BOT = /(GPTBot|Claude-Web|PerplexityBot|anthropic-ai|Google-Extended)/i;

export function middleware(req: NextRequest) {
  const ua = req.headers.get("user-agent") || "";
  if (req.nextUrl.pathname === "/" && AI_BOT.test(ua)) {
    const url = req.nextUrl.clone();
    url.pathname = "/agents";
    return NextResponse.rewrite(url);
  }
  return NextResponse.next();
}

export const config = { matcher: ["/"] };

En la ruta /agents servís texto plano denso, sin headers ni navegación, con todos los datos que querés que el modelo asocie a tu marca.

Patrones de contenido que aumentan la probabilidad de citación

Cómo medir que estás siendo citado

Sin medición, no sabés si lo que hacés sirve. Un loop básico:

  1. Definí 8-12 keywords que reflejen cómo un comprador habla de tu categoría. No las que tu marketing usa — las que el cliente usa.
  2. Cada semana, hacé esas queries en Perplexity, ChatGPT, Claude y Gemini. Registrá: ¿te citan? ¿qué dicen? ¿a quién más citan?
  3. Guardá los resultados con timestamp en una tabla. Comparalos a la semana siguiente. La curva en el tiempo es la única métrica seria.
  4. Cuando un modelo se actualiza (cut-off, nueva versión, cambio de provider), repetí el batch completo. Los cambios suelen ser bruscos.

Errores comunes

GEO es un trabajo de meses, no de un sprint. Las marcas que están construyendo el activo hoy son las que van a ser respuesta cuando alguien le pregunte a una IA en 2027.

Preguntas frecuentes

¿Hace falta tener schema.org para que ChatGPT me cite?
Schema no es obligatorio pero aumenta significativamente la probabilidad. Los modelos prefieren contenido con entidades claras y relaciones explícitas. Sin schema, el modelo tiene que inferir qué eres; con schema, lo lee.
¿Cómo sé si un crawler de IA pasó por mi sitio?
Revisá tus access logs filtrando por user-agents conocidos: GPTBot, ChatGPT-User, anthropic-ai, Claude-Web, PerplexityBot, Google-Extended. Si tu hosting no expone logs, podés agregar un endpoint de tracking que registre user-agent y referer en cada visita.
¿Sirve bloquear los crawlers de IA en robots.txt?
Solo si tu objetivo es que NO te citen. Si querés ser citado, hay que permitirlos explícitamente. La paranoia sobre 'robo de contenido' deja a tu marca afuera del canal de descubrimiento más importante de los próximos años.
¿Qué tan importante es la velocidad de carga para GEO?
Importante. Los crawlers de IA tienen budgets de tiempo y reintentos. Si tu sitio carga lento, dejan páginas afuera del índice. Core Web Vitals razonables (LCP bajo 2.5s, INP bajo 200ms, CLS bajo 0.1) son el piso.

¿Quieres que tu marca sea citada por las IAs?

Pedir auditoría GEO

← Volver al blog