- ¿Qué es el archivo robots.txt?
- Cómo funciona robots.txt en el SEO
- Directivas básicas y ejemplos
- Errores comunes que matan tu SEO
- Robots.txt y el SEO con IA
- Buenas prácticas y checklist
¿Qué es el archivo robots.txt?
El robots.txt es un archivo de texto ubicado en la raíz de tu dominio (por ejemplo, https://tudominio.com/robots.txt) que indica a los robots de búsqueda qué partes de tu web pueden rastrear y cuáles deben evitar.
No decide qué se indexa directamente, pero sí controla el rastreo, un factor clave en cualquier estrategia de marketing digital y de seo, sobre todo en sitios grandes o con recursos limitados.
Cómo funciona robots.txt en el SEO
Cuando un robot (como Googlebot) llega a tu sitio, lo primero que intenta leer es el robots.txt. A partir de ahí:
- Aplica las reglas según el
User-agent(tipo de bot). - Decide qué URLs rastrear y con qué frecuencia.
- Optimiza (o desperdicia) tu presupuesto de rastreo.
Un archivo bien configurado ayuda a:
- Evitar contenido duplicado o poco útil para el buscador.
- Dirigir el rastreo hacia páginas clave para la generación de leads y la optimización de conversiones.
- Hacer más eficiente el trabajo de cualquier agencia de marketing digital que gestione tu web.
Directivas básicas y ejemplos
Las instrucciones principales en un robots.txt son:
- User-agent: identifica a qué bot se aplican las reglas.
- Disallow: rutas que el bot no debe rastrear.
- Allow: excepciones permitidas dentro de rutas bloqueadas.
- Sitemap: URL del sitemap XML para facilitar la indexación.
Ejemplo básico recomendado
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://tudominio.com/sitemap.xml
Este ejemplo deja rastrear todo, excepto el área de administración de WordPress, y facilita el trabajo a los bots al indicar el sitemap.xml, muy útil en proyectos de branding digital y marketing de contenidos.
Control de secciones concretas
User-agent: *
Disallow: /carrito/
Disallow: /login/
Disallow: /buscar/
Suele usarse en tiendas online para no gastar rastreo en páginas transaccionales que no aportan valor directo al SEO pero sí al usuario.
Errores comunes que matan tu SEO
- Bloquear todo el sitio por error:
User-agent: * Disallow: /Si se mantiene en producción, prácticamente elimina tu visibilidad en buscadores.
- Bloquear recursos críticos como
/css/o/js/, impidiendo que Google renderice bien la página. - Usar robots.txt para “ocultar” contenido sensible: solo evita rastreo, no acceso. Cualquiera puede ver el archivo.
- Confiar en robots.txt para desindexar: para eso se usan
noindexo la eliminación desde Search Console.
Robots.txt y el SEO con IA
Con el auge del SEO IA y de resultados enriquecidos por modelos de inteligencia artificial, el robots.txt gana un nuevo papel: controlar cómo los sistemas basados en IA usan tu contenido.
- Algunos proveedores de IA respetan directivas específicas en robots.txt para entrenar o no con tu contenido.
- Una mala configuración puede limitar la visibilidad de tu marca en marketing en redes sociales o en experiencias de búsqueda conversacional.
- Una buena configuración permite equilibrio entre publicidad en línea, visibilidad orgánica y protección de contenidos críticos de tu marketing de contenidos.
Revisa periódicamente la documentación de los principales motores y asistentes de búsqueda basados en IA para añadir, si procede, directivas específicas a tus User-agent.
Buenas prácticas y checklist
- Comprueba siempre el archivo con la herramienta de inspección de robots.txt de tu buscador (o en Search Console).
- Mantén el archivo corto y claro; documenta los bloques con comentarios.
- No bloquees páginas clave para SEO (categorías, fichas de producto, landings de captación).
- Incluye la ruta al
sitemap.xmlpara apoyar tu estrategia de marketing digital. - Revisa el robots.txt en cada rediseño o migración de la web.
- Coordina este archivo con otras acciones de estrategia de marketing digital, analítica y CRO.
Un robots.txt bien configurado no hará milagros por sí solo, pero es una pieza técnica imprescindible para que todo tu trabajo en seo, contenidos e IA pueda desplegar su máximo potencial.



