Archivo Robots.txt en Shopify: cómo crearlo y editarlo

Archivo Robots.txt en Shopify: cómo crearlo y editarlo
En el mundo del e-commerce, la optimización del rastreo de un sitio web es fundamental para asegurar su visibilidad en los motores de búsqueda. Shopify, como una de las plataformas de e-commerce más populares, ofrece a los propietarios de tiendas online la posibilidad de optimizar el rastreo de su sitio web a través de la correcta configuración del archivo robots.txt. Por eso a continuación te explicaremos con todo detalle cómo crear y editar el archivo robots.txt en Shopify.

¿Para qué sirven los archivos Robots.txt?

Los archivos Robots.txt sirven para dar instrucciones específicas a los motores de búsqueda sobre cómo deben rastrear y acceder a un sitio web. A continuación, enumeramos algunas de sus funciones más importantes. ¡Lee todo con atención!
  • Controlar el acceso a los archivos de imagen. Una de las funciones principales del archivo robots.txt es evitar que los motores de búsqueda indexen y muestren en los resultados de búsqueda los archivos de imagen de tu página.
Al restringir el acceso a estas imágenes, obligas a los usuarios a visitar tu página para poder verlas, lo que puede generar más tráfico y potenciales conversiones para tu empresa. Sin embargo, es importante tener en cuenta que el archivo robots.txt no impide que otros sitios web copien y compartan los enlaces de tus imágenes.
  • Controlar el acceso a las páginas web. Te permite bloquear el acceso de los motores de búsqueda a aquellas páginas que consideres que no aportan valor a tu estrategia.
Al evitar que los motores de búsqueda rastreen y muestren estas páginas, puedes ahorrar recursos en tu servidor y mejorar la experiencia de usuario al dirigir el tráfico hacia las páginas más importantes. Debes de tener en cuenta que los usuarios aún podrán acceder a estas páginas si tienen un enlace directo a ellas.
  • Bloquear el acceso a archivos de recursos. El archivo robots.txt también puede utilizarse para bloquear el acceso a otros archivos, como scripts y archivos de estilo, que no son fundamentales para el funcionamiento de tu página. Ayuda a reducir la carga en tus servidores y mejorar la velocidad de carga de tu sitio.
Es importante usar esta función con precaución, ya que puede bloquear archivos, que dificultan el trabajo de los motores de búsqueda y afectar negativamente el análisis de tu página

Pasos a seguir para examinar el archivo Robots.txt

Con la herramienta Probador de robots.txt podrás comprobar qué URLs se están restringiendo el acceso y cuáles no. Sigue estos pasos para realizar la comprobación:
  • Ejecuta la herramienta: Abre tu navegador web y busca "probador de robots.txt". Asegúrate de utilizar una herramienta confiable y reconocida.
  • Introduce la URL de la página a verificar: En la parte inferior de la página de la herramienta, encontrarás un campo donde puedes ingresar la URL de la página que deseas comprobar. Introduce la URL completa, incluyendo el protocolo (http:// o https://).
  • Selecciona el User-Agent correspondiente: Un User-Agent es una cadena de texto que identifica al robot de búsqueda o al navegador que está accediendo a tu sitio web. La herramienta Probador de robots.txt te permitirá seleccionar el user-agent que deseas utilizar para la comprobación.
  • Pulsa el botón "probar": Una vez que hayas ingresado la URL y seleccionado el User-Agent, simplemente pulsa el botón "probar" para iniciar la comprobación.
  • Comprueba el estado del botón "probar": Después de que la herramienta haya realizado la comprobación, el estado del botón "probar" cambiará. Si la URL está siendo bloqueada por el archivo robots.txt, verás la opción "bloqueada". Por otro lado, si la URL no está siendo restringida, aparecerá "aceptada".
Utilizando la herramienta Probador de robots.txt, podrás examinar qué URLs de tu sitio web están siendo bloqueadas o permitidas por el archivo robots.txt. Esto te ayudará a comprobar que los motores de búsqueda están accediendo a los sitios exactos de tu sitio web. ¡No dudes en utilizar esta herramienta para mejorar el rendimiento de tu sitio web!

Cómo editar el archivo Robots.txt en Shopify

Si estás buscando editar el archivo o (‘’how to edit robots.txt in shopify’’) robots.txt.liquid, te recomendamos trabajar con un experto de Shopify o tener experiencia en edición de código y SEO. Puedes utilizar Liquid para agregar o eliminar directivas en la plantilla robots.txt.liquid. Esto permite que Shopify mantenga actualizado automáticamente el archivo en el futuro. Si quieres obtener una guía completa sobre cómo editar este archivo, puedes consultar la página para desarrolladores de Shopify "Personalizar robots.txt.liquid". Antes de editar el archivo robots.txt.liquid, elimina cualquier personalización como el uso de un servicio externo como Cloudflare. A continuación, te presentamos los pasos a seguir:
  • En el panel de control de Shopify, haz clic en "Configuración" y luego en "Aplicaciones y canales de ventas".
  • Desde la página "Aplicaciones y canales de ventas", haz clic en "Online store".
  • Haz clic en "Abrir canal de ventas".
  • A continuación, selecciona "Temas".
  • Haz clic en el botón de opciones (...) y luego en "Editar código".
  • Selecciona "Agregar una nueva plantilla" y elige "robots".
  • Haz clic en "Crear plantilla".
  • Realiza los cambios deseados en la plantilla predeterminada. Si necesitas más información sobre las variables de Liquid y casos comunes, puedes consultar la página para desarrolladores de Shopify "Personalizar robots.txt.liquid".
  • Guarda los cambios en el archivo robots.txt.liquid en tu tema publicado.
Es importante tener en cuenta que los cambios son inmediatos, pero los rastreadores no siempre reaccionan al momento. Puedes probar los cambios utilizando el "Probador de robots.txt" de Google.

Ventajas para crear un archivo Robots.txt en Shopify

Un buen archivo robots.txt en Shopify ayudará mejorar el posicionamiento en los motores de búsqueda al indicar qué partes del sitio deben ser rastreadas y cuáles no. Esto es especialmente efectivo si tienes páginas o secciones que no deseas que sean indexadas por los motores de búsqueda. Al personalizar el archivo robots.txt.liquid de Shopify, puedes especificar qué rutas o directorios no deben ser rastreados, lo que puede ser útil para proteger información confidencial o evitar contenido duplicado.

Preguntas Frecuentes sobre Robots.txt en Shopify

¿Cómo interpretar el archivo Robots.txt?

Interpretar el archivo robots.txt implica entender que las directivas “Disallow” y “Allow” indican qué partes del sitio web pueden o no ser rastreadas por los motores de búsqueda. Por otra parte, cada vez que veas “User-agent” esto especifica a qué rastreador se aplica. Los comentarios y “Sitemap” pueden proporcionar información adicional. La correcta interpretación del archivo Robots.txt es muy importante para controlar la indexación y el acceso de los rastreadores web a tu sitio.
Actualizado en