AYUDA Desindexar webs de Google

homia

Member
Buenas tardes:

En algunos proyectos, he desarrollado las webs en subdominios antes de publicarlas en el dominio principal. Como buen inepto, no he marcado la casilla de disuadir a los motores de búsqueda. Analizando un proyecto en Screaming Frog, me encuentro con que algunas URLS este subdominio está posicionando, pese a haberlo borrado hace un par de meses. Lanzo dos preguntas:

  1. ¿Afecta negativamente al SEO del dominio principal?
  2. ¿Puedo desindexar estas URLS de algún modo?
Muchas gracias.
 
Buenas!! respecto a tu primera pregunta: sí, puede afectar. Cuando los subdominios tienen contenido duplicado o similar al del dominio principal, los motores de búsqueda pueden confundirse sobre cuál página indexar e incluso caer en una canibalización de contenido.

Respecto a la segunda duda: sí, puedes desindexar usando el archivo robots.txt, solicitando la eliminación a través de search console o haciendo un 301 a la url original
 
Buenas Jose! Perfecto, he intentado editar el robots.txt (con Yoast SEO Premium) pero ahora me da un error en la lectura del sitemap, lo he vuelto a restaurar pero me sigue saltando el error.

Adjunto captura de pantalla.Screenshot at Nov 29 11-14-10.png
 
Contenido sólo para usuarios registrados. Por favor inicia sesión o regístrate.

Claro, si lo editas desde Yoast y desde esa ruta, estás editando para el dominio homia.es pero no para los subdominios. El archivo robots.txt solo afecta directamente al dominio en el que está ubicado y no a sus subdominios

Deberás tener un robots.txt para el subdominio que dices en la ruta correcta del subdominio, de tal forma que entres a:
Contenido sólo para usuarios registrados. Por favor inicia sesión o regístrate.
y te aparezca el robots con el bloqueo de ese subdominio ¿me explico? ;)

En cada subdominio que quieras bloquear debe colocar un fichero robots.txt con esto:

Código:
Contenido sólo para usuarios registrados. Por favor inicia sesión o regístrate.
 
Vale, lo corrijo así, por otro lado no consigo resolver el error que tengo ahora de error de lectura del sitemap, no paro de buscar pero en las otras webs tengo el mismo robots.txt y no me da ningún problema
 
Volver
Arriba