Mi Robots txt

Justo ahora que le estaba tomando cariño, va a ser duro despedirse… Dejando las bromas de lado, parece que a Google le preocupa y mucho como los webmasters manejen el contenido duplicado de sus sitios. En este sentido y después del importante cambio que trajo aparejada la etiqueta canonical y el uso que próximamente Google le dará para usarla en distintos sitios, ahora nos recomienda no bloquear determinadas URLs que consideremos como contenido duplicado vía nuestro archivo robotx.txt. ¿Cuál Seguir Leyendo…