Etiquetas: , , , , ,

Si te gusto el artículo, podes suscribirte al Feed de MP3d y recibir las noticias del blog en tu lector de feeds favorito o Suscribirte para recibirlas por Email.


Otros artículos relacionados

Los Comentarios a esta entrada estan cerrados.

Comentario
Alan dijo el Jueves 8 octubre 2009 a las 3:18 pm    

creo que tendre que desblquear el seguimiento de los tags en mi robots.txt, las unicas paginas que no desbloqueare seran las de login y about.

Comentario
Mariano dijo el Jueves 8 octubre 2009 a las 6:22 pm    

@Alan, me parece bien y agregales la opcion noindex en los meta.

Saludos.

Comentario
Alan dijo el Viernes 9 octubre 2009 a las 2:48 am    

ademas me conbiene desbloquear los tags, esto es debido a que si dejo que todo el contenido sea indexado, Google me mandara mas visitas, porque puede ser que incluso un tag este mejor posicionado que un articulo en espesifico. y lo demas ya es cuestion de suerte.

Comentario
Snake dijo el Sábado 10 octubre 2009 a las 7:44 pm    

La verdad no sabía de eso que era mejor no bloquearlas con robots.txt, habrá que empezar a cambiar entonces nuestro modo de trabajar.

Comentario
Rosario dijo el Martes 1 diciembre 2009 a las 5:02 pm    

yo tambien creo que conviene desbloquear los tags ..

4 Tweets - Pingbacks - Trackbacks en esta entrada

Tweet
Mariano dijo el Miércoles 7 octubre 2009 a las 5:09 pm    

Nuevo post: Contenido Duplicado – Abandona tu robots.txt para evitarlo http://bit.ly/2lTF4n

Tweet
Mariano dijo el Miércoles 7 octubre 2009 a las 7:09 pm    

Nuevo post: Contenido Duplicado – Abandona tu robots.txt para evitarlo http://bit.ly/2lTF4n

Tweet
La Etiqueta rel=canonical para distintos dominios ya esta aquí dijo el Miércoles 16 diciembre 2009 a las 1:11 pm    

[…] hablamos bastante sobre la etiqueta canonical para evitar el contenido duplicado y también comentamos que para este mes estaría disponible el uso del rel=canonical para aplicar a […]

Tweet
Oscar Morlet dijo el Domingo 20 diciembre 2009 a las 2:05 am    

Ahora resulta que para evitar el contenido duplicado es mejor no utilizar robots.txt http://tr.im/I7ON