eliminacion urls problema con sh404sef

Estado
No está abierto para más respuestas.

yaiko76

Zafiro
Usuario de Bronce
Mensajes
2,120
Puntuación de reacción
0
Hola, he tenido un problema en una de mis webs realizadas con Joomla.
Me gustaría hacer un inciso antes de ir al asunto.

Quise probar un componente llamado sh404sef, jamás había instalado un componentes de estos y la verdad que aun no entiendo por qué quise probarlo. Sinceramente realice un curso de posicionamiento web dirigido a Joomla y siguiendo los pasos que se mencionaban en este curso he posicionado varias webs en la primera página y aún se mantienen después de no llevar ningún tipo de mantenimiento. Después de lo ocurrido con este componente no creo que haga falta instalar ningún componente, por lo menos eso ha sido mi experiencia visto lo visto. Corregirme si me equivoco pero pienso que no hace falta tanto plugin.
Dicho esto comento el problema y lo que he realizado para intentar resolverlo, a ver si me podéis aconsejar o añadir algo que me ayude.

Después de leer comentarios que este componente mejoraba el posicionamiento lo instale y me puse a escribir los metadatos en cada Urls, al mismo tiempo iba borrando los metadatos que anteriormente puse en los artículos de Joomla ya que leí que era muy aconsejable para que no hubiera nada de contenido repetido en los metadatos. Pues bien una vez finalizado el trabajo todo pensaba que iba a funcionar de maravilla y me disponía a realizar otra vez las técnicas aprendidas en este curso que os mencione para posicionar esta web. Me puse a revisar las Urlsef desde este componente y empecé a ver muchas Urls duplicadas. No me asuste porque sabía que esto iba a pasar. empecé a cambiar el alias a estas Urls tal y como vi en un videotutorial que encontré por internet. Efectivamente todo parecía ir bien, las Urls duplicadas iban desapareciendo. Pasaron dos días y volví a echar un vistazo y me di cuenta que tenía un montón de Urls duplicadas, volvía arreglarlas y volvían a salir por todas partes. No entendía absolutamente nada. Ya desesperado decidí volver a la vieja usanza que es como personalmente todo me a ido bien, así que desístale este componente a sabiendas que las Urls que ya estaba indexadas podría tener problemas. Efectivamente así fue.
Fui a la herramienta de googlemaster e hice la prueba de rastreo y me encontró 191 errores 404. Tengo que decir que la web lleva un mes subida, me queda la esperanza que estas Urls no estén muy visibles.
Decidí eliminar las Urls y esta es la forma como lo hice:

Abrí el archivo robots.txt e incluí todas las Urls que me salían en la lista de erróneas y les he añadido al principio Disallow: Así tal cual:
Disallow: http://www.mipagina.com/casas/casas-de-madera.htm.....

Después en la herramienta del google eliminación de Urls también fui poniendo una a una cada una de las Urls y eliminaba con cache.

¿Pensáis que esta es la manera correcta para lograr que no aparezcan estas rutas?

- - - Actualización- - -

Acabo de mirar y me dice que no hay urls pendientes y que ya han sido eliminadas....¿En un solo dia ya me las ha eliminado?
 
Última edición:

GabrielSeo

Estafador
Mensajes
421
Puntuación de reacción
0
Así no se implementa el bloqueo de url en el archivo robots.txt.

No tienes que agregar todo tu dominio, ejemplo de como está mal y como está bien:

subscribed.png Disallow: /prueba o /post/hola-que-hace
mala.png Disallow: http://mi-domain.com/tupagina/pepelole

Como veís en el ejemplo no tienes que agregar todo tu dominio si no desde donde está el slash " / " hacía adelante.

Una ves listo te tienes que dirigir a https://www.google.com/webmasters/tools/removals?pli=1 e ingresar la url completa que vas a querer eliminar.

Recuerda que para ingresar debe estár verificado el webmaster de Google con tu site.
 
Estado
No está abierto para más respuestas.
Arriba