El contenido originalmente pensaba ponerlo en mi blog, mediuminternet.com pero los concursos me pierden así que lo publicaré aquí y luego haré un remix para mi blog.
Vamos a automatizar nuestro Guest Blogging
Todos sabemos lo pesado que es contactar con un blog de nuestra temática, luego con otro... hoy vamos a automatizar el proceso.
GScraper y Emailscraperwizard. Las 2 totalmente gratis
EmailScraperWizardv06b.rar
Gscraper.rar
GScraper
Nuestra intención ahora es buscar la tipica pestaña de contacto que tienen todas las Webs, abrimos GScraper y nos vamos hacia la pestaña proxy, ponemos nuestros proxys en el caso de que tengamos, sino deseleccionamos la opción "use proxys", aun así podemos trabajar sin proxys, al menos a mi no me ha dado problemas. A continuación vamos a la sección scrape, y en footprints podemos poner algo como:
inurl:contacto “blog”
inurl:contactar “blog”
inurl:contactar inurl:blog
Puedes poner éstos, o mejor aun, crear tu unos, cuanto más originales mucho mejor. El siguiente paso sería poner las keywords en la sección inferior, te pongo un ejemplo, tengo un blog de deporte así que pondría: deporte, futbol volley, fisico, salud. (cuantas más, mejor) luego damos a start scrape.
Obtendremos una gran lista de direcciones, muchas duplicadas las cuales debemos de quitar.Para ello nos vamos a la sección inferior y hacemos click en "remove duplicate domain" (ver imagen) . Luego vamos a quedarnos con las mejores Webs, para ello podemos comprobar el pagerank en Check Google page rank y quedarnos con las superiores a 1 en PR, o hacer check alexa rank y quedarnos con las superiores a un ranking de 50.000, ya lo que os interese, que el blog tenga visitas (Alexa) o autoridad (PR). Lo ideal sería saber masivamente el DA y PA, pero no he encontrado de momento una herramienta que haga ésto con más de 200 urls, si alguien conoce uno soy todo oídos.
Vale, ya tenemos seleccionadas las url´s de mayor autoridad y borramos las que no nos interesan y las exportamos a un txt haciendo clic en List Export (barra inferior) y exportamos solo las url.
Emailscraperwizard
Abrimos éste programa para scrapear, pero en éste caso emails. Nada más abrirlo nos saldrán dos opciones, hacemos clic en la primera, queremos scrapear websites. Damos a load list, cargamos nuestro documento txt, clic en start y esperamos que recopile todos los emails. Luego podemos enviar con mailrelay masivamente 1000 emails, que nos contesten 349 diciendonos que si, y no podemos hacer tantos artículos, por eso pienso que lo más logico es organizarse, y desde el propio hotmail o gmail enviar unos emails 20 diarios con un texto único para todos. No creo que hacer ésto sea del todo ilegal, los emails están en su página Web, y te pones en contacto con esas personas del mismo modo que te pondrías haciéndolo manualmente.
Y eso es todo. Un saludo.
Vamos a automatizar nuestro Guest Blogging
Todos sabemos lo pesado que es contactar con un blog de nuestra temática, luego con otro... hoy vamos a automatizar el proceso.
GScraper y Emailscraperwizard. Las 2 totalmente gratis
EmailScraperWizardv06b.rar
Gscraper.rar
GScraper
Nuestra intención ahora es buscar la tipica pestaña de contacto que tienen todas las Webs, abrimos GScraper y nos vamos hacia la pestaña proxy, ponemos nuestros proxys en el caso de que tengamos, sino deseleccionamos la opción "use proxys", aun así podemos trabajar sin proxys, al menos a mi no me ha dado problemas. A continuación vamos a la sección scrape, y en footprints podemos poner algo como:
inurl:contacto “blog”
inurl:contactar “blog”
inurl:contactar inurl:blog
Puedes poner éstos, o mejor aun, crear tu unos, cuanto más originales mucho mejor. El siguiente paso sería poner las keywords en la sección inferior, te pongo un ejemplo, tengo un blog de deporte así que pondría: deporte, futbol volley, fisico, salud. (cuantas más, mejor) luego damos a start scrape.
Obtendremos una gran lista de direcciones, muchas duplicadas las cuales debemos de quitar.Para ello nos vamos a la sección inferior y hacemos click en "remove duplicate domain" (ver imagen) . Luego vamos a quedarnos con las mejores Webs, para ello podemos comprobar el pagerank en Check Google page rank y quedarnos con las superiores a 1 en PR, o hacer check alexa rank y quedarnos con las superiores a un ranking de 50.000, ya lo que os interese, que el blog tenga visitas (Alexa) o autoridad (PR). Lo ideal sería saber masivamente el DA y PA, pero no he encontrado de momento una herramienta que haga ésto con más de 200 urls, si alguien conoce uno soy todo oídos.
Vale, ya tenemos seleccionadas las url´s de mayor autoridad y borramos las que no nos interesan y las exportamos a un txt haciendo clic en List Export (barra inferior) y exportamos solo las url.
Emailscraperwizard
Abrimos éste programa para scrapear, pero en éste caso emails. Nada más abrirlo nos saldrán dos opciones, hacemos clic en la primera, queremos scrapear websites. Damos a load list, cargamos nuestro documento txt, clic en start y esperamos que recopile todos los emails. Luego podemos enviar con mailrelay masivamente 1000 emails, que nos contesten 349 diciendonos que si, y no podemos hacer tantos artículos, por eso pienso que lo más logico es organizarse, y desde el propio hotmail o gmail enviar unos emails 20 diarios con un texto único para todos. No creo que hacer ésto sea del todo ilegal, los emails están en su página Web, y te pones en contacto con esas personas del mismo modo que te pondrías haciéndolo manualmente.
Y eso es todo. Un saludo.