(Caso de Estudio) Posicionando un micronicho con software

Estado
No está abierto para más respuestas.

Peisithanatos

Oro
Usuario de Bronce
Mensajes
1,018
Puntuación de reacción
0
Abro este hilo para dejar constancia de un caso de estudio que puede resultar de interés a muchos de los presentes: vamos a intentar posicionar un micronicho con la única ayuda de software específico, sin más. De sobra es sabido que, tras las últimas actualizaciones, este tipo de link building automatizado es ciertamente pernicioso y arriesgado, especialmente después del querido pingüino.

Lo cierto es que, aunque conozco al dedillo la teoría, nunca he puesto a prueba este método y jamás se me ocurriría ponerlo a prueba con algo que mereciese la pena o con la web de un cliente, pero quiero intentar hacer un link building automatizado que, no obstante, sea lo suficientemente diversificado y pausado como para que parezca "natural" a ojos de Google. Veremos hasta qué punto el Old School SEO a base de enlaces de dudosa calidad ha dejado de tener efecto. En un par de días abriré otro hilo para dejar constancia de otro caso de estudio, esta vez hecho a base de enlaces de calidad y sin automatizar el proceso.

Dicho esto, vamos a intentar probar una hipótesis de trabajo que tenemos ganas de testear desde hace cierto tiempo, a saber, que es posible posicionar un micronicho con enlaces creados en modo automático con la ayuda de tres sencillos pero poderosos programas: Scrapebox, The Best Spinner y GSA Search Engine Ranker. Por tanto, en este hilo, cada lunes, iré proporcionando información sobre la evolución del proceso indicando lo que se ha hecho durante la semana precedente para que quede constancia pública del trabajo realizado por si es de utilidad para los presentes.

La intención es lograr la primera posición en 2 meses a partir del 1 de abril, es decir, tenerlo en primera posición el día 1 de junio de 2013. Veremos qué sucede.

DATOS GENERALES:

1. Temática: salud.
2. ¿EMD?: Sí, un .net. El resto de EMDs se encuentran registrados pero ninguno en activo por el momento.
3. Competencia: baja.
4. Dificultad de posicionamiento: baja-media.
5. Público objetivo: mujeres, especialmente de mediana edad.
6. Búsquedas globales/búsquedas locales: 6000/4000.
7. CPC: unos 50 céntimos de Euro.

PREPARACIÓN INICIAL:

1. Localización y compra de un dominio para el micronicho.
2. Instalación de un tema adecuado para la temática así como de los plugins más vitales: SuperCaché, Yoast, SmushIt.
3. Publicación del primer artículo, 100% optimizado, de más de 1700 palabras. Lo he colocado para que aparezca como homepage, con la intención de que la cantidad de contenido haga más fácil el cometido. He añadido un vídeo para ayudar a bajar la tasa de rebote y que Google le coja cariño a la web.

DEFINICIÓN GENERAL DE LA ESTRATEGIA:

Para garantizar una calidad mínima en los enlaces creados, emplearemos una sencilla pirámide de tres pisos creada totalmente con GSA Search Engine Ranker, que permite realizar de forma sencilla un esquema de tiered linking. Adicionalmente, para resolver captchas y no tener que pagar por ellas, usaremos GSA Captcha Breaker, y nos serviremos de GSA SEO Indexer para ayudar a indexar los backlinks conforme los vayamos creando. Estos dos programas son de la misma casa que el software principal por lo que se complementan a la perfección.

El primer nivel se hará a base de blogs 2.0 gratuitos y algunos artículos en directorios gratuitos. En esta primera capa se procurará variar al máximo el anchor text reservando un máximo del 20% para la palabra clave principal, sobre el 20% para la URL desnuda y el 60% restante para palabras clave relacionadas y keywords genéricas ("click aquí", "mi sitio", etcétera). Del mismo modo, intentaremos hacer deep linking todo lo que podamos, es decir, que enlazaremos básicamente a los artículos y las categorías del sitio en lugar de a la homepage.

El segundo nivel lo formarán una amplia variedad de enlaces para asegurar la indexación del primer nivel y reforzarla mínimamente para dotarla de cierta autoridad, incluyendo: social networks que permitan publicar artículos, comentarios, directorios, microblogs, marcadores sociales, vídeos y enlaces desde perfiles de wikis. Por último, para que Google no se resista a indexar el penúltimo nivel, emplearemos enlaces de baja calidad apuntando al segundo nivel compuesta por enlaces desde perfiles de foros, guestbooks, comentarios a imágenes y trackbacks.

La fecha fijada para comenzar con la creación de enlaces será el día 20 de abril para 1) tener tiempo para publicar unos cuantos artículos relacionados con nuestro nicho, y, lo que es más importante, 2) dar un margen mínimo de tiempo a Google para que se no se sospeche de nuestras actividades. Para asegurar un esquema lo más natural posible, procuraremos dilatar la creación del primer nivel de enlaces lo máximo posible, pongamos unos 10 días. Tras esto, dejaremos un margen de unos 5 días y construiremos, poco a poco, la segunda capa, en un plazo de otros 10 días aproximadamente. Por último, tras pausar el link building un par de días, durante 5 o 6 días finalizaremos la pirámide creando enlaces de forma más rápida y sin miramientos. El resto de días los dejaremos como intervalo para comprobar la evolución.

La idea no es crear una cantidad enorme de backlinks porque esto resulta completamente innecesario en este caso ya que la competencia no es muy elevada. Será suficiente con que creemos una pirámide con unos 20-40 enlaces en la base, 400-600 en el segundo nivel y unos 800-1000 en el tercero y último.

PRIMERA SEMANA (del 1 al 8 de abril):

1. Localizar unos 200 artículos sobre el tema para ir preparando el texto spineado, que es lo que llevará el mayor tiempo de trabajo. A este efecto, emplearemos textos en inglés que, tras pasarlos por el traductor de Google, iremos reelaborando manualmente.
2. Programar la publicación de 5 artículos de 400+ palabras que contengan las long tails más buscadas.
3. Para ir adelantando trabajo, empleamos la herramienta de palabras clave de Adwords para encontrar 800 palabras clave relacionadas con nuestro tema que usaremos para scrapear la web con Scrapebox en busca de enlaces desde comentarios en webs relacionadas. Filtraremos los resultados para asegurar Low OBL (máx. 30 enlaces salientes), que sean sitios en castellano y PR1+ (de la página, no del dominio).

Para garantizar el mayor nivel posible de unicidad en los textos que conformarán el primer nivel de enlaces a base de webs 2.0 y algún que otro artículo en directorios de artículos, utilizaremos buena parte de esos 200 artículos para crear un único artículo. Para ello, haremos un spin a tres niveles: a nivel de párrafo, de frase y de sinónimos, comenzando desde el nivel más amplio. Emplearemos textos base de unas 400-450 palabras, que dividiremos en cuatro párrafos. Estos cuatro párrafos habrán de incluir 6 variaciones cada uno. Una vez creados los párrafos, haremos unas 5 variaciones por frase. Finalmente, incluiremos todos los sinónimos posibles al texto final, sin sacrificar por ello la legibilidad de los textos finales. Se ha de procurar que el texto spineado final posea un nivel de unicidad medio superior al 100% para evitar a toda costa duplicidades incómodas. Dado por tanto el alto nivel de unicidad del texto spineado final, el resultado nos servirá igualmente para la descripción de los enlaces en marcadores sociales y los directorios de webs, por lo que, terminado el spin, es cuestión de introducir los datos pertinentes en el programa y darle a un par de botones.

SEGUNDA (del 8 al 15 de abril):

Ya he conseguido una lista con unos 200 comentarios low OBL, temáticos y PR1+ para la web. Los artículos no han sido publicados todavía por falta de tiempo. El spin del texto está casi terminado, falta terminar el spin a nivel de palabras añadiendo sinónimos para los dos últimos párrafos. Por el momento, según los cálculos, ya podría usarse unas 200-300 veces sin problema. La web, por el momento, aunque ya indexada, no está entre los 300 primeros resultados. Así pues, tareas para esta semana:

- Publicar las 5 entradas en el blog, de 400+ palabras.
- Acabar el spin.
 
Última edición:

gesio

Oro
Usuario de Bronce
Mensajes
1,028
Puntuación de reacción
0
Intersate, estare atento.

Para que sirven los plugins Supercache y smushit

Yo de los tres solo uso el yoast, crees que son vitales.

Yo si queires te pregont un blog cread opero sin visitas para probar eh jajajaja

Yo pongo el blog y tu el SEO :p
 

blogtec

Cobre
Usuario de Bronce
Mensajes
538
Puntuación de reacción
0
¿El sitio va a estar en castellano? Te lo pregunto porque veo que vas a usar The Best Spinner
 

invicto992

Cobre
Usuario de Bronce
Mensajes
969
Puntuación de reacción
0
Ya nos comentas que tal te a ido. He visto un experimento similar de alguien. Registro 3 blogs. nombre1.blogspot.com nombre2.blogspot.com y el 3ºero
En un blog no tenia contenido en el segundo tenia un video y en el tercero tenia un articulo. Se puso a hacer backlinks desde perfiles de foros si no me equivoco y resulto que el blog sin contenido pero con backlinks desde perfiles de foros con alto pr se posiciono mejor que los otros dos.
 

Peisithanatos

Oro
Usuario de Bronce
Mensajes
1,018
Puntuación de reacción
0
Intersate, estare atento.

Para que sirven los plugins Supercache y smushit

Yo de los tres solo uso el yoast, crees que son vitales.

Yo si queires te pregont un blog cread opero sin visitas para probar eh jajajaja

Yo pongo el blog y tu el SEO :p

El SmushIt es para optimizar fotos, para que pesen lo mínimo posible. El SuperCaché es para almacenar datos en la caché y que la web pese lo menos posible.

Lo que comentas es una opción; en una semana te mando un MP y lo hablamos detenidamente.

Se ve muy interesante
Qué VPS vas a utilizar?

Uso uno de Bermanhosting, 2GB de RAM, que va bien y no puede ser más barato. Próximamente pondré todos los datos en el post principal.

¿El sitio va a estar en castellano? Te lo pregunto porque veo que vas a usar The Best Spinner

Sí, así es, en castellano. El objetivo es top 1 en España. El The Best Spinner se puede usar, como todos los software para spin de artículos, también en castellano: obviamente el trabajo ha de ser manual, pero solo de este modo te aseguras un resultado decente.

Creo que si puede funcionar, me suscribo al tema

A ver qué tal, veremos.

Yo no creo que funcione.

Pues yo tampoco lo creía, pero me da en la nariz que sí. Os mantengo al tanto.

Por el momento, tras 2 horas de ser publicado, la web ya está indexada, aunque con algunos errores.
 

alejandrocacheiro

Diamante
Usuario de Bronce
Mensajes
3,814
Puntuación de reacción
1
Pues esta interesante el estudio, espero nos muestres los resultados sean bueno o malos
 

Juan David

Piedra
Usuario de Piedra
Mensajes
29
Puntuación de reacción
0
Pues me quedaré por acá.

A la espera de resultados :number1:
 
Mensajes
74
Puntuación de reacción
0
El SmushIt es para optimizar fotos, para que pesen lo mínimo posible. El SuperCaché es para almacenar datos en la caché y que la web pese lo menos posible.

¿Volvió a funcionar ese plugin? Yo lo usaba pero hubo un tiempo en que tenía problemas y lo quité, desde allí no lo he vuelto a probar
 

Javier Muñoz

Oro Blanco
Usuario de Bronce
Mensajes
1,124
Puntuación de reacción
0
Por el momento, tras 2 horas de ser publicado, la web ya está indexada, aunque con algunos errores.

@Peisithanatos qué utilizas para que se indexe en 2 horas? lindexed? o más backlinks?
 

Peisithanatos

Oro
Usuario de Bronce
Mensajes
1,018
Puntuación de reacción
0
¿Volvió a funcionar ese plugin? Yo lo usaba pero hubo un tiempo en que tenía problemas y lo quité, desde allí no lo he vuelto a probar

Sí, hace un tiempo comenzó a dar problemas pero ya lo han vuelto a actualizar con regularidad y ahora parece funcionar sin problemas.

@Peisithanatos qué utilizas para que se indexe en 2 horas? lindexed? o más backlinks?

No, sinceramente no recomendaría usar Lindexed, Linklicious o similares con la web a posicionar. Simplemente he añadido una lista con algunos servicios de ping a los ajustes de escritura de Wordpress:

Código:
http://xping.pubsub.com/ping
http://blogdigger.com/RPC2
http://topicexchange.com/RPC2
http://rpc.weblogs.com/RPC2
http://rpc.technorati.com/rpc/ping
http://rpc.pingomatic.com
http://rpc.icerocket.com:10080/
http://rpc.blogrolling.com/pinger
http://pinger.blogflux.com/rpc
http://ping.weblogalot.com/rpc.php
http://ping.syndic8.com/xmlrpc.php
http://ping.cocolog-nifty.com/xmlrpc
http://ping.bloggers.jp/rpc
http://xsincome.com/?p=434
http://ping.blo.gs/
http://coreblog.org/ping
http://blogdb.jp/xmlrpc/
http://blog.goo.ne.jp/XMLRPC
http://api.moreover.com/RPC2
http://api.moreover.com/ping
http://api.feedster.com/ping
http://blogsearch.google.com/ping/RPC2
http://api.my.yahoo.com/RPC2
http://api.my.yahoo.com/rss/ping
http://ping.feedburner.com
http://1470.net/api/ping
http://bblog.com/ping.php
http://bitacoras.net/ping
http://blogbot.dk/io/xml-rpc.php
http://blogmatcher.com/u.php
http://bulkfeeds.net/rpc
http://mod-pubsub.org/kn_apps/blogchatt
http://mod-pubsub.org/knapps/blogchatt
http://ping.amagle.com
http://ping.bitacoras.com
http://ping.blogmura.jp/rpc
http://ping.exblog.jp/xmlrpc
http://ping.myblog.jp
http://ping.rootblog.com/rpc.php
http://ping.weblogs.se
http://rcs.datashed.net/RPC2
http://thingamablog.sourceforge.net/ping.php
http://trackback.bakeinu.jp/bakeping.php
http://a2b.cc/setloc/bp.a2b
http://bitacoles.net/ping.php
http://blogoole.com/ping
http://blogoon.net/ping
http://blogpeople.net/servlet/weblogUpdates
http://blogroots.com/tb_populi.blog?id=1
http://blogroots.com/tbpopuli.blog?id=1
http://blogshares.com/rpc.php
http://blogsnow.com/ping
http://blogstreet.com/xrbin/xmlrpc.cgi
http://lasermemory.com/lsrpc
http://mod-pubsub.org/kn_apps/blogchatter/ping.php
http://mod-pubsub.org/knapps/blogchatter/ping.php
http://newsisfree.com/xmlrpctest.php
http://popdex.com/addsite.php
http://snipsnap.org/RPC2
http://weblogues.com/RPC
http://xmlrpc.blogg.de
http://holycowdude.com/rpc/ping/
http://pingoat.com/goat/RPC2
http://rpc.twingly.com
http://rpc.blogrolling.com/pinger/
http://www.feedsubmitter.com
http://blo.gs/ping.php
http://www.pingerati.net
http://www.pingmyblog.com
http://geourl.org/ping
http://ipings.com
http://www.weblogalot.com/ping

Actualizo la entrada inicial con las tareas a realizar esta semana y la definición general de la estrategia a seguir.
 
Última edición:

gesio

Oro
Usuario de Bronce
Mensajes
1,028
Puntuación de reacción
0
Sí, hace un tiempo comenzó a dar problemas pero ya lo han vuelto a actualizar con regularidad y ahora parece funcionar sin problemas.



No, sinceramente no recomendaría usar Lindexed, Linklicious o similares con la web a posicionar. Simplemente he añadido una lista con algunos servicios de ping a los ajustes de escritura de Wordpress:

Código:
http://xping.pubsub.com/ping
http://blogdigger.com/RPC2
http://topicexchange.com/RPC2
http://rpc.weblogs.com/RPC2
http://rpc.technorati.com/rpc/ping
http://rpc.pingomatic.com
http://rpc.icerocket.com:10080/
http://rpc.blogrolling.com/pinger
http://pinger.blogflux.com/rpc
http://ping.weblogalot.com/rpc.php
http://ping.syndic8.com/xmlrpc.php
http://ping.cocolog-nifty.com/xmlrpc
http://ping.bloggers.jp/rpc
http://xsincome.com/?p=434
http://ping.blo.gs/
http://coreblog.org/ping
http://blogdb.jp/xmlrpc/
http://blog.goo.ne.jp/XMLRPC
http://api.moreover.com/RPC2
http://api.moreover.com/ping
http://api.feedster.com/ping
http://blogsearch.google.com/ping/RPC2
http://api.my.yahoo.com/RPC2
http://api.my.yahoo.com/rss/ping
http://ping.feedburner.com
http://1470.net/api/ping
http://bblog.com/ping.php
http://bitacoras.net/ping
http://blogbot.dk/io/xml-rpc.php
http://blogmatcher.com/u.php
http://bulkfeeds.net/rpc
http://mod-pubsub.org/kn_apps/blogchatt
http://mod-pubsub.org/knapps/blogchatt
http://ping.amagle.com
http://ping.bitacoras.com
http://ping.blogmura.jp/rpc
http://ping.exblog.jp/xmlrpc
http://ping.myblog.jp
http://ping.rootblog.com/rpc.php
http://ping.weblogs.se
http://rcs.datashed.net/RPC2
http://thingamablog.sourceforge.net/ping.php
http://trackback.bakeinu.jp/bakeping.php
http://a2b.cc/setloc/bp.a2b
http://bitacoles.net/ping.php
http://blogoole.com/ping
http://blogoon.net/ping
http://blogpeople.net/servlet/weblogUpdates
http://blogroots.com/tb_populi.blog?id=1
http://blogroots.com/tbpopuli.blog?id=1
http://blogshares.com/rpc.php
http://blogsnow.com/ping
http://blogstreet.com/xrbin/xmlrpc.cgi
http://lasermemory.com/lsrpc
http://mod-pubsub.org/kn_apps/blogchatter/ping.php
http://mod-pubsub.org/knapps/blogchatter/ping.php
http://newsisfree.com/xmlrpctest.php
http://popdex.com/addsite.php
http://snipsnap.org/RPC2
http://weblogues.com/RPC
http://xmlrpc.blogg.de
http://holycowdude.com/rpc/ping/
http://pingoat.com/goat/RPC2
http://rpc.twingly.com
http://rpc.blogrolling.com/pinger/
http://www.feedsubmitter.com
http://blo.gs/ping.php
http://www.pingerati.net
http://www.pingmyblog.com
http://geourl.org/ping
http://ipings.com
http://www.weblogalot.com/ping

Actualizo la entrada inicial con las tareas a realizar esta semana y la definición general de la estrategia a seguir.


Esto como se agrega para usarlo???
 

Peisithanatos

Oro
Usuario de Bronce
Mensajes
1,018
Puntuación de reacción
0
Esto como se agrega para usarlo???


En Ajustes --> Escritura ---> Servicios de actualización.

Hay muchos más servicios de ping, pero con 30-40 prácticamente te aseguras una rápida indexación aunque tu web no sea rastreada con mucha frecuencia por las arañitas.
 
Mensajes
92
Puntuación de reacción
0
Me suscribo para ir viendo como evoluciona, por si nos llevamos alguna sorpresa.
 

Mma

Cobre
Usuario de Bronce
Mensajes
866
Puntuación de reacción
3
Interesante, espero resultados :mola:
 

Peisithanatos

Oro
Usuario de Bronce
Mensajes
1,018
Puntuación de reacción
0
¿Proxys privados o públicos?

15 proxies privados. Mejor dicho, 10 proxies privados (en sentido estricto de que solo los uso yo) y 5 privados pero compartidos (con un máximo de otros 2 usuarios). Serviría con públicos para la mayor parte del proceso pero 1) sería más lento, 2) podría dejar footprints porque muchas veces los proxies públicos no son verdaderamente anónimos, y, 3) al ser públicos, cientos de personas como nosotros los usan para scrappear la red o spammear y dicha IP puede ser baneada rápidamente.

Lo mejor es dejar los privados para cosas concretas y usar los públicos para el resto. En el GSA, por ejemplo, puedes especificar que se empleen los privados para unas tareas y los públicos para otras. En mi caso, solo usaré los privados para scrapear (ya sea con Scrapebox o GSA) y para postear (con GSA). Para el resto de tareas, públicos.
 
Estado
No está abierto para más respuestas.
Arriba