Yo no lo pondría al nivel del experimento de MW, porque este tipo lo tomó como su proyecto personal al 100%, su blog tiene contenido de una calidad que no vas a encontrar en otro lado, y un nivel de producción muy alto (las herramientas que utiliza, videotutoriales, etc).
Es decir, él tiene una estrategia de generación de contenido que es genial, aporta un montón de valor, y también por eso tiene una monetización altísima por affiliate marketing, el costo es que le toma un montón de tiempo.
Además, si bien no hizo link building, sí hizo outreach, es decir acercarse a las comunidades blackhat SEO y responder consultas dejando links y respuestas desde su blog. Desde ahí se viralizó por la calidad, pero sí tomó ese paso inicial.
El otro extremo sería el caso que mencionás que testeaste, donde no tiene todo ese esfuerzo pero además es contenido duplicado y spineado.
En este caso estamos hablando del punto medio: el contenido es original y es útil, pero sólo fue una generación inicial, no se sigue generando contenido ni se hizo ningún tipo de outreach: se hizo la página, se la subió, y se envió por GWT, y a ver qué pasaba
Esto nunca estuvo en discusión.
Correcto, pero hasta el día de hoy lo más que ese sitio obtuvo fueron algunas señales sociales, no enlaces desde otros sitios, por lo que no está posicionando por enlaces ni pasivos ni activos. Y está probado que 20 likes no te posicionan una página, mucho menos un sitio.
Esto tampoco está en discusión, de hecho es el punto del experimento.
Decir que la optimización del contenido consta de la repetición correcta de palabras clave, es bastante simplificativo.
Creo que el problema en ese razonamiento es que lo limitás a:
- Contenido de calidad o
- Link building
Un bot no puede conocer qué contenido es de calidad, no puede diferenciar entre dos chistes, cuál es bueno y cuál no, pero sí puede (y de hecho es lo que hace) medir señales. El error en tu razonamiento es que limitás las señales a aquellas offpage, y limitás el onpage a la densidad de keywords. Optimizar un sitio en lo onpage es mucho más que medir el % de repetición de tal o cual keyword, y como dice @hvazquez07 el error más habitual es justamente ese, montar un sitio "así nomás" (optimizar lo básico) y pasar directo al link building.
En resumen: si
optimizás realmente un sitio, en gran cantidad de rubros va a posicionar sin enlace alguno, pasivo o activo. No porque sea contenido de calidad o no, porque eso sólo lo puede medir un ojo humano, sino porque estás mandando las señales correctas que le dan al bot la idea de que tu sitio es el adecuado para esas queries.