Son dos programas muy distintos porque SENuke pretende ser una solución definitiva y GSA está más bien pensado para montar los niveles 2, 3 y 4 de las pirámides de enlaces, no tanto para enlazar directamente a la web a posicionar. En resumen, a webs 2.0 postea peor pero el resto lo hace perfectamente.
Veamos, dos consejos básicos y rápidos. Para comenzar, no crees enlaces directamente a tu web. Haz una barrera de webs 2.0 (5-10, dependiendo de la competencia) que pueda bloquear cualquier posible mala influencia.
Configura los proxies en Settings para usarlos en todo momento excepto para los correos. El programa ya scrapea los proxies públicos si no tienes privados y puedes ir tirando con ellos para probar.
Para el segundo nivel de la pirámide yo usaría: Article, Directory, Microblog, Social Bookmark, Social Network, Video, Web 2.0 y Wiki (que son perfiles) aunque puedes ir con todo sin problema, pero el resto lo dejaría para un eventual tercer piso. Configura los parámetros rellenando cada casilla con la información pertinente (no uses el contenido por defecto, piensa que miles de personas ya tienen el programa). Las keywords son las palabras clave relacionadas con tu temática por las que GSA encontrará objetivos scrapeando la web, al modo de Scrapebox pero en automático. Introduce bastantes anchor texts, selecciona usar palabras clave genéricas (edita el texto) y la URL desnuda. En la pestaña de opciones puedes indicar cuántos links hacer por día, la OBL máxima permitida y qué buscadores emplear para encontrar sitios en los que crearlos.
La opción "Collect keywords from target sites" y "Use collected keywords to find new target sites" te permite ampliar tu base de palabras claves por las que buscar objetivos mientras scrapeas la red. Puedes seleccionarlas para el segundo piso de una pirámide, pero si lo haces los objetivos estarán menos relacionados con la temática de tu web.
Aquí defines cuántos links por día, hora o lo que quieras, cómo solucionar los captchas (recuerda definirlo en la pestaña de Settings), si enviarlos a programas de indexación, qué buscadores usar (te recomiendo no usar más de 16-20, selecciona Check by Country y marca los buscadores del país). En la parte de Filter URLs es donde puedes fijar la OBL máxima y el PR mínimo para postear (usa mejor el PR del dominio para tener más objetivos, si usas el de la página tardará mucho más en encontrar sitios).
Evidentemente, aquí configuras los datos de correo para las verificaciones. Para no tener problemas con las verificaciones, te aconsejo un correo de Hotmail. Vas a "More Mail Settings" --> "Rules for sorting new messages"--> Add new --> "If sender´s address contains @ then move to Inbox" para que todo nuevo correo vaya a la bandeja y no termine en el spam.
Aquí defines si usar y cómo usar los proxies y cuántos threads usar, o sea la velocidad del programa. Si usas un PC desde casa, no creo que puedas superar los 30 threads. En tal caso, define un timeout próximo a 50.
Configuración para la resolución de captchas, usa el programa que tengas.
Configuración para la indexación de los enlaces creados, nuevamente usa lo que tengas disponible.
Filtrado de URLs a partir de las típicas blacklists compartidas.
Esto es para guardar los sitios a los que has podido postear con éxito. La API es de un grupo de gente que está pensado en montar un servicio de pago para la creación de scripts propios para GSA para publicar en plataformas webs 2.0 a la que le tengo echado el ojo y que confío empiecen a sacar sus códigos cuantos antes ya que permitiría usar GSA para el tier 1 sin problema alguno.
Con esto y los vídeos de Santos, uno de los desarrolladores, tienes más que suficiente para ir comenzando.