Me gustan este tipo de hilos, el problema suele ser que dejan de actualizarse. De momento te dejo una batería de preguntas para darle vidilla al hilo:
Preguntas sobre el scrapper:
- ¿Qué lenguaje has utilizado?
- ¿Te has basado en algo hecho o has programado desde cero?
- ¿Qué utilizas para traducir?
- ¿Realizas algún tipo de spin aparte de la traducción?
- ¿Scrappeas de una sóla web?
Sobre el dominio:
- ¿Ha mantenido la antigüedad?
- El nombre, ¿Tiene sentido con el proyecto?
Sobre el proyecto:
- ¿Crees que sería fácil utilizar el scrapper para otro tipo de proyectos que no sean series/películas?
Vaya que bien que reveles el punto 3, así antes nos joderán el chollo :dale2:Paso tambien a explicar mi scraper para los que les interese saber que otras formas hay de scrapear:
1. vb.net
2. desde 0
3. Bing tiene una api para traducir, ellos la venden, pero ahi formas de conseguirla gratis robando el codigo de otras webs que la usen
4. Spinnear no es nada del otro mundo, hay APIs para hacer spin, yo por ejemplo pago una trimestral, cuesta 20$
5. eligo una web que se actualice a diario y scrapeo solo de ahi
uso dominios nuevos, si sabes programar puedes hacer un scraper para cualquier web, saludos
Vaya que bien que reveles el punto 3, así antes nos joderán el chollo :dale2:
Vaya que bien que reveles el punto 3, así antes nos joderán el chollo :dale2:
Vaya que bien que reveles el punto 3, así antes nos joderán el chollo :dale2:
También tienes tu parte de razón :sisi1:, porque si no fuera Bing hay más traductores, que por ejemplo yo tengo como fallback aunque su límite no es de 10mil y pico caracteres sino de 2000+, pero a lo que voy es que es algo que no queda bien 'público', no sé si me entiendes xD, por una mijita se crea un problema y siempre es mejor recoger las mijitas para dentro y evitarlos. :mola:No veo nada de malo revelar eso xD, total no muchos lo sabran hacer, ademas si crees que alguien tenga capacidad de programar un scraper y usar APIs lo limitara una simple traduccion? si no lo haces con la API igual lo puedes hacer de otras formas, yo he usado el traductor de google con webbrowser sin API
No se pero traductor de google me gusta mas
Español - Ingles - Español
Sale del 50% al 60% unico
bueno, yo una ves hice eso con el traductor de google, pero sin spin, español - ingles - ingles - español y me penalizaron igual (pagina warez), agregando un spin al texto quien sabe solo es cuestion de probar que creo es lo que quieren ver en este experimento no? , a mi el traductor de bing me parece mejor hablando de traducir en si, el traductor de google lo deja mas original porque cambia muchas palabras solo haciendo una traduccion a diferencia de bing
Claro a la final te descubre por que igual usas su traductor
pero es el riesgo es el spin mas facil de hacer
ahora si quieres algo mas avanzado has sitios en ingles que de esos si hay buenos spiner
Pss claro, yo diria que es mejor spinear en ingles y dejarlo en ingles que andarlo traduciendo y prefiero usar bing por eso mismo que dices sobre google y su traductor, yo por eso no confio en nada que sea de google xD por eso uso firefox, para las visitas uso piwik y rara ves uso WMT xD
jeje que buen post amigos, gracias a los pequeños datillos que he tomado de ustedes y que le he pedido por mp en especial a Roman y housedir :mola: estoy casi terminado mi scraper posteador!!! Ya había hecho uno semi-automatico pero 100% optimizado en seonpage y me funciono tengo 20 mil diarias acabe con un montón de webs de muchos años a google le gusta lo que lee en mi web
Esto de los scrapers funciona, solo hay que saber hacer las cosas bien.
También tienes tu parte de razón :sisi1:, porque si no fuera Bing hay más traductores, que por ejemplo yo tengo como fallback aunque su límite no es de 10mil y pico caracteres sino de 2000+, pero a lo que voy es que es algo que no queda bien 'público', no sé si me entiendes xD, por una mijita se crea un problema y siempre es mejor recoger las mijitas para dentro y evitarlos. :mola:
- - - - - - - - - - - - - - - - - - - - - - - - -
05-03-2014: 1080 urls indexadas, he puesto el scraper a una url cada 3 minutos, lo dejaré así unos días :sisi1: