Haz como yo, no hagas publicas las estadisticas, para que te dén algun disgusto...
Por ejemplo, ¿que pasa si alguien accede a una pagina que crees que no es accesible desde ninguna otra?
Pues que saldria en las estadisticas, por ejemplo en awstats y automaticamente el Sr. Google te la enlazaria como un champion. Como esta pagina tuviese informacion chunga....
Crear un robots.txt con el siguiente contenido: User-agent: *
Disallow: /usage/
A partir de ahí los bots de búsqueda no mirarán en el directorio de las estadísticas. No soluciona el SPAM pero evita que haga subir pagerank a los spammers. Poner filtros «Ignore» en webalizer (o similares) también sirve
A mi me jode mucho, no por las estadísticas que no hago, pero sí los recursos y ancho de banda desperdiciado por esta gentuza. Y lo peor, seguí unos consejos de por ahí e intenté hacer unas cuantas rules con el mod_rewrite para que revisen el referer y si contiene según qué palabras que dé error 404... pero mi apache suda de esto completamente :-(
Como ya ha apuntado SegFault, no es un sistema nuevo. En octubre del 2004 puse una entrada en mi bitácora hablando sobre ello: Log hijacking, secuestro de log de referidos [barrapunto.com]. Un breve resumen de como evitarlo:
Estadísticas privadas. En la mayoría de los casos los informes y estadísticas solo son de interés para un grupo reducido de personas: los webmasters, administradores del servidor, etc... Por lo tanto, conviene que el acceso a estos datos sea privado y esté protegido por contraseña.
Impedir el indexado. En el caso de que queramos que las estadísticas sean públicas es recomendable utilizar el fichero robots.txt para impedir que sean indexadas por los buscadores. Si nuestras estadísticas no están indexadas tendremos menos posibilidades de ser víctimas de estos ataques.
Page-Tagging. Uso de page-tagging en lugar de análisis de logs. Las estadísticas no se generan en base a los logs de acceso, se añade un código en las páginas y si el cliente lo puede ejecutar se guarda la visita en una base de datos. Este código generalmente está en JavaScript, un robot no podrá interpretarlo por lo que no aparecerá en las estadísticas.
Para completar el tema de seguridad en las estadísticas, se debería tener en cuenta como y cuando se generan. El procesado de grandes ficheros de logs para generar las estadísticas es una tarea que supone mucha carga para el servidor y gran consumo de tráfico de red en consultas DNS, acceso a bases de datos GeoIP, etc.. Un usuario normal no debería poder actualizar las estadísticas para evitar posibles ataques de denegación de servicio. Por ello se recomienda que las actualizaciones se hagan desde la linea de comandos. Estas actualizaciones se deberían automatizar para llevarlas a cabo en horas de poca carga, por las madrugadas, fines de semana, etc..
Si las estadísticas son públicas, mucho cuidado con lo que se muestra ;-)
Este es uno de los problemas que más preocupan a los webmasters de su sitio, como bien dicen, no por la molestía de que se hagan publicidad, sino ya por el ancho de banda que puedan consumir, o demás.
Hace poco liberaron un sistema rel=nofollow [microsiervos.com] para que crawlers no sigan estos enlaces (y por lo tanto no suban pageranks).
Yo por el momento, con un sistema de iptables [nautopia.net] he conseguido bloquear todo el spam proviniente de IPs fijas, y el que no, que he comprobado que aparece con distintas ips (IP dinámica) se puede hacer perfectamente con Apache Scripting, con reglas en el .htaccess con el módulo modrewrite [apache.org].
Aunque claro, tampoco he recibido la cantidad de spam que se debe recibir en sitios de visitas masivas. Pero es cuestión de combinar varias de estas técnicas.
--
Emezeta blog [emezeta.com] Oye y a ti como te gusta que te llamen? -Por parametro.
por
pobrecito hablador
el Domingo, 20 Febrero de 2005, 11:35h
(#448961)
Buenas
El equipo de BBclone.de ya ha implementado el hash para que no se puedan seguir por buscadores
http://www.bbclone.de/demo/
http://www.bbclone.de/demo/show_detailed.php?lng=e s
Son las estadísticas que yo uso.
Por otra parte, lo de no hacerlas públicas, parece fácil pero no lo és, por ejemplo yo, me metí desde las estadísticas de mi página a la web de bbclone para ver si había una nueva versión, apareció el referer en las estadisticas detalladas de la web de bbclone y ahora google tiene indexadas mis estadisticas "privadas" xD
Mi web (exocert.com) tuvo la semana pasada un ataque de refeer spam, y se resolvió inmediatamente con un simple email al ISP del Spammer indicando *educadamente*, eso sí en inglés, que mi web estaba recibiendo una cantidad de hits desmesurada de una de sus direcciones IPs y que de tratarse de un caso de DoS tomaríamos las acciones legales oportunas.
En un par de horas se terminó el problema, y al día siguiente tenía un email del ISP diciendome que la cuenta del cliente en cuestión había sido cerrada.
Hacer Spam/DoS *suele* violar el contrato de prestación de servicios de cualquier ISP.
--
-- Escrito desde algun lugar de mOOtion [mootion.com] - mOOving pictures.
...el no mostrar las estadísticas. El spam va a seguir viniendo igual. Yo no muestro las estadísticas por ningún sitio (son unas AWStats protegidas por contraseña) y tengo los logs llenos de referrers con basura.
Podéis crear un .htaccess para ir resolviendo el problema provisionalmente. Este es para bloquear los referrers que tengan cualquier palabra de las señaladas (van todas en una línea, lo que pasa es que aquí aparecen cortadas):
RewriteEngine On
RewriteBase /
SetEnvIfNoCase Referer ".*(credit|canadianlabels|8gold|texas-hold|hold-em |holdem|fidelityfunding|condo|sportsparent|mortgag e|spoodles|money|cash|hotel|houseofseven|stmaryonl ine|newtruths|popwow|oiline|flafeber|thatwhichis|t msathai|pisoc|crepesuzette|mediavisor|commerce|eas ymoney|911|////.vi|gb////.com|free|macsurfer|teen| pussy|discount|blogincome|lillystar|aizzo|webdevsq uare|laser-eye|escal8|xopy|vixen1|linkerdome|youra dulthosting|fick|inkjet-toner|fuck|ime.nu|perfume- cologne|italiancharmsbracelets|shoesdiscount|psnar ones|hasfun|casino|gambling|poker|porn|sex|paris|g abriola|nude|xxx|hilton|pics|video|adminshop|devad dict|iaea|empathica|insuranceinfo|atelebanon|handy -sms|peng|just-deals|pisx|rimpim|kylos|livenet|ski p|viagra|phentermine|yelucie|party|crescentarian|f reakycheat|terashell|portali|nett|ronnieazza|valiu m|buy|future-2000).*" ReferrersSpameros
order deny,allow
deny from env=ReferrersSpameros
Estuve mucho tiempo intentando dar una solución al spam por trackback. Ya hice algo muy sencillo que solucionó el spam por comentarios [dif.um.es] (ninguno desde que lo puse).
Pero en seguida empezó el spam por trackback. Probé primero a cambiar la URL sobre la que se hace trackback, pero eso sólo duró un tiempo (como me imaginaba).
Sin embargo, se me ha ocurrido una cosa que parece eliminar el problema del spam en los trackbacks: aquí lo describo [dif.um.es]. La idea es hacer que los enlaces de trackback sean válidos sólo por un tiempo. Así, una persona que quiera hacer un trackback puede copiar la URL y ponerla en su historia y hacer el trackback, pero un spammer que "recuerde" la dirección donde enviar el trackback no le valdrá de nada, porque cada dirección de trackback tiene una validez.
El éxito de esta técnica tiene que ver con la manera de funcionar de los spammers. Tienen dos procesos separados: uno de robots que busca weblogs y quizá las URLs para hacer posts de comentarios y de trackbacks (con lo que construyen una base de datos); y otro de envío masivo de comentarios spam, por ejemplo, cuando alguien les contrata para hacer un flooding de un nuevo producto.
Pues no hagas publicas las estadisticas
(Puntos:2, Interesante)( http://barrapunto.com/ | Última bitácora: Domingo, 13 Febrero de 2005, 01:29h )
Por ejemplo, ¿que pasa si alguien accede a una pagina que crees que no es accesible desde ninguna otra?
Pues que saldria en las estadisticas, por ejemplo en awstats y automaticamente el Sr. Google te la enlazaria como un champion. Como esta pagina tuviese informacion chunga....
Solución
(Puntos:3, Informativo)Crear un robots.txt con el siguiente contenido:
User-agent: *
Disallow: /usage/
A partir de ahí los bots de búsqueda no mirarán en el directorio de las estadísticas. No soluciona el SPAM pero evita que haga subir pagerank a los spammers. Poner filtros «Ignore» en webalizer (o similares) también sirve
Ancho de banda
(Puntos:2)( http://www.eines.cat/ | Última bitácora: Domingo, 21 Junio de 2009, 17:45h )
:wq
Xarxa Eines.cat [eines.cat]
Sobre el referer spam
(Puntos:4, Informativo)( http://woop.es/ | Última bitácora: Martes, 22 Marzo de 2005, 14:02h )
Como ya ha apuntado SegFault, no es un sistema nuevo. En octubre del 2004 puse una entrada en mi bitácora hablando sobre ello: Log hijacking, secuestro de log de referidos [barrapunto.com]. Un breve resumen de como evitarlo:
Para completar el tema de seguridad en las estadísticas, se debería tener en cuenta como y cuando se generan. El procesado de grandes ficheros de logs para generar las estadísticas es una tarea que supone mucha carga para el servidor y gran consumo de tráfico de red en consultas DNS, acceso a bases de datos GeoIP, etc.. Un usuario normal no debería poder actualizar las estadísticas para evitar posibles ataques de denegación de servicio. Por ello se recomienda que las actualizaciones se hagan desde la linea de comandos. Estas actualizaciones se deberían automatizar para llevarlas a cabo en horas de poca carga, por las madrugadas, fines de semana, etc..
Si las estadísticas son públicas, mucho cuidado con lo que se muestra ;-)
Estadísticas
(Puntos:2, Interesante)( http://www.emezeta.com/ )
Hace poco liberaron un sistema rel=nofollow [microsiervos.com] para que crawlers no sigan estos enlaces (y por lo tanto no suban pageranks).
Yo por el momento, con un sistema de iptables [nautopia.net] he conseguido bloquear todo el spam proviniente de IPs fijas, y el que no, que he comprobado que aparece con distintas ips (IP dinámica) se puede hacer perfectamente con Apache Scripting, con reglas en el .htaccess con el módulo modrewrite [apache.org].
Aunque claro, tampoco he recibido la cantidad de spam que se debe recibir en sitios de visitas masivas. Pero es cuestión de combinar varias de estas técnicas.
Emezeta blog [emezeta.com]
Oye y a ti como te gusta que te llamen? -Por parametro.
Algunas estadísticas lo solucionan
(Puntos:1, Interesante)Hablar con su ISP suele funcionar
(Puntos:2)( http://exocert.com/ )
En un par de horas se terminó el problema, y al día siguiente tenía un email del ISP diciendome que la cuenta del cliente en cuestión había sido cerrada.
Hacer Spam/DoS *suele* violar el contrato de prestación de servicios de cualquier ISP.
-- Escrito desde algun lugar de mOOtion [mootion.com] - mOOving pictures.
No sirve de nada...
(Puntos:2, Interesante)( http://barrapunto.com/ )
...el no mostrar las estadísticas. El spam va a seguir viniendo igual. Yo no muestro las estadísticas por ningún sitio (son unas AWStats protegidas por contraseña) y tengo los logs llenos de referrers con basura.
Podéis crear un .htaccess para ir resolviendo el problema provisionalmente. Este es para bloquear los referrers que tengan cualquier palabra de las señaladas (van todas en una línea, lo que pasa es que aquí aparecen cortadas):
Tenéis que tener activado el mod_rewrite.Aproximación para solucionar el spam de trackbacks
(Puntos:3, Informativo)( http://neuromancer.inf.um.es/fm | Última bitácora: Jueves, 20 Enero de 2005, 13:05h )
Estuve mucho tiempo intentando dar una solución al spam por trackback. Ya hice algo muy sencillo que solucionó el spam por comentarios [dif.um.es] (ninguno desde que lo puse).
Pero en seguida empezó el spam por trackback. Probé primero a cambiar la URL sobre la que se hace trackback, pero eso sólo duró un tiempo (como me imaginaba).
Sin embargo, se me ha ocurrido una cosa que parece eliminar el problema del spam en los trackbacks: aquí lo describo [dif.um.es]. La idea es hacer que los enlaces de trackback sean válidos sólo por un tiempo. Así, una persona que quiera hacer un trackback puede copiar la URL y ponerla en su historia y hacer el trackback, pero un spammer que "recuerde" la dirección donde enviar el trackback no le valdrá de nada, porque cada dirección de trackback tiene una validez.
El éxito de esta técnica tiene que ver con la manera de funcionar de los spammers. Tienen dos procesos separados: uno de robots que busca weblogs y quizá las URLs para hacer posts de comentarios y de trackbacks (con lo que construyen una base de datos); y otro de envío masivo de comentarios spam, por ejemplo, cuando alguien les contrata para hacer un flooding de un nuevo producto.
Resultado: ni un spam "so far" :)
Y voilà, conmigo los spammers lo llevan claro :P
Saludos!
diego