Hace tiempo hice un pequeño CMS [celtric.org], y usaba enlaces normales para acciones de administración. Eso sí, siempre se accede a una página con un checkbox de confirmación para comprobar que no se ha clicado por accidente. El problema no es Google, sino que los webmasters no suelen pensar en errores humanos, y creen que lo harán todo perfecto. ¡Hay que ser paranoicos!
--
__________________________________________________ Gentlemen, you can't fight in here! This is the War Room!
El estándar dice que las peticiones a través de GET deben ser seguras y repetibles sin producir efectos adicionales (idempotentes)
Sin contar con que las páginas de administración, como los paneles de control de los CMS, en mi opinión, no deberían estar enlazadas desde el sitio principal (ni desde ningún otro) y que el robots.txt debería indicar los sitios que están vetados a los robots usando Disallow:
¿Quiere decir esta noticia que poner un enlace del tipo "ref='javascript:document.location()'" no son correctos para el W3C o únicamente que no son correctos si llevan parámetros variables en el GET?
Lo digo más que nada porque lo segundo lo entendería, pero lo primero no, ¿qué tiene de malo poner un link de "inicio" que te lleve al principio de tu página sin un formulario? es más ¿qué ventaja tiene hacerlo con un formulario y por post si incluso es posible que en ese formulario no se pase ningún parámetro a la otra página?
Salu2mañaneros
Además al desarrollar para Internet no suele bastar (por mucho que pese) con cumplir los estándares sino que deben tenerse en cuenta los estándares "de facto" y si esa aplicación puede precachear en CMS páginas que no debería y arruinar un sitio, pues muy mal. ¿O estariais más contentos si gmail sólo aceptase correos que cumplan todos los estándares? ¿y si el GWA rechazase una página que se haya servido sin cumplir todo HTTP o con un HTML no válido?
por
pobrecito hablador
el Lunes, 09 Mayo de 2005, 07:22h
(#498835)
Los estandares se crean precisamente para permitir a los desarrolladores crear aplicaciones y sistemas que interactuen juntos sin problemas.
Los que pasa es que generalmente somos muy comodos y preferimos utilizar, debido a malas costumbres, elementos que son para otras cosas.
El resultado es claro: google no incumple ningun estandar, por lo tanto han echo bien su trabajo. Si una pagina tiene problemas es por culpa de su desarrollo: en su momento no se tubo en cuenta el estandar y ahora pasa lo que pasa.
Por cierto, no existen "estandares de facto", al final, solo vale lo que esta escrito. Por eso muchos nos pegamos y nos matamos pensando y buscando formas de hacer las cosas conforme a los estandares. Le damos vueltas y mas vueltas. Tardamos mas? si, pero hacemos las cosas bien y luego no tenemos problemas.
Por que digo todo esto? Pues bien, llevaba 5 años comiendome marrones en internet, por que cada uno hace lo que le da la gana, no sabeis que cantidad de errores se eliminarian, ni como aumentaria la compatibilidad entre navegadores, si al menos se respetase el marcado en html (ya sabeis, cerrar etiquetas y esas cosas que no sirven para nada), que bien nos ha venido xml para eso...
Nadie te obliga a seguir esas "normas", pero si no lo haces, no puedes quejarte... No puedes "adaptar" el estandar a tus necesidades, y luego decir que es que lo hace todo el mundo...
Firma:
Un desarrollador cabreado, y no con google precisamente...
:P
por
pobrecito hablador
el Lunes, 09 Mayo de 2005, 07:43h
(#498848)
"Desde hace unas horas, Google ha dejado de ofrecer las descargas de 'Web Accelerator', la aplicación que permite ahorrarnos algo de tiempo en las descargas de páginas web y que dispone de algunos 'fallos'.
Si accedemos a la página web, nos encontramos con un mensaje que advierte: "Muchas gracias por su interés en Google Web Accelerator. En este momento hemos llegado al número máximo de usuarios y estamos trabajando activamente para poder aumentar esta cifra de usuarios que podemos soportar".
Sin embargo, el enlace al ejecutable sí está disponible, y podemos instalarlo y acceder sin problemas al servicio."
Es harto conocido que muchas de las web no siguen los estandares, estoy cansado de ver webs (carrefour.es ... ups! perdon hay que poner las sagradas "www" delante!) que solo se ven/funcionan en iExplorer.
Partiendo de ese hecho, creo que hay que andarse con cuidado de hacer algo que suponga QUE TODO EL MUNDO HACE TODO BIEN.
¿Cuantas webs hay hechas con Dreamweaver por chimpances entrenados, a los que poco les importa el tema de los estandares mientras el flash se vea bonito?
Mientras los estandares no se tomen en serio, esto no tiene vistas de mejorar.
Hoy en día existe mucho inepto haciendo páginas web. Ineptos que no saben de la existencia de más navegadores que el Explorer 5 y 6 (como mucho). Si resulta que de la forma que sea, Google es capaz de provocar quejas en los webmasters que administran esas webs basura, para mí es una buena noticia.
Es decir, si los usuarios de esas páginas notan que funcionan mal y pos lo que sea llegan a pensar que es culpa de los chapuceros e incompetentes de sus administradores de pacotilla, tal vez esto sea una buena noticia.
--
-- ~ mírale, ahí va... con su mujer y mi hijo... ~
Re:Un apunte
de Phrodo_00
(Puntos:1)
Martes, 10 Mayo de 2005, 00:23h
por
pobrecito hablador
el Lunes, 09 Mayo de 2005, 08:05h
(#498865)
Lo del famoso "proxy-cache" de Timofónica? Pues básicamente vienen a ser las mismas cuestiones, y lo más gracioso de todo es que, de otra forma, estamos reproduciendo las mismas discusiones de entonces... Al final, el famoso proxy se quedó en nada, porque aprovechaba un comportamiento del Exploiter que era fácil de driblar sin mucho problema...
Además, no entiendo el porqué de esta aplicación... Vale que hay mucha gente con conexiones lentas, pero no nos encontramos en los puntos críticos del 98, 99 y 2000, cuando era imposible navegar y todo era lentísimo... Más bien apoyo la idea de que se trata de una cuestión estratégica de Google más que de un intento de ayuda a la Red...
por
pobrecito hablador
el Lunes, 09 Mayo de 2005, 08:10h
(#498868)
Estoy muy satisfecho de que Google saque esta herramienta. Esto permitirá que las aplicaciones web mejoren cada vez más. Espero que no dejen de distribuir esta aplicación.
Aunque claro, en todos los sitios cuecen habas: 1. Muchas páginas de Google no validan. 2. Confieso que una vez hice una aplicación en la que utilicé incorrectamente el método GET (llamaré a mi antigua empresa para advertir de esto).
Rectificar es de sabios.
Re:¡Bien por Google!
de pobrecito hablador
(Puntos:0)
Lunes, 09 Mayo de 2005, 09:36h
Para todo el que diga que si el estandar dice, que si se debería, ...
El estandar de facto es que se utiliza indistintamente GET y POST independientemente de que se haga.
Por ejemplo el tan aclamado Ruby on Rails [rubyonrails.com] te permite meter un comado del tipo:
Esto es una petición GET, y hasta hoy no habia habido problemas.
Lo importante es diseñar las herramientas para trabajar en el mundo real, ya que siempre hay alguien que no sigue los estandares [microsoft.com].
En mi caso, probablemente tenga enlaces activos get. Aunque reservo algo asi para paneles de administracion, que de todos modos solo van a ser usados por una sola persona bajo unas condiciones que yo controlo. En otras palabras, si yo digo que hay que usar el panel de control con opera, con javascript, y con user agent "sesamo-admin", se hace asi y punto. Esto se puede hacer porque un panel de control no es publico. Igualmente podria ser implementado como una aplicacion de escritorio que subiera ficheros de configuracion por ftp. De todos modos estare mas atento a partir de ahora. Nunca puedes saber cuando un proxy "transparente" se pone enmedio y hace de la suyas.
por
pobrecito hablador
el Lunes, 09 Mayo de 2005, 11:36h
(#499028)
Sin entrar en otras consideraciones, temo que quizá éste Google Web Accelerator me haga la puñeta.
Yo tengo una página alojada en un servidor gratuito con la transeferencia mensual limitada. Una de las páginas es un índice que apunta prácticamente a todo el contenido de la web. Si el usuario entra en esa página... el Google Web Accelerator ¿va a descargar todos los enalces, por tanto, la casi totalidad de la web? Por que se podría comer mi ancho de banda en un pis pas... aparte de cargar un poco el servidor con muchas peticiones con páginas con PHp y MySQL...
Espero que haya una directiva para decirle que se esté quietecito en mi página...
Problema del webmaster
(Puntos:3, Informativo)__________________________________________________
Gentlemen, you can't fight in here! This is the War Room!
Sacar la administración del sitio principal
(Puntos:2, Inspirado)( http://www.titerenet.com/ | Última bitácora: Martes, 08 Julio de 2008, 17:24h )
El estándar dice que las peticiones a través de GET deben ser seguras y repetibles sin producir efectos adicionales (idempotentes)
Sin contar con que las páginas de administración, como los paneles de control de los CMS, en mi opinión, no deberían estar enlazadas desde el sitio principal (ni desde ningún otro) y que el robots.txt debería indicar los sitios que están vetados a los robots usando Disallow:
Firme aquí
¿Esto quiere decir...?
(Puntos:1)( http://barrapunto.com/ )
Lo digo más que nada porque lo segundo lo entendería, pero lo primero no, ¿qué tiene de malo poner un link de "inicio" que te lleve al principio de tu página sin un formulario? es más ¿qué ventaja tiene hacerlo con un formulario y por post si incluso es posible que en ese formulario no se pase ningún parámetro a la otra página?
Salu2mañaneros
Utilizar funciones GET
(Puntos:3, Interesante)( http://barrapunto.com/~SegFault/bitacora | Última bitácora: Jueves, 25 Agosto de 2011, 13:59h )
Además al desarrollar para Internet no suele bastar (por mucho que pese) con cumplir los estándares sino que deben tenerse en cuenta los estándares "de facto" y si esa aplicación puede precachear en CMS páginas que no debería y arruinar un sitio, pues muy mal. ¿O estariais más contentos si gmail sólo aceptase correos que cumplan todos los estándares? ¿y si el GWA rechazase una página que se haya servido sin cumplir todo HTTP o con un HTML no válido?
Segmentation fault: core dumped [barrapunto.com].
Re:Utilizar funciones GET
(Puntos:4, Interesante)Google ha dejado de ofrecerlo en descargas
(Puntos:2, Informativo)Si accedemos a la página web, nos encontramos con un mensaje que advierte: "Muchas gracias por su interés en Google Web Accelerator. En este momento hemos llegado al número máximo de usuarios y estamos trabajando activamente para poder aumentar esta cifra de usuarios que podemos soportar".
Sin embargo, el enlace al ejecutable sí está disponible, y podemos instalarlo y acceder sin problemas al servicio."
http://google.dirson.com/noticias.new/1313/ [dirson.com]
¿Estandares? ¿¿¿Que son???
(Puntos:1)( http://wmute.blogspot.com/ )
Partiendo de ese hecho, creo que hay que andarse con cuidado de hacer algo que suponga QUE TODO EL MUNDO HACE TODO BIEN.
¿Cuantas webs hay hechas con Dreamweaver por chimpances entrenados, a los que poco les importa el tema de los estandares mientras el flash se vea bonito?
Mientras los estandares no se tomen en serio, esto no tiene vistas de mejorar.
Un apunte
(Puntos:3, FueraDeTema)( http://barrapunto.com/ )
Es decir, si los usuarios de esas páginas notan que funcionan mal y pos lo que sea llegan a pensar que es culpa de los chapuceros e incompetentes de sus administradores de pacotilla, tal vez esto sea una buena noticia.
--
~ mírale, ahí va... con su mujer y mi hijo... ~
-1: Fuera de Tema
(Puntos:-1, FueraDeTema)De BandaAncha
(··)/"" M.A. [iberbanda.es]
¿A nadie le recuerda...
(Puntos:1, Inspirado)Además, no entiendo el porqué de esta aplicación... Vale que hay mucha gente con conexiones lentas, pero no nos encontramos en los puntos críticos del 98, 99 y 2000, cuando era imposible navegar y todo era lentísimo... Más bien apoyo la idea de que se trata de una cuestión estratégica de Google más que de un intento de ayuda a la Red...
¡Bien por Google!
(Puntos:1, Interesante)Aunque claro, en todos los sitios cuecen habas: 1. Muchas páginas de Google no validan. 2. Confieso que una vez hice una aplicación en la que utilicé incorrectamente el método GET (llamaré a mi antigua empresa para advertir de esto).
Rectificar es de sabios.
Ruby on Rails
(Puntos:2)( http://www.hhmmss.com/ | Última bitácora: Miércoles, 18 Febrero de 2004, 11:28h )
---
Periódicos y Viñetas del día [hhmmss.com]
entorno
(Puntos:1)( Última bitácora: Viernes, 03 Febrero de 2012, 15:18h )
Me veo en problemas...
(Puntos:0)Yo tengo una página alojada en un servidor gratuito con la transeferencia mensual limitada. Una de las páginas es un índice que apunta prácticamente a todo el contenido de la web. Si el usuario entra en esa página... el Google Web Accelerator ¿va a descargar todos los enalces, por tanto, la casi totalidad de la web? Por que se podría comer mi ancho de banda en un pis pas... aparte de cargar un poco el servidor con muchas peticiones con páginas con PHp y MySQL...
Espero que haya una directiva para decirle que se esté quietecito en mi página...