De reconocimiento de imágenes nanai de la China (je, qué bien traído).
En todo caso reconocimiento de patrones. Lo que hace el algoritmo es agrupar (clustering) imágenes basándose en el histograma, detección de bordes, topología, etc. A partir de esos datos construye grafos gigantescos de imágenes similares y -ahora sí llega lo "innovador"- asigna valores a los nodos en función de su relevancia. A esta función de afinidad (fitness) le han llamado ImageRank -marca obliga- y se recalcula en función de la relevancia de vértices adyacentes de forma similar a como se hace con el PageRank.
Lo "gordo" es, ¿cómo pasar del dominio de las palabras en una búsqueda al algoritmo? Pues usando metadatos (metadata, tags) que relacionan una imagen con una serie de palabras.
Primero filtran las candidatas usando la búsqueda de imágenes tradicional: según el anchor text, palabras cercanas a la etiqueta img en el documento html, etc.
Después, y aquí es donde yo esperaba la verdadera innovación -snif-, lo que usan son las etiquetas que los usuarios anónimos y voluntarios han asignado mediante aquél conocido jueguecillo y que les ha ahorrado entrenar la IA.
NOTA: Los palabros en inglés no son pura pedantería, es por si algún interesado quiere buscar -en Google, cómo no- información acerca de estas técnicas que, por otro lado, llevan años usándose.
¿Noticia? Pues no sé hasta qué punto. Creo que si los que han presentado el paper no fueran de Google no habría pasado de práctica de universidad, la verdad. La diferencia fundamental es la cantidad de trabajo que les han ahorrado los usuarios voluntarios y la enorme base de datos de imágenes que ya tienen indexadas. Lo del algoritmo ImageRank no pasa de ser una lógica evolución del PageRank. Nada nuevo bajo el sol.
¿Noticia? Pues no sé hasta qué punto. Creo que si los que han presentado el paper no fueran de Google no habría pasado de práctica de universidad, la verdad. La diferencia fundamental es la cantidad de trabajo que les han ahorrado los usuarios voluntarios y la enorme base de datos de imágenes que ya tienen indexadas. Lo del algoritmo ImageRank no pasa de ser una lógica evolución del PageRank. Nada nuevo bajo el sol.
Precisamente. El artículo enlazado en la noticia confirma que hay al menos media docena de servicios similares ya funcionando. Y por no hablar, como tú haces, de investigación en universidades, donde deben haber decenas o centenares de implementaciones comparables.
De reconocimiento de imágenes nanai
(Puntos:5, Interesante)( Última bitácora: Miércoles, 16 Marzo de 2011, 17:03h )
De reconocimiento de imágenes nanai de la China (je, qué bien traído).
En todo caso reconocimiento de patrones. Lo que hace el algoritmo es agrupar (clustering) imágenes basándose en el histograma, detección de bordes, topología, etc. A partir de esos datos construye grafos gigantescos de imágenes similares y -ahora sí llega lo "innovador"- asigna valores a los nodos en función de su relevancia. A esta función de afinidad (fitness) le han llamado ImageRank -marca obliga- y se recalcula en función de la relevancia de vértices adyacentes de forma similar a como se hace con el PageRank.
Lo "gordo" es, ¿cómo pasar del dominio de las palabras en una búsqueda al algoritmo? Pues usando metadatos (metadata, tags) que relacionan una imagen con una serie de palabras.
Primero filtran las candidatas usando la búsqueda de imágenes tradicional: según el anchor text, palabras cercanas a la etiqueta img en el documento html, etc.
Después, y aquí es donde yo esperaba la verdadera innovación -snif-, lo que usan son las etiquetas que los usuarios anónimos y voluntarios han asignado mediante aquél conocido jueguecillo y que les ha ahorrado entrenar la IA.
NOTA: Los palabros en inglés no son pura pedantería, es por si algún interesado quiere buscar -en Google, cómo no- información acerca de estas técnicas que, por otro lado, llevan años usándose.
¿Noticia? Pues no sé hasta qué punto. Creo que si los que han presentado el paper no fueran de Google no habría pasado de práctica de universidad, la verdad. La diferencia fundamental es la cantidad de trabajo que les han ahorrado los usuarios voluntarios y la enorme base de datos de imágenes que ya tienen indexadas. Lo del algoritmo ImageRank no pasa de ser una lógica evolución del PageRank. Nada nuevo bajo el sol.
Ya cansa tanto Google
(Puntos:1)( http://aquerman.bloggerteam.com/ | Última bitácora: Viernes, 08 Junio de 2012, 07:44h )
¿Noticia? Pues no sé hasta qué punto. Creo que si los que han presentado el paper no fueran de Google no habría pasado de práctica de universidad, la verdad. La diferencia fundamental es la cantidad de trabajo que les han ahorrado los usuarios voluntarios y la enorme base de datos de imágenes que ya tienen indexadas. Lo del algoritmo ImageRank no pasa de ser una lógica evolución del PageRank. Nada nuevo bajo el sol.
Precisamente. El artículo enlazado en la noticia confirma que hay al menos media docena de servicios similares ya funcionando. Y por no hablar, como tú haces, de investigación en universidades, donde deben haber decenas o centenares de implementaciones comparables.
Pero como es Google, pues a ponerlo en portada...