Desgraciadamente la singularidad que tanto gusta a los fans de Ray Kurzweil [aplawrence.com] peca de la misma ingenuidad que las teorías positivistas del siglo XIX y XX "El progreso", como la obra de Olaf Stapledon.
El problema con estas "trascendencias" o "singularidades" es el mismo hoy que antes: La humanidad está compuesta de individuos y la enorme mayoría no estamos absolutamente nada interesados en "evolucionar" o "trascender". No somos más listos ahora que cuando empezamos a migrar desde el continente africano. Ni siquiera hay más información, ni esta nos llega más rápido; La información no es lo que transmiten los medios, es sólo lo que nuestros sentidos hacen llegar a nuestro cerebro para ser elaborada y usada en interactuar con el mundo real. No somos un organismo colectivo por muchas redes sociales y FOAF, tenemos una cantidad de amigos / conocidos determinada, sólo que antes estaban en el vecindario y ahora pueden estar repartidos entre Nueva York y Tombuctú. Pero el desinterés de la misma humanidad en trascender no es el único escollo a las "singularidades", hay otros escollos.
Uno de ellos es la entropía y esta se manifiesta en muchos avatares que se toman una gran molestia en fastidiar al pobre Ray K:
La limitación de los recursos, desde el petróleo a los minerales suponen un freno a la expansión de tecnologías nuevas a nivel universal, aunque se trate de biotecnologías o micromáquinas.
Teniendo sólo en cuenta la facilidad de acceso a los conocimientos: El que todos los 6.000 millones largos de habitantes del mundo tuviéramos los conocimientos de Albert Einstein no haría que entrásemos en una singularidad mental, solamente que todos seríamos igual de listos, pero dudo mucho de que nuestra sociedad se viera afectada e hiciera que nos convirtiéramos en sabios telépatas de batas blancas, en cyborgs jipis o en mentes incorpóreas omniscientes... seguiríamos siendo lo que somos: Un enorme puñado de simios.
Este... la tecnología tiene que ver más con "ideas" que con "materiales", y sí que nos llegan más ideas que hace 200 años; aunque estemos igual de limitados por la capacidad de nuestros sentidos, ahora ¡por fin podemos aprovecharla al 100%! Pero eso no importa, pues es perfectamente posible que algún día seamos capaces de aumentar nuestra capacidad, por ejemplo conectando un "Google Brain Implant (tm)"... incluso parecería que fuésemos telépatas.
La singularidad a la que se refiere sería precisamente eso: un punto en el que "algo" sería capaz de predecir el futuro (sea una IA o unos simios conectados a Google), mientras que nosotros -simios a secas- no podríamos ni imaginarnos cómo puede ser esa predicción.
De todas formas... ni tanto, ni tan poco.
Lo único que está ocurriendo, es que nuestra capacidad de predicción se está reduciendo, y seguirá reduciéndose mientras haya avances en los sistemas de procesamiento de información (lo que vulgarmente llamamos informática). En cuanto al límite para esa reducción... hay dos, que no tienen nada que ver con la limitación de recursos, ni la (des)gana de nadie para trascender o no:
Toda acción inteligente, requiere una predicción, que requiere un tiempo superior a ceroantes de dicha acción. Por ello, es imposible "alcanzar" la singularidad, sólo acercarse a ella.
La transmisión de información está limitada a la velocidad de la luz. Por muy buena que sea la capacidad de predicción, los individuos necesariamente estarán más o menos fragmentados. Siempre se podrá predecir el comportamiento de unos fragmentos en base a la experiencia con otros fragmentos.
Por mucho que evolucionemos, por mucho que cambie la tecnología y el mundo, siempre podremos predecir el futuro... aunque sólo sea a un mes o una hora.
Claro que si para escribir un libro de ciencia ficción hace falta medio año o dos, no habrá nadie capaz de escribir un libro que no esté anticuado nada más salir a la venta.
Singularidad vs. Entropía
(Puntos:3, Interesante)( http://www.flickr.com/photos/runlevel0/ | Última bitácora: Jueves, 01 Noviembre de 2007, 11:37h )
El problema con estas "trascendencias" o "singularidades" es el mismo hoy que antes: La humanidad está compuesta de individuos y la enorme mayoría no estamos absolutamente nada interesados en "evolucionar" o "trascender". No somos más listos ahora que cuando empezamos a migrar desde el continente africano. Ni siquiera hay más información, ni esta nos llega más rápido; La información no es lo que transmiten los medios, es sólo lo que nuestros sentidos hacen llegar a nuestro cerebro para ser elaborada y usada en interactuar con el mundo real. No somos un organismo colectivo por muchas redes sociales y FOAF, tenemos una cantidad de amigos / conocidos determinada, sólo que antes estaban en el vecindario y ahora pueden estar repartidos entre Nueva York y Tombuctú. Pero el desinterés de la misma humanidad en trascender no es el único escollo a las "singularidades", hay otros escollos.
Uno de ellos es la entropía y esta se manifiesta en muchos avatares que se toman una gran molestia en fastidiar al pobre Ray K:
La limitación de los recursos, desde el petróleo a los minerales suponen un freno a la expansión de tecnologías nuevas a nivel universal, aunque se trate de biotecnologías o micromáquinas.
Teniendo sólo en cuenta la facilidad de acceso a los conocimientos: El que todos los 6.000 millones largos de habitantes del mundo tuviéramos los conocimientos de Albert Einstein no haría que entrásemos en una singularidad mental, solamente que todos seríamos igual de listos, pero dudo mucho de que nuestra sociedad se viera afectada e hiciera que nos convirtiéramos en sabios telépatas de batas blancas, en cyborgs jipis o en mentes incorpóreas omniscientes... seguiríamos siendo lo que somos: Un enorme puñado de simios.
29A the Number of the Beast
Re:Singularidad vs. Entropía
(Puntos:2)( http://barrapunto.com/ | Última bitácora: Miércoles, 28 Diciembre de 2005, 12:49h )
La singularidad a la que se refiere sería precisamente eso: un punto en el que "algo" sería capaz de predecir el futuro (sea una IA o unos simios conectados a Google), mientras que nosotros -simios a secas- no podríamos ni imaginarnos cómo puede ser esa predicción.
De todas formas... ni tanto, ni tan poco.
Lo único que está ocurriendo, es que nuestra capacidad de predicción se está reduciendo, y seguirá reduciéndose mientras haya avances en los sistemas de procesamiento de información (lo que vulgarmente llamamos informática). En cuanto al límite para esa reducción... hay dos, que no tienen nada que ver con la limitación de recursos, ni la (des)gana de nadie para trascender o no:
Por mucho que evolucionemos, por mucho que cambie la tecnología y el mundo, siempre podremos predecir el futuro... aunque sólo sea a un mes o una hora.
Claro que si para escribir un libro de ciencia ficción hace falta medio año o dos, no habrá nadie capaz de escribir un libro que no esté anticuado nada más salir a la venta.