Historias
Slashboxes
Comentarios
 
Este hilo ha sido archivado. No pueden publicarse nuevos comentarios.
Mostrar opciones Umbral:
Y recuerda: Los comentarios que siguen pertenecen a las personas que los han enviado. No somos responsables de los mismos.
  • por pobrecito hablador el Viernes, 22 Octubre de 2010, 08:22h (#1246395)
    O tal vez esos crecimientos exponenciales se vieron limitados por un limite inherente a la razon que desato esos crecimientos. Aun tenemos combustibles fosiles, y sin embargo el crecimiento exponencial de tecnologias basadas en los mismos se detuvo hace mucho tiempo. Aun tenemos recursos para avanzar electronicamente, pero el crecimiento exponencial de la electronica se detuvo hace mucho.

    Yo diria que mas bien la humanidad explota cada nuevo avance hasta el maximo posible, y entonces se da un nuevo avance.

    [ Padre ]
  • Tan probable como que si se da un tipo de arma capaz de destruir la humanidad entera, el Ser humano, al conocer el peligro, limite la construcción de esas armas.
    ¿Y cuál es la semejanza? No voy por ahí, sino que ante una inteligencia sobrehumana, si te dicen que la respuesta a la vida es 43, o que lo óptimo para el planeta es que el virus de la raza humana muera, o cualquier decisión trascendente, ¿cómo sabes que la intención última es el beneficio de la humanidad y su entorno, sino programando un algoritmo que cuadre con los valores humanos, y por tanto necesite de variables cuya elección, al ser humana, ya parten con un defecto de concepción?.

    Hasta ahora los crecimientos exponenciales han tenido un límite porque dependían de algún recurso finito. En el caso de la singularidad el recurso es la inteligencia.
    Hablas de conceptos muy abstractos, y no me parece mal, pero se pierde el fondo ¿qué es la inteligencia ilimitada? ¿Acaso no están establecidos los procesos lógicos del pensamiento, y lo que resta son mayores conexiones cibernéticas? Y cuando objetivamente se tengan en cuenta TODAS las variables y se disponga de un resultado, ¿quién se atreve a elegir un camino u otro en un mar de probabilidades, siendo varias elecciones válidas o probablemente exitosas? Al final vuelve a estar en manos de un humano decidir.

    La IA sobrehumana puede servirnos para profundizar en el fractal llamado ciencia, pero la política (toma de decisiones), será igual de desastrosa y primarán intereses ajenos a la intención original. Y si no, dile a los políticos que a partir de ahora nos vamos a dejar gobernar por una súper IA (y dejarles sin trabajo), a ver si les apetece cambiar las leyes y la constitución.

    --
    El software libre sólo muere cuando la última copia del código fuente es borrada.
    [ Padre ]