Creo recordar que las leyes de la robótica eran 3, y que la prioridad era según el orden, si la 1 es que no se debe dañar a nadie, pues esa es la prioritaria..., saludos
por
pobrecito hablador
el Viernes, 18 Agosto de 2006, 07:13h
(#796518)
Cada una de las tres leyes de la robótica lleva una coletilla estilo "a no ser que esta ley entre en contradicción con la anterior". Dicho de otra manera: si se produce una contradicción entre la segunda y la primera ley, la que manda es la primera y se acabó el conflicto.
La cuarta ley de la robótica que comentan no es tal porque se rompería el orden, es al revés. Un robot llamado Giskard empieza a pensar demasiado y crea la ley Zeroth, que se antepone por prioridad a todas las demás y que viene a priorizar a la humanidad como un todo frente al humano como individuo.
Evidentemente no se pueden predecir las consecuencias a largo plazo de una decisión, pero eso no implica que no se puedan tomar decisiones evaluando un conjunto finito de las opciones más probables en lugar de tirarse hasta el infinito preguntándose "y si?..."
El conflicto entre partes de la primera ley se resuelve, según Asimov cuando el cerebro es suficientemente avanzado para elegir el mal menor. Sin embargo, según lo describe Asimov, el hecho de violar una parte de la ley para satisfacer la otra produce al cerebro unos potenciales tan elevados que terminan por destruirlo.
O sea, que según Asimov, poner al robot en la situación de tener que elegir la muerte de una persona para salvar la vida de miles puede llegar a destruirlo... bueno, a no ser que sea suficientemente inteligente para comprenderlo en profundidad (Los Robots del Amanecer).
por
pobrecito hablador
el Viernes, 18 Agosto de 2006, 12:25h
(#796704)
Si tu crees que van a morir 1000 personas, pero que matando a bush solo morirían 500 ¿debes usar el software GPL para matar a bush?
Qué moderno es barrapunto, si tenemos hasta talibanes antidemócratas.
Re:Primera Ley
(Puntos:0)Re:Primera Ley
(Puntos:2, Informativo)Resumiendo
(Puntos:0)La cuarta ley de la robótica que comentan no es tal porque se rompería el orden, es al revés. Un robot llamado Giskard empieza a pensar demasiado y crea la ley Zeroth, que se antepone por prioridad a todas las demás y que viene a priorizar a la humanidad como un todo frente al humano como individuo.
Evidentemente no se pueden predecir las consecuencias a largo plazo de una decisión, pero eso no implica que no se puedan tomar decisiones evaluando un conjunto finito de las opciones más probables en lugar de tirarse hasta el infinito preguntándose "y si?..."
Re:Primera Ley
(Puntos:2)( http://barrapunto.com/ )
O sea, que según Asimov, poner al robot en la situación de tener que elegir la muerte de una persona para salvar la vida de miles puede llegar a destruirlo... bueno, a no ser que sea suficientemente inteligente para comprenderlo en profundidad (Los Robots del Amanecer).
Re:Primera Ley
(Puntos:0)