Añadir leyenda |
TERMINATOR
TERMINATOR
TERMINATOR
Ayer Yahoo! Movies publicó nuevos posters y algunas imágenes de Terminator Salvation.
En la película "Terminator", la computadora Skynet
toma conciencia y concluye que la mayor amenaza para la humanidad que
protege es la misma humanidad, por lo que programa su exterminio y
desata una guerra entre seres humanos y robot-androides asesinos.
Pese a ser este un escenario de pura fantasía,
la amenaza robótica ha pasado de ser un recurso común de la ciencia
ficción a un tema que se toman muy en serio organismos internacionales,
gobiernos y prestigiosas universidades.
Los últimos en lanzar la voz de
alarma han sido dos profesores de la Universidad de Cambridge, que junto
con el cofundador de Skype, Jaan Tallinn, anunciaron esta semana la
creación de un Centro para el Estudio de Riesgos Existenciales (CSER),
el cual -entre otros temas- analizará cuán plausible es la idea de que
un día las máquinas inteligentes se vuelvan en nuestra contra.
Riesgo subestimado
Según los científicos, subestimar los riesgos
que entrañan los robots inteligentes sería "peligroso", teniendo en
cuenta lo rápido que avanza el campo de la Inteligencia Artificial.
Anders Sandberg y Nick Bostrom, filósofos de la
Universidad de Oxford, estiman en su trabajo "Emular un cerebro
completo: un mapa de ruta" que a mediados de este siglo ya seremos
capaces de reproducir un cerebro humano en silicio.
Los propulsores del CSER aseguran que, llegados a
ese punto, estas máquinas podrían empezar a programar computadoras por
su cuenta, lo que daría lugar a una "explosión de la inteligencia".
En poco tiempo, los seres humanos quedaríamos
muy por detrás de los robots, estos escaparían a nuestro control y la
humanidad quedaría a merced de máquinas superiores.
Este control no sería violento, ya que las
máquinas carecerían de emociones como la ira. Pero si nos cruzáramos en
su camino, seríamos para ellos como esos insectos que chocan contra el
parabrisas de nuestro auto.
Robots asesinos
No todos los científicos comparten la creencia
de que un día seremos capaces de diseñar un cerebro electrónico similar
al humano, ni que esta tecnología termine suponiendo un peligro para la
civilización.
Hay quienes temen que la amenaza en realidad provenga de gobiernos y ejércitos más que de las máquinas en sí.
Este mes, la organización Human Rights Watch
hizo un llamado a todos los gobiernos del mundo para que detengan el
desarrollo de los llamados "robots asesinos", autómatas que sustituirían
al hombre en los conflictos bélicos.
La ONG presentó un documento de 50 páginas en el
que expertos como el profesor de inteligencia artificial Noel Sharkey,
de la Universidad de Scheffield, en Reino Unido, les piden a países como
Estados Unidos, China, Corea y Rusia que paralicen el desarrollo de
armas que funcionen de forma totalmente autónoma.
Según detallan en el informe, aunque estos armas
totalmente autónomas todavía no existen, la tecnología se mueve
rápidamente en esa dirección.
"Estos robots armados pueden ser una realidad en décadas, y los militares están invirtiendo cada vez más en su desarrollo".
Una tecnología semejante, dicen, pondría en
peligro la vida de miles de civiles durante conflictos armados, al no
tener estas máquinas emociones que les permitan tomar decisiones de vida
o muerte, antes en manos de soldados humanos.
Sólo un montón de metal
Afortunadamente, todavía quedan científicos que
le quitan leña al asunto y dudan de que un alzamiento de robots
inteligentes sea posible.
Es el caso del Dr. Kerstin Dautenhahn, profesor
de Inteligencia Artificial de la Universidad de Hertfordshire, en Reino
Unido, quien afirma que no hay nada que temerles a los robots.
"Son un montón de metal (...) No tienen agenda, esa es la diferencia con las películas", le dijo Dautenhahn a la BBC.
"No deberían temerles a los robots. Si tienen miedo, le tienen miedo a la gente que los construye".
Siga la sección de tecnología de BBC Mundo a través de clic
clic
@un_mundo_feliz
BBC Mundo Noticias
Guillermo Gonzalo Sánchez Achutegui
ayabaca@gmail.com
ayabaca@hotmail.com
ayabaca@yahoo.com
Inscríbete en el Foro del blog y participa : A Vuelo De Un Quinde - El Foro!
No hay comentarios:
Publicar un comentario
Por favor deja tus opiniones, comentarios y/o sugerencias para que nosotros podamos mejorar cada día. Gracias !!!.