Share to: share facebook share twitter share wa share telegram print page

 

Centro para el Estudio del Riesgo Existencial

Centro para el Estudio del Riesgo Existencial
Tipo Centro de investigación
Objetivos Educación superior e investigación
Fundación 2012
Fundador Huw Price, Lord Martin Rees, Jaan Tallinn
Sede central Cambridge, Inglaterra
Sitio web cser.org

El Centro para el Estudio del Riesgo Existencial (CSER) es un centro de investigación de la Universidad de Cambridge creado para el estudio de posibles amenazas catastróficas causadas por la tecnología presente o futura. Los fundadores del centro fueron Huw Price (profesor de filosofía en la Universidad de Cambridge), Sir Martin Rees (astrónomo y antiguo presidente de la Royal Society) y Jaan Tallinn (programador informático y cofundador de Skype).[1]​ Entre los asesores del CSER se encuentran el filósofo Peter Singer, el informático Stuart J. Russell, el estadístico David Spiegelhalter y los cosmologistas Stephen Hawking y Max Tegmark.[2]​ Su objetivo es "dirigir una pequeña fracción de los grandes recursos intelectuales de Cambridge, y de la reputación construida sobre su pasada y presente preeminencia, a la tarea de garantizar que nuestra propia especie tenga un futuro a largo plazo."[3]

Áreas de enfoque

La fundación del centro fue anunciada en noviembre de 2012. Su nombre proviene concepto de riesgo existencial, o riesgo "donde un resultado adverso podría aniquilar la vida inteligente originada en la Tierra o reducir permanente y drásticamente su potencial". Este concepto fue declarado por el filósofo de la Universidad de Oxford, Nick Bostrom.[4]​ Esto incluye tecnologías que podrían agotar permanentemente los recursos de la humanidad, o bloquear futuros avances científicos, además de aquellas que ponen a la propia especie en peligro.

Entre los riesgos a estudiar por el centro están aquellos que puedan aparecer con el desarrollo de la inteligencia artificial, riesgos que en algunos artículos de prensa son comparados con el levantamiento de robots de la película The Terminator.[5][6]​ Sobre este caso, el profesor Price manifestó que "parece una predicción razonable que, en algún momento de este siglo o del siguiente, la inteligencia escapará de las restricciones de la biología". Price añadió que, de ocurrir, "ya no seremos los seres más inteligentes" y nos arriesgaremos a estar a merced de "máquinas que no son maliciosas, pero cuyos intereses no nos incluyen a nosotros".[7]​ Price ha mencionado también que la Biología sintética es peligrosa porque "como resultado de nuevas innovaciones, los pasos necesarios para producir un virus armado u otro agente bioterrorista han sido dramáticamente simplificados", y que en consecuencia "el número de individuos necesarios para eliminarnos a todos está disminuyendo abruptamente".[8][9]

Otras tecnologías que el CSER busca evaluar son, entre otras, la nanotecnología molecular[10]​ y los peores escenarios del cambio climático.[11]

Referencias

  1. Lewsey, Fred (25 de noviembre de 2012). «Humanity's last invention and our uncertain future». Research News. Consultado el 24 de diciembre de 2012. 
  2. «About CSER». Centro para el Estudio del Riesgo Existencial. 
  3. Connor, Steve (14 de septiembre de 2013). «Can We Survive?». The New Zealand Herald. 
  4. Bostrom, Nick (2002). «Existential Risks: Analyzing Human Extinction Scenarios». Journal of Evolution and Technology 9 (1). Consultado el 27 de marzo de 2014. 
  5. Gaskell, Adi (27 de noviembre de 2012). «Risk of a Terminator Style Robot Uprising to be Studied». Technorati. Archivado desde el original el 30 de noviembre de 2012. Consultado el 2 de diciembre de 2012. 
  6. Naughton, John (2 de diciembre de 2012). «Could robots soon add to mankind's existential threats?». The Observer. Consultado el 24 de diciembre de 2012. 
  7. Hui, Sylvia. «Cambridge to study technology's risks to humans». Associated Press. Archivado desde el original el 1 de diciembre de 2012. Consultado el 30 de enero de 2012. 
  8. Paramaguru, Kharunya (29 de noviembre de 2012). «Rise of the machines: Cambridge University to study technology’s ‘existential risk’ to mankind». Time. Consultado el 2 de mayo de 2014. 
  9. «Riesgos biológicos globales catastróficos». Consultado el 29 de mayo de 2015. 
  10. «Nanotecnología molecular». Centro para el Estudio del Riesgo Existencial. Archivado desde el original el 3 de mayo de 2014. Consultado el 4 de mayo de 2014. 
  11. «Escenarios cambio climático». Consultado el 30 de diciembre de 2017. 

Enlaces externos

Kembali kehalaman sebelumnya


Index: pl ar de en es fr it arz nl ja pt ceb sv uk vi war zh ru af ast az bg zh-min-nan bn be ca cs cy da et el eo eu fa gl ko hi hr id he ka la lv lt hu mk ms min no nn ce uz kk ro simple sk sl sr sh fi ta tt th tg azb tr ur zh-yue hy my ace als am an hyw ban bjn map-bms ba be-tarask bcl bpy bar bs br cv nv eml hif fo fy ga gd gu hak ha hsb io ig ilo ia ie os is jv kn ht ku ckb ky mrj lb lij li lmo mai mg ml zh-classical mr xmf mzn cdo mn nap new ne frr oc mhr or as pa pnb ps pms nds crh qu sa sah sco sq scn si sd szl su sw tl shn te bug vec vo wa wuu yi yo diq bat-smg zu lad kbd ang smn ab roa-rup frp arc gn av ay bh bi bo bxr cbk-zam co za dag ary se pdc dv dsb myv ext fur gv gag inh ki glk gan guw xal haw rw kbp pam csb kw km kv koi kg gom ks gcr lo lbe ltg lez nia ln jbo lg mt mi tw mwl mdf mnw nqo fj nah na nds-nl nrm nov om pi pag pap pfl pcd krc kaa ksh rm rue sm sat sc trv stq nso sn cu so srn kab roa-tara tet tpi to chr tum tk tyv udm ug vep fiu-vro vls wo xh zea ty ak bm ch ny ee ff got iu ik kl mad cr pih ami pwn pnt dz rmy rn sg st tn ss ti din chy ts kcg ve 
Prefix: a b c d e f g h i j k l m n o p q r s t u v w x y z 0 1 2 3 4 5 6 7 8 9