Centre pour l'étude des risques existentiels

Le centre pour l'étude des risques existentiels[1] (CSER pour Centre for the Study of Existential Risk en anglais) est un centre de recherche de l'université de Cambridge créé à l'origine pour se concentrer sur l'étude des risques liés à des évolutions de la technologie susceptible de mettre en danger l'avenir même de l'humanité. Le centre a été fondé par les chercheurs Huw Price, Martin Rees et Jaan Tallinn[2].

Centre pour l'étude des risques existentiels
Histoire
Fondation
Cadre
Sigle
(en) CSERVoir et modifier les données sur Wikidata
Type
Siège
Pays
Organisation
Site web
(en) cser.orgVoir et modifier les données sur Wikidata

L'une des études du centre, portant sur les risques existentiels posés par l'intelligence artificielle, a bénéficié d'une importante visibilité médiatique, suscitant des analogies avec le film Terminator. Selon Price, « Il semble raisonnable de croire qu’à un moment donné, dans ce siècle ou le prochain, l’intelligence échappera aux contraintes de la biologie »[trad 1],[1],[3].

Par la suite, le centre a élargi ses centres d'intérêt à d'autres risques susceptibles de menacer la survie de la civilisation ou de l'espèce humaine. Quatre principales catégories de risques sont envisagées :

  • les risques biologiques catastrophiques mondiaux ;
  • les risques environnementaux extrêmes ;
  • les risques liés au développement de l'intelligence artificielle.
  • les autres risques technologiques ;

Pour le centre, les risques technologiques extrêmes incluent une guerre nucléaire, une pandémie issue de développements artificiels, le changement climatique, effondrement écologique ou des impacts de l'intelligence artificielle avancée[4].

Le centre de recherche a été à l'initiative de la création d’un groupe parlementaire transpartisan centré sur les intérêts des générations futures, dans le but d'amener les politiques à penser long terme et risques globaux[5],[6]. Certaines de ses activités sont financées par la Fondation John-Templeton[4].

Ce groupe a notamment produit une charte applicable au Royaume-Uni similaire à ce qui existait déjà au Pays de Galles visant la préservation des intérêts des générations futures[7].

Notes et références

modifier
  1. (en) « It seems a reasonable prediction that some time in this or the next century intelligence will escape from the constraints of biology »

Références

modifier
  1. a et b Pascal Lapointe, « Capsules - Étudier la révolte des robots », sur sciencepresse.qc.ca, Agence Science-Presse, .
  2. (en) Michael Kesterton, « Cambridge to open centre for Terminator studies », The Globe and Mail, .
  3. (en) Adi Gaskell, « Risk of a Terminator Style Robot Uprising to be Studied », Technorati, .
  4. a et b (en) « CSER Managing extreme technological risks », sur cser.ac.uk (consulté le ).
  5. (en) « All-Party Parliamentary Group for Future Generations », sur appg-future-gens (consulté le ).
  6. (en) « The Long Time », sur Climate-KIC, (consulté le ).
  7. (en) « Lord John Bird’s Future Generations Bill is “the start of a movement” », sur The Big Issue, (consulté le ).

Voir aussi

modifier

Articles connexes

modifier

Liens externes

modifier