Centre pour l'étude des risques existentiels
Le centre pour l'étude des risques existentiels[1] (CSER pour Centre for the Study of Existential Risk en anglais) est un centre de recherche de l'université de Cambridge créé à l'origine pour se concentrer sur l'étude des risques liés à des évolutions de la technologie susceptible de mettre en danger l'avenir même de l'humanité. Le centre a été fondé par les chercheurs Huw Price, Martin Rees et Jaan Tallinn[2].
Fondation |
---|
Sigle |
(en) CSER |
---|---|
Type | |
Siège | |
Pays |
Site web |
(en) cser.org |
---|
L'une des études du centre, portant sur les risques existentiels posés par l'intelligence artificielle, a bénéficié d'une importante visibilité médiatique, suscitant des analogies avec le film Terminator. Selon Price, « Il semble raisonnable de croire qu’à un moment donné, dans ce siècle ou le prochain, l’intelligence échappera aux contraintes de la biologie »[trad 1],[1],[3].
Par la suite, le centre a élargi ses centres d'intérêt à d'autres risques susceptibles de menacer la survie de la civilisation ou de l'espèce humaine. Quatre principales catégories de risques sont envisagées :
- les risques biologiques catastrophiques mondiaux ;
- les risques environnementaux extrêmes ;
- les risques liés au développement de l'intelligence artificielle.
- les autres risques technologiques ;
Pour le centre, les risques technologiques extrêmes incluent une guerre nucléaire, une pandémie issue de développements artificiels, le changement climatique, effondrement écologique ou des impacts de l'intelligence artificielle avancée[4].
Le centre de recherche a été à l'initiative de la création d’un groupe parlementaire transpartisan centré sur les intérêts des générations futures, dans le but d'amener les politiques à penser long terme et risques globaux[5],[6]. Certaines de ses activités sont financées par la Fondation John-Templeton[4].
Ce groupe a notamment produit une charte applicable au Royaume-Uni similaire à ce qui existait déjà au Pays de Galles visant la préservation des intérêts des générations futures[7].
Notes et références
modifierNotes
modifier- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Centre for the Study of Existential Risk » (voir la liste des auteurs).
- (en) « It seems a reasonable prediction that some time in this or the next century intelligence will escape from the constraints of biology »
Références
modifier- Pascal Lapointe, « Capsules - Étudier la révolte des robots », sur sciencepresse.qc.ca, Agence Science-Presse, .
- (en) Michael Kesterton, « Cambridge to open centre for Terminator studies », The Globe and Mail, .
- (en) Adi Gaskell, « Risk of a Terminator Style Robot Uprising to be Studied », Technorati, .
- (en) « CSER Managing extreme technological risks », sur cser.ac.uk (consulté le ).
- (en) « All-Party Parliamentary Group for Future Generations », sur appg-future-gens (consulté le ).
- (en) « The Long Time », sur Climate-KIC, (consulté le ).
- (en) « Lord John Bird’s Future Generations Bill is “the start of a movement” », sur The Big Issue, (consulté le ).
Voir aussi
modifierArticles connexes
modifier- Fin du monde
- Intelligence artificielle
- Risques d'effondrements environnementaux et sociétaux
- Singularité technologique
Liens externes
modifier
- (en) Site officiel
- (en) « Risk of robot uprising wiping out human race to be studied », sur BBC News,