Singularité technologique
La singularité technologique (aussi, tout simplement, la singularité) est un point hypothétique du futur lorsque la croissance technologique devient incontrôlable et irréversible, entraînant des changements insondables dans la civilisation humaine, notamment parce qu'elle sera devenue autonome et incontrôlable par l'homme.
Selon la version la plus répandue de l'hypothèse de la singularité, appelée explosion de l'intelligence, un agent intelligent évolutif (tel qu'un ordinateur fonctionnant avec une intelligence artificielle générale basée sur logiciel) entrerait dans une "réaction folle" de cycles d'auto-amélioration, chaque génération intelligente apparaissant de plus en plus rapidement, provoquant une explosion de l'intelligence et donnant lieu à un superintelligence puissante qui, qualitativement, surpasserait de loin toute intelligence humaine.
John von Neumann fut le premier à utiliser le concept de «singularité» dans le contexte technologique. Stanislaw Ulam rapporte une discussion avec von Neumann "centrée sur le progrès accéléré de la technologie et les changements du mode de vie, qui donne l’apparence d’une certaine singularité essentielle dans l’histoire de la race au-delà de laquelle connaissez-les, ne pouvait pas continuer ".
Le modèle "d'explosion de l'intelligence" d’IJ Good prédit qu'une future surintelligence déclenchera une singularité.
Le concept et le terme "singularity" ont été popularisés par Vernor Vinge dans son essai de 1993, The Coming Technological Singularity, dans lequel il écrivait que cela marquerait la fin de l'ère humaine, car la nouvelle surintelligence continuerait de s'améliorer et de progresser sur le plan technologique. à un taux incompréhensible. Il a écrit qu'il serait surpris que cela se produise avant 2005 ou après 2030.
Quatre sondages, menés en 2012 et 2013, ont suggéré que l'estimation médiane était de 50% de chances que l'intelligence générale artificielle (AGI) soit développée d'ici 2040-2050.
Dans les années 2010, des personnalités publiques telles que Stephen Hawking et Elon Musk ont déclaré craindre que l'intelligence artificielle totale ne conduise à une extinction humaine. Les conséquences de la singularité et ses avantages ou inconvénients potentiels pour la race humaine ont fait l'objet de débats intenses.