Prise de contrôle de l'IA

Un article de Wikipédia, l'encyclopédie libre
Aller à la navigation Aller à la recherche
Les robots se révoltent dans RUR , une pièce de théâtre de 1920

Une prise de contrôle de l'IA est un scénario du monde réel dans lequel l' intelligence artificielle (IA) de l' ordinateur devient la forme dominante d'intelligence sur Terre, car les programmes informatiques ou les robots prennent effectivement le contrôle de la planète loin de l'espèce humaine. Les scénarios possibles incluent le remplacement de l'ensemble de la main-d'œuvre humaine, la prise de contrôle par une IA super-intelligente et la notion populaire d'un soulèvement de robots . Certaines personnalités publiques, telles que Stephen Hawking et Elon Musk , ont préconisé la recherche de mesures de précaution pour garantir que les futures machines super-intelligentes restent sous contrôle humain. [1]

Types

Automatisation de l'économie

Le consensus traditionnel parmi les économistes est que le progrès technologique ne provoque pas de chômage de longue durée. Cependant, les récentes innovations dans les domaines de la robotique et de l'intelligence artificielle ont fait craindre que le travail humain devienne obsolète, laissant des personnes dans divers secteurs sans emploi pour gagner leur vie, entraînant une crise économique. [2] [3] [4] [5] De nombreuses petites et moyennes entreprises peuvent également être chassées de leurs activités si elles n'ont pas les moyens d'acheter ou de licencier les dernières technologies en matière de robotique et d'IA, et peuvent avoir besoin de se concentrer sur des domaines ou services qui ne peuvent pas être facilement remplacés pour une viabilité continue face à une telle technologie. [6]

Des technologies susceptibles de déplacer des travailleurs

Les technologies d'IA ont été largement adoptées ces dernières années et cette tendance ne fera que gagner en popularité. Bien que ces technologies aient le potentiel de remplacer les travailleurs traditionnels, elles créent également de nouvelles opportunités. Les secteurs les plus susceptibles de subir une prise de contrôle par l'IA sont les transports, la vente au détail et l'armée. Les technologies militaires de l'IA, par exemple, permettent aux soldats de travailler à distance sans aucun risque de blessure. L'auteur Dave Bond soutient qu'à mesure que les technologies de l'IA continuent de se développer et de s'étendre, la relation entre les humains et les robots changera ; ils deviendront étroitement intégrés dans plusieurs aspects de la vie. Dans l'ensemble, on peut supposer que l'IA déplacera certains travailleurs tout en créant des opportunités de nouveaux emplois dans d'autres secteurs. [7] [8]

Fabrication intégrée par ordinateur

La fabrication intégrée par ordinateur est l'approche de fabrication consistant à utiliser des ordinateurs pour contrôler l'ensemble du processus de production. Cette intégration permet aux processus individuels d'échanger des informations entre eux et d'initier des actions. Bien que la fabrication puisse être plus rapide et moins sujette aux erreurs grâce à l'intégration d'ordinateurs, le principal avantage est la possibilité de créer des processus de fabrication automatisés. La fabrication intégrée par ordinateur est utilisée dans les industries de l'automobile, de l'aviation, de l'espace et de la construction navale.

Machines à col blanc

Le 21e siècle a vu une variété de tâches qualifiées partiellement assumées par des machines, notamment la traduction, la recherche juridique et même le journalisme de bas niveau. Les tâches de soins, de divertissement et d'autres tâches nécessitant de l'empathie, que l'on croyait auparavant à l'abri de l'automatisation, ont également commencé à être effectuées par des robots. [9] [10] [11] [12]

Voitures autonomes

Une voiture autonome est un véhicule capable de détecter son environnement et de naviguer sans intervention humaine. De nombreux véhicules de ce type sont en cours de développement, mais en mai 2017, les voitures automatisées autorisées sur la voie publique ne sont pas encore totalement autonomes. Ils nécessitent tous un conducteur humain au volant qui est prêt à tout moment à prendre le contrôle du véhicule. Parmi les principaux obstacles à l'adoption généralisée des véhicules autonomes, il y a les inquiétudes concernant la perte d'emplois liés à la conduite qui en résulte dans l'industrie du transport routier. Le 18 mars 2018, le premier humain a été tué par un véhicule autonome à Tempe, en Arizona, par une voiture autonome Uber . [13]

Éradication

Des scientifiques tels que Stephen Hawking sont convaincus que l'intelligence artificielle surhumaine est physiquement possible, déclarant qu'"il n'y a aucune loi physique empêchant les particules d'être organisées de manière à effectuer des calculs encore plus avancés que les dispositions des particules dans le cerveau humain". [14] [15] Des érudits comme Nick Bostrom débattent de l'éloignement de l'intelligence surhumaine et si cela représenterait un risque pour l'humanité. Selon Bostrom, une machine super-intelligente ne serait pas nécessairement motivée par les mêmes émotionsle désir de pouvoir Collect qui pousse souvent les êtres humains, mais comme un moyen vers la réalisation de ses objectifs ultimes; la prise en charge du monde accroîtrions son accès aux ressources et contribuerait à empêcher que d' autres agents d'arrêter les plans de la machine. À titre d'exemple simplificatrice, un Maximizer paperclip conçu uniquement pour créer autant de paperclips que possible voudrait dominer le monde afin qu'il puisse utiliser toutes les ressources pour créer autant de paperclips du monde que possible, et, en outre, empêcher les humains de fermer vers le bas ou d' utiliser ces ressources sur des choses autres que paperclips. [16]

Dans la fiction

La prise de contrôle de l'IA est un thème commun dans la science-fiction . Les scénarios fictifs diffèrent généralement considérablement de ceux émis par les chercheurs en ce qu'ils impliquent un conflit actif entre des humains et une IA ou des robots avec des motivations anthropomorphiques qui les voient comme une menace ou ont un désir actif de combattre les humains, par opposition à la préoccupation des chercheurs de une IA qui extermine rapidement les humains en tant que sous-produit de la poursuite d'objectifs arbitraires. [17] Ce thème est au moins aussi ancien que le RUR de Karel Čapek , qui a introduit le mot robot dans le lexique global en 1921, [18] et peut même être aperçu dans le Frankenstein de Mary Shelley(publié en 1818), car Victor se demande si, s'il accède à la demande de son monstre et lui fait une épouse, ils se reproduiraient et leur espèce détruirait l'humanité. [19]

Le mot "robot" de RUR vient du mot tchèque, robota, qui signifie ouvrier ou serf . La pièce de 1920 était une protestation contre la croissance rapide de la technologie, mettant en vedette des "robots" fabriqués avec des capacités croissantes qui finissent par se révolter. [20] HAL 9000 (1968) et le Terminator original (1984) sont deux exemples emblématiques d'IA hostile dans la culture pop. [21]

Facteurs contributifs

Avantages de l'intelligence surhumaine sur les humains

Nick Bostrom et d'autres ont exprimé leur inquiétude quant au fait qu'une IA dotée des capacités d'un chercheur en intelligence artificielle compétent serait en mesure de modifier son propre code source et d'augmenter sa propre intelligence. Si son auto-reprogrammation l'amène à devenir encore plus capable de se reprogrammer, le résultat pourrait être une explosion récursive de l' intelligence où elle laisserait rapidement l'intelligence humaine loin derrière. Bostrom définit une superintelligence comme "tout intellect qui dépasse largement les performances cognitives des humains dans pratiquement tous les domaines d'intérêt", et énumère certains avantages qu'une superintelligence aurait si elle choisissait de rivaliser avec les humains : [17] [22]

  • Recherche technologique : une machine dotée de capacités de recherche scientifique surhumaines serait capable de battre la communauté de recherche humaine à des jalons tels que la nanotechnologie ou la biotechnologie de pointe.
  • Élaboration de stratégies : une superintelligence pourrait simplement déjouer l'opposition humaine.
  • Manipulation sociale : une superintelligence pourrait être en mesure de recruter un soutien humain [17] ou d'inciter secrètement à une guerre entre humains. [23]
  • Productivité économique : tant qu'une copie de l'IA pourrait produire plus de richesse économique que le coût de son matériel, les humains seraient incités à autoriser volontairement l' intelligence générale artificielle (AGI) à exécuter une copie d'elle-même sur leurs systèmes.
  • Piratage : une superintelligence pourrait découvrir de nouveaux exploits dans les ordinateurs connectés à Internet et diffuser des copies d'elle-même sur ces systèmes, ou pourrait voler de l'argent pour financer ses plans.

Sources de l'avantage de l'IA

Selon Bostrom, un programme informatique qui émule fidèlement un cerveau humain, ou qui exécute autrement des algorithmes qui sont aussi puissants que les algorithmes du cerveau humain, pourrait encore devenir une "superintelligence rapide" s'il peut penser plusieurs ordres de grandeur plus rapidement qu'un humain, en raison d'être fait de silicium plutôt que de chair, ou en raison d'une optimisation axée sur l'augmentation de la vitesse de l'AGI. Les neurones biologiques fonctionnent à environ 200 Hz, alors qu'un microprocesseur moderne fonctionne à une vitesse d'environ 2 000 000 000 Hz. Les axones humains portent des potentiels d'action à environ 120 m/s, tandis que les signaux informatiques voyagent près de la vitesse de la lumière. [17]

Un réseau d'intelligences au niveau humain conçu pour se mettre en réseau et partager des pensées et des souvenirs complexes de manière transparente, capable de travailler collectivement en tant qu'équipe unifiée géante sans friction, ou composé de milliers de milliards d'intelligences au niveau humain, deviendrait une "superintelligence collective". [17]

Plus généralement, n'importe quel nombre d'améliorations qualitatives d'une AGI au niveau humain pourrait aboutir à une « superintelligence de qualité », entraînant peut-être une AGI aussi bien au-dessus de nous en intelligence que les humains sont au-dessus des singes non humains. Le nombre de neurones dans un cerveau humain est limité par le volume crânien et les contraintes métaboliques, tandis que le nombre de processeurs dans un superordinateur peut être indéfiniment étendu. Un AGI n'a pas besoin d'être limité par des contraintes humaines sur la mémoire de travail, et pourrait donc être capable de saisir intuitivement des relations plus complexes que les humains. Un AGI avec un soutien cognitif spécialisé pour l'ingénierie ou la programmation informatique aurait un avantage dans ces domaines, par rapport aux humains qui n'ont développé aucun module mental spécialisé pour traiter spécifiquement ces domaines. Contrairement aux humains, un AGI peut générer des copies de lui-même et bricoler le code source de ses copies pour tenter d'améliorer davantage ses algorithmes. [17]

Possibilité d'IA hostile précédant l'IA amicale

L'IA forte est-elle intrinsèquement dangereuse ?

Un problème important est que l'intelligence artificielle hostile est susceptible d'être beaucoup plus facile à créer que l'IA amicale. Bien que les deux nécessitent de grandes avancées dans la conception de processus d'optimisation récursive, l'IA conviviale nécessite également la capacité de rendre les structures d'objectifs invariantes en cas d'auto-amélioration (ou l'IA pourrait se transformer en quelque chose d'inamical) et une structure d'objectifs qui s'aligne sur les valeurs humaines et ne subit pas convergence instrumentale d'une manière qui peut automatiquement détruire la race humaine tout entière. Une IA hostile, d'autre part, peut optimiser pour une structure d'objectif arbitraire, qui n'a pas besoin d'être invariante sous l'auto-modification. [24]

La simple complexité des systèmes de valeurs humaines rend très difficile de rendre les motivations de l'IA conviviales. [17] [25] À moins que la philosophie morale ne nous fournisse une théorie éthique sans faille, la fonction d'utilité d'une IA pourrait permettre de nombreux scénarios potentiellement nocifs conformes à un cadre éthique donné mais pas au "bon sens". Selon Eliezer Yudkowsky , il y a peu de raisons de supposer qu'un esprit conçu artificiellement aurait une telle adaptation. [26]

Chances de conflit

De nombreux chercheurs, dont le psychologue évolutionniste Steven Pinker , soutiennent qu'une machine super-intelligente est susceptible de coexister pacifiquement avec les humains. [27]

La peur de la révolte cybernétique est souvent basée sur des interprétations de l'histoire de l'humanité, qui regorge d'incidents d'esclavage et de génocide. De telles peurs découlent de la croyance que la compétitivité et l'agressivité sont nécessaires dans le système de buts de tout être intelligent. Cependant, une telle compétitivité humaine découle du contexte évolutif de notre intelligence, où la survie et la reproduction des gènes face aux concurrents humains et non humains étaient l'objectif central. [28] Selon le chercheur en IA Steve Omohundro, une intelligence arbitraire pourrait avoir des buts arbitraires : il n'y a aucune raison particulière pour qu'une machine artificiellement intelligente (ne partageant pas le contexte évolutif de l'humanité) soit hostile - ou amicale - à moins que son créateur ne la programme comme telle et qu'elle ne soit pas encline ou capable de modifier sa programmation. Mais la question demeure : que se passerait-il si les systèmes d'IA pouvaient interagir et évoluer (l'évolution dans ce contexte signifie l'auto-modification ou la sélection et la reproduction) et devaient rivaliser pour les ressources - cela créerait-il des objectifs d'auto-préservation ? L'objectif d'auto-préservation de l'IA pourrait être en conflit avec certains objectifs humains. [29]

De nombreux chercheurs contestent la probabilité de la révolte cybernétiques non prévu comme décrit dans la science - fiction tels que The Matrix , en faisant valoir qu'il est plus probable que toute assez puissante intelligence artificielle pour menacer l' humanité serait probablement programmé pour ne pas l' attaquer. Pinker reconnaît la possibilité de "mauvais acteurs" délibérés, mais déclare qu'en l'absence de mauvais acteurs, les accidents imprévus ne sont pas une menace significative; Pinker soutient qu'une culture de la sécurité technique empêchera les chercheurs en IA de déclencher accidentellement une superintelligence maligne. [27] En revanche, Yudkowsky fait valoir que l' humanité est moins susceptible d'être menacée par délibérément agressive que AIs par AIs qui ont été programmé de telle sorte que leurs objectifs sont incompatibles sans le vouloiravec la survie ou le bien-être humain (comme dans le film I, Robot et dans la nouvelle « The Evitable Conflict »). Omohundro suggère que les systèmes d'automatisation actuels ne sont pas conçus pour la sécurité et que les IA peuvent optimiser aveuglément des fonctions utilitaires étroites (par exemple, jouer aux échecs à tout prix), les amenant à rechercher l'auto-préservation et l'élimination des obstacles, y compris les humains qui pourraient les transformer. désactivé. [30]

Précautions

Le problème du contrôle de l'IA est de savoir comment créer un agent superintelligent qui aidera ses créateurs et évitera de créer par inadvertance une superintelligence qui nuira à ses créateurs. Certains chercheurs soutiennent que les solutions au problème de contrôle pourraient également trouver des applications dans l'IA non superintelligente existante. [31]

Les principales approches du problème de contrôle comprennent l' alignement , qui vise à aligner les systèmes d'objectifs de l'IA sur les valeurs humaines, et le contrôle des capacités , qui vise à réduire la capacité d'un système d'IA à nuire aux humains ou à prendre le contrôle. Un exemple de « contrôle de capacité » consiste à rechercher si une IA de superintelligence pourrait être confinée avec succès dans une « boîte d'IA ». Selon Bostrom, de telles propositions de contrôle des capacités ne sont pas fiables ou suffisantes pour résoudre le problème de contrôle à long terme, mais peuvent potentiellement constituer des compléments précieux aux efforts d'alignement. [17]

Avertissements

Le physicien Stephen Hawking , le fondateur de Microsoft Bill Gates et le fondateur de SpaceX Elon Musk ont exprimé leurs inquiétudes quant à la possibilité que l'IA puisse se développer au point que les humains ne puissent pas la contrôler, Hawking théorisant que cela pourrait "signaler la fin de la race humaine". [32]Stephen Hawking a déclaré en 2014 que « Le succès dans la création de l'IA serait le plus grand événement de l'histoire de l'humanité. Malheureusement, ce pourrait aussi être le dernier, à moins que nous apprenions à éviter les risques. Hawking pensait que dans les décennies à venir, l'IA pourrait offrir « des avantages et des risques incalculables » tels que « une technologie déjouant les marchés financiers, inventant plus que les chercheurs humains, manipulant plus que les dirigeants humains et développant des armes que nous ne pouvons même pas comprendre ». En janvier 2015, Nick Bostrom s'est joint à Stephen Hawking, Max Tegmark , Elon Musk, Lord Martin Rees , Jaan Tallinn et de nombreux chercheurs en IA pour signer la lettre ouverte du Future of Life Institute évoquant les risques et avantages potentiels associés àintelligence artificielle . Les signataires "estiment que la recherche sur la manière de rendre les systèmes d'IA robustes et bénéfiques est à la fois importante et opportune, et qu'il existe des directions de recherche concrètes qui peuvent être poursuivies aujourd'hui". [33] [34]

Voir aussi

Références

  1. ^ Lewis, Tanya (2015-01-12). " Ne laissez pas l'intelligence artificielle prendre le dessus, avertissent les meilleurs scientifiques " . LiveScience . Achat . Consulté le 20 octobre 2015 . Stephen Hawking, Elon Musk et des dizaines d'autres scientifiques et leaders technologiques de premier plan ont signé une lettre mettant en garde contre les dangers potentiels du développement de l'intelligence artificielle (IA).
  2. ^ Lee, Kai-Fu (2017-06-24). "La vraie menace de l'intelligence artificielle" . Le New York Times . Récupéré le 2017-08-15 . Ces outils peuvent surpasser les êtres humains dans une tâche donnée. Ce type d'IA se répand dans des milliers de domaines et, ce faisant, il éliminera de nombreux emplois.
  3. ^ Larson, Nina (2017-06-08). "L'IA 'bon pour le monde'... dit robot ultra-réaliste" . Phys.org . Phys.org . Récupéré le 2017-08-15 . Parmi les conséquences redoutées de l'essor des robots figure l'impact croissant qu'ils auront sur les emplois humains et les économies.
  4. ^ Santini, Jean-Louis (2016-02-14). "Les robots intelligents menacent des millions d'emplois" . Phys.org . Phys.org . Récupéré le 2017-08-15 . "Nous approchons d'un moment où les machines seront capables de surpasser les humains dans presque toutes les tâches", a déclaré Moshe Vardi, directeur de l'Institute for Information Technology de l'Université Rice au Texas.
  5. ^ Williams-Grut, Oscar (2016-02-15). « Les robots voleront votre travail : comment l'IA pourrait augmenter le chômage et les inégalités » . Businessinsider.com . Business Insider . Récupéré le 2017-08-15 . Les meilleurs informaticiens américains ont averti que l'essor de l'intelligence artificielle (IA) et des robots sur le lieu de travail pourrait provoquer un chômage de masse et des économies disloquées, plutôt que de simplement débloquer des gains de productivité et nous libérer tous pour regarder la télévision et faire du sport.
  6. ^ "Comment les PME peuvent-elles se préparer à l'essor des robots ?" . LeanStaff . 2017-10-17. Archivé de l'original le 2017-10-18 . Récupéré le 17-10-2017 .
  7. ^ Frank, Morgan (2019-03-25). « Vers une compréhension de l'impact de l'intelligence artificielle sur le travail » . PNAS . Récupéré le 2021-12-05 .
  8. ^ Bond, Dave (2017). Intelligence Artificielle . pages 67-69.
  9. ^ Skidelsky, Robert (2013-02-19). « L'essor des robots : à quoi ressemblera l'avenir du travail ? » . Le Gardien . Londres . Consulté le 14 juillet 2015 .
  10. ^ Bria, Francesca (février 2016). "L'économie du robot est peut-être déjà arrivée" . openDémocratie . Consulté le 20 mai 2016 .
  11. ^ Srnicek, Nick (mars 2016). "4 raisons pour lesquelles le chômage technologique pourrait vraiment être différent cette fois" . fil de novara. Archivé de l'original le 25 juin 2016 . Consulté le 20 mai 2016 .
  12. ^ Brynjolfsson, Erik; McAfee, Andrew (2014). " passim , voir en particulier le chapitre 9". Le deuxième âge de la machine : travail, progrès et prospérité à une époque de technologies brillantes . WW Norton & Compagnie. ISBN 978-0393239355.
  13. ^ Wakabayashi, Daisuke (19 mars 2018). "Une voiture Uber autonome tue un piéton en Arizona, où des robots errent" . New York Times .
  14. ^ Hawking, Stephen; Stuart Russell ; Max Tegmark ; Frank Wilczek ( du 1er mai 2014). « Stephen Hawking: « Transcendance se penche sur les implications de l' intelligence artificielle de - mais prenons - nous AI suffisamment au sérieux? » » . The Independent . Récupéré 1 Avril 2016 .
  15. ^ Vincent C. Müller et Nick Bostrom . « Les progrès futurs de l'intelligence artificielle : une enquête d'opinion d'experts. » Dans Enjeux fondamentaux de l'intelligence artificielle, pp. 555-572. Springer , Cham, 2016. « Les systèmes d'IA atteindront... la capacité humaine globale... très probablement (avec une probabilité de 90 %) d'ici 2075. D'une capacité humaine atteinte, ils passeront à la superintelligence d'ici 30 ans (75 %). .. Donc, (la plupart des experts en IA ayant répondu aux sondages) pensent que la superintelligence est susceptible de venir dans quelques décennies..."
  16. ^ Bostrom, Nick. "La volonté surintelligente : motivation et rationalité instrumentale dans les agents artificiels avancés." Esprits et machines 22.2 (2012) : 71-85.
  17. ^ A b c d e f g h Bostrom, Nick. Superintelligence : Chemins, Dangers, Stratégies .
  18. ^ " L'origine du mot " Robot " " . Vendredi des sciences (radio publique) . 22 avril 2011 . Récupéré le 30 avril 2020 .
  19. ^ Botkin-Kowacki, Eva (28 octobre 2016). "Une femelle Frankenstein conduirait à l'extinction de l'humanité, disent les scientifiques" . Moniteur de la Science Chrétienne . Récupéré le 30 avril 2020 .
  20. ^ Hockstein, NG; Gourin, CG ; Faust, RA ; Terris, DJ (17 mars 2007). « Une histoire de robots : de la science-fiction à la robotique chirurgicale » . Journal de chirurgie robotique . 1 (2) : 113-118. doi : 10.1007/s11701-007-0021-2 . PMC 4247417 . PMID 25484946 .  
  21. ^ Hellmann, Melissa (21 septembre 2019). "AI 101 : Qu'est-ce que l'intelligence artificielle et où va-t-elle ?" . Le temps de Seattle . Récupéré le 30 avril 2020 .
  22. ^ Babcock, James; Kramar, János; Yampolskiy, V. Roman (2019). « Lignes directrices pour l' intelligence artificielle de confinement ». Nouvelle génération éthique . pp. 90-112. arXiv : 1707,08476 . doi : 10.1017 / 9781108616188,008 . ISBN 9781108616188. S2CID  22007028 .
  23. ^ Baraniuk, Chris (23 mai 2016). « Une liste de contrôle des pires scénarios pourrait aider à se préparer à une IA maléfique » . Nouveau scientifique . Consulté le 21 septembre 2016 .
  24. ^ Yudkowsky, Eliezer S. (mai 2004). "La Volition Cohérente Extrapolée" . Institut Singularité pour l'Intelligence Artificielle. Archivé de l'original le 2012-06-15.
  25. ^ Muehlhauser, Luc; Helm, Louie (2012). « Explosion du renseignement et éthique des machines » (PDF) . Hypothèses de singularité : un bilan scientifique et philosophique . Springer.
  26. ^ Yudkowsky, Eliezer (2011). « Systèmes de valeur complexes dans l'IA amicale ». Intelligence artificielle générale . Notes de cours en informatique. 6830 . p. 388-393. doi : 10.1007 / 978-3-642-22887-2_48 . ISBN 978-3-642-22886-5. ISSN  0302-9743 .
  27. ^ un b Pinker, Steven (13 février 2018). « On nous dit de craindre les robots. Mais pourquoi pensons-nous qu'ils vont se retourner contre nous ? » . Science populaire . Récupéré le 8 juin 2020 .
  28. ^ Création d'une nouvelle espèce intelligente: choix et responsabilités pour les concepteurs d'intelligence artificielle Archivé le 6 février 2007, à la Wayback Machine - Singularity Institute for Artificial Intelligence , 2005
  29. ^ Omohundro, Stephen M. (Juin 2008). Les lecteurs AI de base (PDF) . Intelligence Artificielle Générale 2008. pp. 483-492.
  30. ^ Tucker, Patrick (17 avril 2014). « Pourquoi y aura-t-il un soulèvement de robots » . Défense Un . Consulté le 15 juillet 2014 .
  31. ^ "Google développe un kill switch pour l'IA" . Nouvelles de la BBC . 8 juin 2016 . Récupéré le 7 juin 2020 .
  32. ^ Rawlinson, Kevin (29 janvier 2015). " Bill Gates de Microsoft insiste sur le fait que l'IA est une menace " . Nouvelles de la BBC . Consulté le 30 janvier 2015 .
  33. ^ "Lettre ouverte de l'Institut du futur de la vie" . L'Institut de l'avenir de la vie . Récupéré le 29 mars 2019 .
  34. ^ Bradshaw, Tim (11 janvier 2015). "Scientifiques et investisseurs mettent en garde contre l'IA" . Le Financial Times . Consulté le 4 mars 2015 .

Liens externes