Intelligence artificielle

0

L’intelligence artificielle ( IA ) est l’intelligence démontrée par les machines , par opposition à l’ intelligence naturelle dont font preuve les animaux, y compris les humains . La recherche en IA a été définie comme le domaine d’étude des agents intelligents , qui fait référence à tout système qui perçoit son environnement et entreprend des actions qui maximisent ses chances d’atteindre ses objectifs. [un]

Le terme « intelligence artificielle » était auparavant utilisé pour décrire des machines qui imitent et affichent les compétences cognitives « humaines » associées à l’ esprit humain , telles que « l’apprentissage » et la « résolution de problèmes ». Cette définition a depuis été rejetée par les grands chercheurs en IA qui décrivent désormais l’IA en termes de rationalité et d’action rationnelle, ce qui ne limite pas la façon dont l’intelligence peut être articulée. [c]

Les applications d’intelligence artificielle comprennent les moteurs de recherche Web avancés (par exemple, Google ), les systèmes de recommandation (utilisés par YouTube , Amazon et Netflix ), la compréhension de la parole humaine (comme Siri et Alexa ), les voitures autonomes (par exemple Tesla ), la prise de décision automatisée et concourir au plus haut niveau dans les systèmes de jeu stratégiques (comme les échecs et le Go ). [2] [ citation nécessaire ]À mesure que les machines deviennent de plus en plus performantes, les tâches considérées comme nécessitant de l'”intelligence” sont souvent retirées de la définition de l’IA, un phénomène connu sous le nom d’ effet IA . [3] Par exemple, la reconnaissance optique de caractères est souvent exclue des choses considérées comme de l’IA, [4] étant devenue une technologie de routine. [5]

L’intelligence artificielle a été fondée en tant que discipline universitaire en 1956, et dans les années qui ont suivi, a connu plusieurs vagues d’optimisme, [6] [7] suivies de déception et de la perte de financement (connu sous le nom d’« hiver de l’IA »), [8] [9] suivi de nouvelles approches, de succès et de financements renouvelés. [7] [10] La recherche sur l’IA a essayé et rejeté de nombreuses approches différentes depuis sa création, notamment la simulation du cerveau, la modélisation de la résolution de problèmes humains , la logique formelle , de grandes bases de données de connaissances et l’imitation du comportement animal. Dans les premières décennies du 21e siècle, l’ apprentissage automatique hautement mathématique et statistiquea dominé le domaine, et cette technique s’est avérée très efficace, aidant à résoudre de nombreux problèmes difficiles dans l’industrie et le milieu universitaire. [11] [10]

Les différents sous-domaines de la recherche en IA sont centrés sur des objectifs particuliers et l’utilisation d’outils particuliers. Les objectifs traditionnels de la recherche en IA comprennent le raisonnement , la représentation des connaissances , la planification , l’apprentissage , le traitement du langage naturel , la perception et la capacité de déplacer et de manipuler des objets. [c] L’intelligence générale (la capacité à résoudre un problème arbitraire) fait partie des objectifs à long terme du domaine. [12] Pour résoudre ces problèmes, les chercheurs en IA ont adapté et intégré un large éventail de techniques de résolution de problèmes, notamment la recherche et l’optimisation mathématique, la logique formelle, les réseaux de neurones artificiels., et des méthodes basées sur les statistiques , les probabilités et l’ économie . L’IA s’appuie également sur l’informatique , la psychologie , la linguistique , la philosophie et bien d’autres domaines.

Le domaine a été fondé sur l’hypothèse que l’intelligence humaine “peut être décrite avec une telle précision qu’une machine peut être conçue pour la simuler”. [d] Cela a soulevé des arguments philosophiques sur l’esprit et les conséquences éthiques de la création d’êtres artificiels dotés d’une intelligence de type humain; ces questions ont déjà été explorées par le mythe , la fiction et la philosophie depuis l’antiquité. [14] Des écrivains de science-fiction et des futurologues ont depuis suggéré que l’IA pourrait devenir un risque existentiel pour l’humanité si ses capacités rationnelles ne sont pas supervisées. [15] [16]

Histoire

Didrachme en argent de Crète représentant Talos , un ancien automate mythique doté d’une intelligence artificielle

Les êtres artificiels dotés d’intelligence sont apparus comme des dispositifs de narration dans l’Antiquité [17] et ont été courants dans la fiction, comme dans Frankenstein de Mary Shelley ou RUR de Karel Čapek [18] Ces personnages et leurs destins ont soulevé bon nombre des mêmes problèmes actuellement discutés dans l’ éthique de l’intelligence artificielle . [19]

L’étude du raisonnement mécanique ou « formel » a commencé avec les philosophes et les mathématiciens dans l’Antiquité. L’étude de la logique mathématique a conduit directement à la théorie du calcul d’ Alan Turing , qui suggérait qu’une machine, en mélangeant des symboles aussi simples que “0” et “1”, pouvait simuler n’importe quel acte concevable de déduction mathématique. Cette idée que les ordinateurs numériques peuvent simuler n’importe quel processus de raisonnement formel est connue sous le nom de thèse de Church-Turing . [20]

La thèse de Church-Turing, ainsi que des découvertes concomitantes en neurobiologie , en théorie de l’information et en cybernétique , ont conduit les chercheurs à envisager la possibilité de construire un cerveau électronique. [21] Le premier travail qui est maintenant généralement reconnu comme IA était la conception formelle de 1943 de McCullouch et Pitts pour les “neurones artificiels” complets de Turing . [22]

Dans les années 1950, deux visions sur la manière d’atteindre l’intelligence artificielle ont émergé. Une vision, connue sous le nom d’ IA symbolique ou GOFAI , consistait à utiliser des ordinateurs pour créer une représentation symbolique du monde et des systèmes capables de raisonner sur le monde. Les partisans comprenaient Allen Newell , Herbert A. Simon et Marvin Minsky . Étroitement associée à cette approche était l’approche de «recherche heuristique» , qui assimilait l’intelligence à un problème d’exploration d’un espace de possibilités de réponses. La deuxième vision, connue sous le nom d’ approche connexionniste , cherchait à atteindre l’intelligence par l’apprentissage. Les partisans de cette approche, notamment Frank Rosenblatt, a cherché à connecter Perceptron de manière inspirée par les connexions des neurones. [23] James Manyika et d’autres ont comparé les deux approches de l’esprit (IA symbolique) et du cerveau (connexionniste). Manyika soutient que les approches symboliques ont dominé la poussée de l’intelligence artificielle à cette époque, en partie en raison de son lien avec les traditions intellectuelles de Descarte , Boole , Gottlob Frege , Bertrand Russell et d’autres. Les approches connexionnistes basées sur la cybernétique ou les réseaux de neurones artificiels ont été repoussées au second plan mais ont acquis une nouvelle importance au cours des dernières décennies. [24]

Le domaine de la recherche sur l’IA est né lors d’ un atelier au Dartmouth College en 1956. [e] [27] Les participants sont devenus les fondateurs et les leaders de la recherche sur l’IA. [f] Eux et leurs étudiants ont produit des programmes que la presse a qualifiés d'”étonnants”: [g] les ordinateurs apprenaient des stratégies de dames , résolvaient des problèmes de mots en algèbre, prouvaient des théorèmes logiques et parlaient anglais. [h] [29] Au milieu des années 1960, la recherche aux États-Unis était fortement financée par le ministère de la Défense [30] et des laboratoires avaient été établis dans le monde entier. [31]

Les chercheurs des années 1960 et 1970 étaient convaincus que les approches symboliques finiraient par réussir à créer une machine dotée d’une intelligence artificielle générale et considéraient cela comme l’objectif de leur domaine. [32] Herbert Simon a prédit, “les machines seront capables, dans vingt ans, de faire n’importe quel travail qu’un homme peut faire”. [33] Marvin Minsky était d’accord, en écrivant, “dans une génération… le problème de créer ‘l’intelligence artificielle’ sera substantiellement résolu”. [34]

Ils n’ont pas reconnu la difficulté de certaines des tâches restantes. Les progrès ont ralenti et en 1974, en réponse aux critiques de Sir James Lighthill [35] et à la pression continue du Congrès américain pour financer des projets plus productifs , les gouvernements américain et britannique ont interrompu la recherche exploratoire en IA. Les années suivantes seront appelées plus tard un « hiver de l’IA », une période où l’obtention de financements pour des projets d’IA était difficile. [8]

Au début des années 1980, la recherche sur l’IA a été relancée par le succès commercial des systèmes experts [36] , une forme de programme d’IA qui simulait les connaissances et les compétences analytiques d’experts humains. En 1985, le marché de l’IA avait atteint plus d’un milliard de dollars. Dans le même temps, le projet informatique de cinquième génération du Japon a inspiré les gouvernements américain et britannique à rétablir le financement de la recherche universitaire . [7] Cependant, à partir de l’effondrement du marché des machines Lisp en 1987, l’IA est de nouveau tombée dans le discrédit et un deuxième hiver de plus longue durée a commencé. [9]

De nombreux chercheurs ont commencé à douter que l’ approche symbolique serait capable d’imiter tous les processus de la cognition humaine, en particulier la perception , la robotique, l’apprentissage et la reconnaissance des formes . Un certain nombre de chercheurs ont commencé à se pencher sur des approches “sous-symboliques” de problèmes spécifiques d’IA. [37] Les chercheurs en robotique , tels que Rodney Brooks , ont rejeté l’IA symbolique et se sont concentrés sur les problèmes d’ingénierie de base qui permettraient aux robots de se déplacer, de survivre et d’apprendre leur environnement. [i] L’intérêt pour les réseaux de neurones et le « connexionnisme » a été ravivé par Geoffrey Hinton ,David Rumelhart et d’autres au milieu des années 1980. [42] Des outils informatiques souples ont été développés dans les années 80, tels que les réseaux de neurones , les systèmes flous , la théorie des systèmes de Gray , le calcul évolutif et de nombreux outils tirés des statistiques ou de l’optimisation mathématique .

L’IA a progressivement restauré sa réputation à la fin des années 1990 et au début du 21e siècle en trouvant des solutions spécifiques à des problèmes spécifiques. La focalisation étroite a permis aux chercheurs de produire des résultats vérifiables, d’exploiter davantage de méthodes mathématiques et de collaborer avec d’autres domaines (tels que les statistiques , l’économie et les mathématiques ). [43] En 2000, les solutions développées par les chercheurs en intelligence artificielle étaient largement utilisées, même si dans les années 1990, elles étaient rarement décrites comme “l’intelligence artificielle”. [11]

Des ordinateurs plus rapides , des améliorations algorithmiques et l’accès à de grandes quantités de données ont permis des avancées dans l’apprentissage automatique et la perception ; les méthodes d’ apprentissage en profondeur gourmandes en données ont commencé à dominer les critères de précision vers 2012 . [44] Selon Jack Clark de Bloomberg , 2015 a été une année charnière pour l’intelligence artificielle, le nombre de projets logiciels qui utilisent l’IA au sein de Google est passé d’une « utilisation sporadique » en 2012 à plus de 2 700 projets. [j] Il attribue cela à une augmentation des réseaux de neurones abordables, en raison d’une augmentation de l’infrastructure de cloud computing et d’une augmentation des outils de recherche et des ensembles de données. [10] Dans une enquête de 2017, une entreprise sur cinq a déclaré avoir “intégré l’IA dans certaines offres ou certains processus”. [45] Le volume de recherche sur l’IA (mesuré par le nombre total de publications) a augmenté de 50 % dans les années 2015-2019. [46]

De nombreux chercheurs universitaires se sont inquiétés du fait que l’IA ne poursuivait plus l’objectif initial de créer des machines polyvalentes et entièrement intelligentes. Une grande partie de la recherche actuelle implique l’IA statistique, qui est massivement utilisée pour résoudre des problèmes spécifiques, même des techniques très efficaces telles que l’apprentissage en profondeur . Cette préoccupation a conduit au sous-domaine de l’intelligence artificielle générale (ou «AGI»), qui comptait plusieurs institutions bien financées dans les années 2010. [12]

Objectifs

Le problème général de la simulation (ou de la création) de l’intelligence a été décomposé en sous-problèmes. Il s’agit de caractéristiques ou de capacités particulières que les chercheurs attendent d’un système intelligent. Les traits décrits ci-dessous ont reçu le plus d’attention. [c]

Raisonnement, résolution de problèmes

Les premiers chercheurs ont développé des algorithmes qui imitaient le raisonnement étape par étape que les humains utilisent lorsqu’ils résolvent des énigmes ou font des déductions logiques. [47] À la fin des années 1980 et 1990, la recherche sur l’IA avait développé des méthodes pour traiter des informations incertaines ou incomplètes, en utilisant des concepts de probabilité et d’économie . [48]

Beaucoup de ces algorithmes se sont avérés insuffisants pour résoudre de gros problèmes de raisonnement car ils ont connu une “explosion combinatoire”: ils sont devenus exponentiellement plus lents à mesure que les problèmes grossissaient. [49] Même les humains utilisent rarement la déduction étape par étape que les premières recherches sur l’IA pourraient modéliser. Ils résolvent la plupart de leurs problèmes en utilisant des jugements rapides et intuitifs. [50]

Représentation des connaissances

Une ontologie représente la connaissance comme un ensemble de concepts dans un domaine et les relations entre ces concepts.

La représentation des connaissances et l’ingénierie des connaissances [51] permettent aux programmes d’IA de répondre intelligemment aux questions et de faire des déductions sur des faits réels.

Une représentation de « ce qui existe » est une ontologie : l’ensemble des objets, relations, concepts et propriétés formellement décrits pour que les agents logiciels puissent les interpréter. [52] Les ontologies les plus générales sont appelées ontologies supérieures , qui tentent de fournir une base pour toutes les autres connaissances et agissent comme médiateurs entre les ontologies de domaine qui couvrent des connaissances spécifiques sur un domaine de connaissances particulier (domaine d’intérêt ou domaine de préoccupation). Un programme vraiment intelligent aurait également besoin d’accéder à des connaissances de bon sens ; l’ensemble des faits qu’une personne moyenne connaît. La sémantique d’une ontologie est généralement représentée dans une logique de description, telle que le langage d’ontologie Web. [53]

La recherche en IA a développé des outils pour représenter des domaines spécifiques, tels que des objets, des propriétés, des catégories et des relations entre objets ; [53] situations, événements, états et temps ; [54] causes et effets ; [55] connaissance sur la connaissance (ce que nous savons sur ce que les autres savent) ;. [56] raisonnement par défaut (les choses que les humains supposent être vraies jusqu’à ce qu’elles soient dites différemment et resteront vraies même lorsque d’autres faits changent); [57] ainsi que d’autres domaines. Parmi les problèmes les plus difficiles de l’IA figurent : l’étendue des connaissances de bon sens (le nombre de faits atomiques que la personne moyenne connaît est énorme) ; [58]et la forme sous-symbolique de la plupart des connaissances de sens commun (une grande partie de ce que les gens savent n’est pas représentée comme des “faits” ou des “déclarations” qu’ils pourraient exprimer verbalement). [50]

Les représentations formelles des connaissances sont utilisées dans l’indexation et la récupération basées sur le contenu, [59] l’ interprétation de scènes, [60] l’aide à la décision clinique, [61] la découverte de connaissances (extraction d’inférences “intéressantes” et exploitables à partir de grandes bases de données), [62] et d’autres domaines. . [63]

Planification

Un agent intelligent qui peut planifier fait une représentation de l’état du monde, fait des prédictions sur la façon dont ses actions vont le changer et fait des choix qui maximisent l’ utilité (ou la « valeur ») des choix disponibles. [64] Dans les problèmes de planification classiques, l’agent peut supposer que c’est le seul système agissant dans le monde, permettant à l’agent d’être certain des conséquences de ses actions. [65] Cependant, si l’agent n’est pas le seul acteur, il faut alors que l’agent raisonne dans l’incertitude, réévalue continuellement son environnement et s’adapte. [66] La planification multi-agents utilise la coopération et la concurrence de nombreux agents pour atteindre un objectif donné.Un tel comportement émergent est utilisé par les algorithmes évolutionnaires et l’intelligence en essaim . [67]

Apprentissage

L’apprentissage automatique (ML), un concept fondamental de la recherche en IA depuis la création du domaine, [k] est l’étude d’algorithmes informatiques qui s’améliorent automatiquement grâce à l’expérience. [l]

L’apprentissage non supervisé trouve des modèles dans un flux d’entrées. L’apprentissage supervisé nécessite un humain pour étiqueter d’abord les données d’entrée et se décline en deux variétés principales : la classification et la régression numérique.. La classification est utilisée pour déterminer à quelle catégorie quelque chose appartient – le programme voit un certain nombre d’exemples de choses de plusieurs catégories et apprendra à classer les nouvelles entrées. La régression est la tentative de produire une fonction qui décrit la relation entre les entrées et les sorties et prédit comment les sorties devraient changer à mesure que les entrées changent. Les classificateurs et les apprenants de régression peuvent être considérés comme des « approximateurs de fonction » essayant d’apprendre une fonction inconnue (éventuellement implicite) ; par exemple, un classificateur de spam peut être considéré comme apprenant une fonction qui fait correspondre le texte d’un e-mail à l’une des deux catégories, “spam” ou “pas de spam”. [71] En apprentissage par renforcementl’agent est récompensé pour les bonnes réponses et puni pour les mauvaises. L’agent classe ses réponses pour former une stratégie pour opérer dans son espace de problèmes. [72] L’ apprentissage par transfert se produit lorsque les connaissances acquises à partir d’un problème sont appliquées à un nouveau problème. [73]

La théorie de l’apprentissage informatique peut évaluer les apprenants en fonction de la complexité informatique , de la complexité de l’échantillon (la quantité de données requise) ou d’autres notions d’ optimisation . [74]

Traitement du langage naturel

Un arbre d’analyse représente la structure syntaxique d’une phrase selon une certaine grammaire formelle .

Le traitement du langage naturel (TAL) [75] permet aux machines de lire et de comprendre le langage humain. Un système de traitement du langage naturel suffisamment puissant permettrait des interfaces utilisateur en langage naturel et l’acquisition de connaissances directement à partir de sources écrites par l’homme, telles que les textes des fils de presse. Certaines applications simples de la PNL incluent la recherche d’ informations , la réponse aux questions et la traduction automatique . [76]

L’IA symbolique a utilisé une syntaxe formelle pour traduire la structure profonde des phrases en logique . Cela n’a pas produit d’applications utiles, en raison de l’ indocilité de la logique [49] et de l’étendue des connaissances de bon sens. [58] Les techniques statistiques modernes comprennent les fréquences de cooccurrence (la fréquence à laquelle un mot apparaît près d’un autre), la “recherche de mots clés” (recherche d’un mot particulier pour récupérer des informations), l’apprentissage en profondeur basé sur les transformateurs (qui trouve des modèles dans le texte), et autres. [77] Ils ont atteint une précision acceptable au niveau de la page ou du paragraphe et, d’ici 2019, pourraient générer un texte cohérent.[78]

Perception

La détection de caractéristiques (illustrée : détection des contours ) aide l’IA à composer des structures abstraites informatives à partir de données brutes.

La perception de la machine [79] est la capacité d’utiliser les entrées de capteurs (tels que des caméras, des microphones, des signaux sans fil et des capteurs lidar , sonar, radar et tactiles actifs ) pour déduire des aspects du monde. Les applications incluent la reconnaissance vocale , [80] la reconnaissance faciale et la reconnaissance d’objets . [81]

La vision par ordinateur est la capacité d’analyser les données visuelles. [82]

Mouvement et manipulation

L’IA est largement utilisée en robotique. [83] La localisation est la façon dont un robot connaît son emplacement et cartographie son environnement. Lorsqu’on leur donne un petit environnement statique et visible, c’est facile ; cependant, les environnements dynamiques, tels que (en endoscopie ) l’intérieur du corps respiratoire d’un patient, posent un plus grand défi. [84]

La planification des mouvements est le processus de décomposition d’une tâche de mouvement en “primitives” telles que les mouvements articulaires individuels. Un tel mouvement implique souvent un mouvement conforme, un processus où le mouvement nécessite de maintenir un contact physique avec un objet. Les robots peuvent apprendre par expérience comment se déplacer efficacement malgré la présence de frottements et de patinages. [85]

Intelligence sociale

Kismet , un robot aux compétences sociales rudimentaires [86]

L’informatique affective est un parapluie interdisciplinaire qui comprend des systèmes qui reconnaissent, interprètent, traitent ou simulent les sentiments, les émotions et l’humeur humains . [87] Par exemple, certains assistants virtuels sont programmés pour parler de manière conversationnelle ou même pour plaisanter avec humour ; cela les rend plus sensibles à la dynamique émotionnelle de l’interaction humaine, ou pour faciliter autrement l’interaction homme-ordinateur . Cependant, cela tend à donner aux utilisateurs naïfs une conception irréaliste de l’intelligence réelle des agents informatiques existants. [88]

Les succès modérés liés à l’informatique affective incluent l’ analyse textuelle des sentiments et, plus récemment, l’analyse multimodale des sentiments ), dans laquelle l’IA classe les affects affichés par un sujet filmé. [89]

Intelligence générale

Une machine dotée d’une intelligence générale peut résoudre une grande variété de problèmes avec une ampleur et une polyvalence similaires à l’intelligence humaine. Il existe plusieurs idées concurrentes sur la façon de développer l’intelligence artificielle générale. Hans Moravec et Marvin Minsky soutiennent que le travail dans différents domaines individuels peut être intégré dans un système multi-agent avancé ou une architecture cognitive avec une intelligence générale. [90] Pedro Domingos espère qu’il existe un « algorithme principal » conceptuellement simple, mais mathématiquement difficile, qui pourrait conduire à l’AGI. [91] D’autres croient que les caractéristiques anthropomorphiques comme unle cerveau artificiel [92] ou le développement simulé de l’enfant [m] atteindra un jour un point critique où émergera l’intelligence générale .

Outils

Recherche et optimisation

De nombreux problèmes d’IA peuvent être résolus théoriquement en recherchant intelligemment parmi de nombreuses solutions possibles : [93] Le raisonnement peut être réduit à l’exécution d’une recherche. Par exemple, la preuve logique peut être considérée comme la recherche d’un chemin qui mène des prémisses aux conclusions , où chaque étape est l’application d’une règle d’inférence . [94] Les algorithmes de planification recherchent dans des arbres d’objectifs et de sous-objectifs, essayant de trouver un chemin vers un objectif cible, un processus appelé analyse des moyens et des fins . [95] Les algorithmes robotiques pour déplacer les membres et saisir des objets utilisent des recherches locales dans l’espace de configuration. [96]

De simples recherches exhaustives [97] sont rarement suffisantes pour la plupart des problèmes du monde réel : l’ espace de recherche (le nombre d’endroits à rechercher) croît rapidement jusqu’à des nombres astronomiques . Le résultat est une recherche trop lente ou qui ne se termine jamais. La solution, pour de nombreux problèmes, est d’utiliser des « heuristiques » ou des « règles empiriques » qui priorisent les choix en faveur de ceux qui sont les plus susceptibles d’atteindre un objectif et de le faire en un nombre d’étapes plus court. Dans certaines méthodologies de recherche, l’heuristique peut aussi servir à éliminer certains choix peu susceptibles de mener à un but (ce que l’on appelle « l’ élagage de l’ arbre de recherche »). Heuristiquefournir au programme une “meilleure estimation” du chemin sur lequel se trouve la solution. [98] L’heuristique limite la recherche de solutions à un échantillon de plus petite taille. [99]

Un essaim de particules à la recherche du minimum global

Un type de recherche très différent a pris de l’importance dans les années 1990, basé sur la théorie mathématique de l’ optimisation . Pour de nombreux problèmes, il est possible de commencer la recherche avec une certaine forme d’estimation, puis d’affiner progressivement l’estimation jusqu’à ce qu’il ne soit plus possible d’effectuer d’autres raffinements. Ces algorithmes peuvent être visualisés comme de l’ escalade à l’aveugle : nous commençons la recherche à un point aléatoire du paysage, puis, par sauts ou marches, nous continuons à déplacer notre supposition vers le haut, jusqu’à ce que nous atteignions le sommet. D’ autres algorithmes d’ optimisation associés incluent l’ optimisation aléatoire , la recherche de faisceaux et les métaheuristiques comme le recuit simulé . [100] Calcul évolutifutilise une forme de recherche d’optimisation. Par exemple, ils peuvent commencer avec une population d’organismes (les suppositions), puis leur permettre de muter et de se recombiner, en sélectionnant uniquement les plus aptes à survivre à chaque génération (en affinant les suppositions). Les algorithmes évolutionnaires classiques incluent les algorithmes génétiques , la programmation de l’ expression génique et la programmation génétique . [101] Alternativement, les processus de recherche distribués peuvent se coordonner via des algorithmes d’intelligence en essaim . Deux algorithmes d’essaims populaires utilisés dans la recherche sont l’optimisation des essaims de particules (inspirée du flocage d’oiseaux ) et l’ optimisation des colonies de fourmis(inspiré des pistes de fourmis ). [102]

Logique

La logique [103] est utilisée pour la représentation des connaissances et la résolution de problèmes, mais elle peut également être appliquée à d’autres problèmes. Par exemple, l’ algorithme satplan utilise la logique pour la planification [104] et la programmation logique inductive est une méthode d’ apprentissage . [105]

Plusieurs formes différentes de logique sont utilisées dans la recherche en IA. La logique propositionnelle [106] implique des fonctions de vérité telles que “ou” et “non”. La logique du premier ordre [107] ajoute des quantificateurs et des prédicats et peut exprimer des faits sur les objets, leurs propriétés et leurs relations les uns avec les autres. La logique floue attribue un “degré de vérité” (entre 0 et 1) à des déclarations vagues telles que “Alice est vieille” (ou riche, ou grande, ou affamée), qui sont trop imprécises linguistiquement pour être complètement vraies ou fausses. [108] Logiques par défaut , logiques non monotones et circonscriptionsont des formes de logique conçues pour aider au raisonnement par défaut et au problème de qualification . [57] Plusieurs extensions de la logique ont été conçues pour gérer des domaines de connaissance spécifiques , tels que les logiques de description ; [53] calcul de situation, calcul d’ événement et calcul fluent (pour représenter les événements et le temps) ; [54] calcul causal ; [55] calcul des croyances (révision des croyances) ; et les logiques modales . [56] Des logiques pour modéliser des déclarations contradictoires ou incohérentes survenant dans des systèmes multi-agents ont également été conçues, telles quelogiques paracohérentes . [ citation nécessaire ]

Méthodes probabilistes pour raisonnement incertain

Le regroupement par maximisation des attentes des données d’éruption Old Faithful commence à partir d’une supposition aléatoire, mais converge ensuite avec succès vers un regroupement précis des deux modes d’éruption physiquement distincts.

De nombreux problèmes d’IA (y compris dans le raisonnement, la planification, l’apprentissage, la perception et la robotique) obligent l’agent à opérer avec des informations incomplètes ou incertaines. Les chercheurs en intelligence artificielle ont conçu un certain nombre d’outils pour résoudre ces problèmes en utilisant des méthodes issues de la théorie des probabilités et de l’économie. [109] Les réseaux bayésiens [110] sont un outil très général qui peut être utilisé pour divers problèmes, notamment le raisonnement (en utilisant l’ algorithme d’ inférence bayésienne ), [n] [112] l’apprentissage (en utilisant l’ algorithme d’espérance-maximisation ), [o] [114] planification (à l’aide de réseaux de décision ) [115] etperception (à l’aide de réseaux bayésiens dynamiques ). [116] Les algorithmes probabilistes peuvent également être utilisés pour filtrer, prédire, lisser et trouver des explications pour les flux de données, aidant les systèmes de perception à analyser les processus qui se produisent au fil du temps (par exemple, les modèles de Markov cachés ou les filtres de Kalman ). [116]

Un concept clé de la science économique est ” l’utilité “, une mesure de la valeur d’une chose pour un agent intelligent. Des outils mathématiques précis ont été développés pour analyser comment un agent peut faire des choix et planifier, en utilisant la théorie de la décision , l’analyse de la décision , [117] et la théorie de la valeur de l’information . [118] Ces outils incluent des modèles tels que les processus de décision de Markov , [119] les réseaux de décision dynamiques , [116] la théorie des jeux et la conception de mécanismes . [120]

Classificateurs et méthodes d’apprentissage statistique

Les applications d’IA les plus simples peuvent être divisées en deux types : les classificateurs (“si brillant alors diamant”) et les contrôleurs (“si diamant alors ramasser”). Cependant, les contrôleurs classent également les conditions avant de déduire des actions, et la classification constitue donc un élément central de nombreux systèmes d’IA. Les classificateurs sont des fonctions qui utilisent la correspondance de modèlespour déterminer la correspondance la plus proche. Ils peuvent être ajustés en fonction d’exemples, ce qui les rend très attrayants pour une utilisation en IA. Ces exemples sont connus sous le nom d’observations ou de modèles. En apprentissage supervisé, chaque modèle appartient à une certaine classe prédéfinie. Une classe est une décision qui doit être prise. Toutes les observations combinées avec leurs étiquettes de classe constituent un ensemble de données. Lorsqu’une nouvelle observation est reçue, cette observation est classée en fonction de l’expérience antérieure. [121]

Un classifieur peut être entraîné de différentes manières ; il existe de nombreuses approches statistiques et d’apprentissage automatique . L’ arbre de décision est l’algorithme d’apprentissage automatique symbolique le plus simple et le plus largement utilisé. [122] L’ algorithme du plus proche voisin K était l’IA analogique la plus largement utilisée jusqu’au milieu des années 1990. [123] Les méthodes du noyau telles que la machine à vecteurs de support (SVM) ont déplacé le k-plus proche voisin dans les années 1990. [124] Le classificateur naïf de Bayes serait “l’apprenant le plus largement utilisé” [125] chez Google, en partie à cause de son évolutivité. [126] Les réseaux de neurones sont également utilisés pour la classification.[127]

Les performances du classificateur dépendent fortement des caractéristiques des données à classer, telles que la taille de l’ensemble de données, la distribution des échantillons entre les classes, la dimensionnalité et le niveau de bruit. Les classificateurs basés sur un modèle fonctionnent bien si le modèle supposé correspond extrêmement bien aux données réelles. Sinon, si aucun modèle correspondant n’est disponible, et si la précision (plutôt que la vitesse ou l’évolutivité) est la seule préoccupation, la sagesse conventionnelle est que les classificateurs discriminants (en particulier SVM) ont tendance à être plus précis que les classificateurs basés sur un modèle tels que “naïf Bayes” sur la plupart des ensembles de données pratiques. [128]

Réseaux de neurones artificiels

Un réseau de neurones est un groupe de nœuds interconnectés, semblable au vaste réseau de neurones du cerveau humain .

Les réseaux de neurones [127] se sont inspirés de l’architecture des neurones du cerveau humain. Un simple “neurone” N accepte les entrées d’autres neurones, chacun d’eux, lorsqu’il est activé (ou “activé”), émet un “vote” pondéré pour ou contre l’activation du neurone N lui-même. L’apprentissage nécessite un algorithme pour ajuster ces pondérations en fonction des données d’apprentissage ; un algorithme simple (surnommé « tirer ensemble, câbler ensemble ») consiste à augmenter le poids entre deux neurones connectés lorsque l’activation de l’un déclenche l’activation réussie de l’autre. Les neurones ont un spectre continu d’activation ; de plus, les neurones peuvent traiter les entrées de manière non linéaire plutôt que de peser des votes directs.

Les réseaux de neurones modernes modélisent des relations complexes entre les entrées et les sorties et trouvent des modèles dans les données. Ils peuvent apprendre des fonctions continues et même des opérations logiques numériques. Les réseaux de neurones peuvent être considérés comme un type d’ optimisation mathématique – ils effectuent une descente de gradient sur une topologie multidimensionnelle qui a été créée en entraînant le réseau. La technique d’entraînement la plus courante est l’ algorithme de rétropropagation . [129] D’autres techniques d’ apprentissage pour les réseaux de neurones sont l’apprentissage Hebbian (“feu ensemble, câble ensemble”), GMDH ou apprentissage compétitif . [130]

Les principales catégories de réseaux sont les réseaux de neurones acycliques ou à anticipation (où le signal passe dans une seule direction) et les réseaux de neurones récurrents (qui permettent une rétroaction et des mémoires à court terme des événements d’entrée précédents). Parmi les réseaux prédictifs les plus populaires figurent les Perceptrons , les Perceptrons multicouches et les réseaux à base radiale . [131]

L’apprentissage en profondeur Representing Images on Multiple Layers of Abstraction in Deep Learning Representing Images on Multiple Layers of Abstraction in Deep Learning Représenter des images sur plusieurs couches d’abstraction dans l’apprentissage en profondeur [132]

L’apprentissage profond [133] utilise plusieurs couches de neurones entre les entrées et les sorties du réseau. Les multiples couches peuvent progressivement extraire des fonctionnalités de niveau supérieur à partir de l’entrée brute. Par exemple, dans le traitement d’image , les couches inférieures peuvent identifier les bords, tandis que les couches supérieures peuvent identifier les concepts pertinents pour un être humain, tels que les chiffres, les lettres ou les visages. [134] L’apprentissage en profondeur a considérablement amélioré les performances des programmes dans de nombreux sous-domaines importants de l’intelligence artificielle, notamment la vision par ordinateur , la reconnaissance vocale , la classification des images [135] et autres.

L’apprentissage en profondeur utilise souvent des réseaux de neurones convolutifs pour plusieurs ou toutes ses couches. Dans une couche convolutive, chaque neurone ne reçoit d’entrée que d’une zone restreinte de la couche précédente appelée champ récepteur du neurone . Cela peut réduire considérablement le nombre de connexions pondérées entre les neurones, [136] et crée une hiérarchie similaire à l’organisation du cortex visuel animal. [137]

Dans un réseau neuronal récurrent, le signal se propagera à travers une couche plus d’une fois ; [138] Ainsi, un RNN est un exemple d’apprentissage en profondeur. [139] Les RNN peuvent être formés par descente de gradient , [140] cependant les gradients à long terme qui sont rétro-propagés peuvent “disparaître” (c’est-à-dire qu’ils peuvent tendre vers zéro) ou “exploser” (c’est-à-dire qu’ils peuvent avoir tendance à l’infini), connu sous le nom de problème du gradient de fuite . [141] La technique de la mémoire à long court terme (LSTM) peut empêcher cela dans la plupart des cas. [142]

Langages et matériel spécialisés

Des langages spécialisés pour l’intelligence artificielle ont été développés, tels que Lisp , Prolog , TensorFlow et bien d’autres. Le matériel développé pour l’IA comprend des accélérateurs d’IA et l’informatique neuromorphique .

Applications

Pour ce projet, l’IA a dû apprendre les motifs typiques des couleurs et des coups de pinceau du peintre de la Renaissance Raphaël . Le portrait montre le visage de l’actrice Ornella Muti , “peinte” par AI à la manière de Raphaël.

L’IA est pertinente pour toute tâche intellectuelle. [143] Les techniques modernes d’intelligence artificielle sont omniprésentes et trop nombreuses pour être énumérées ici. [144] Souvent, lorsqu’une technique atteint l’usage courant, elle n’est plus considérée comme de l’intelligence artificielle ; ce phénomène est décrit comme l’ effet AI . [145]

Dans les années 2010, les applications d’IA étaient au cœur des domaines informatiques les plus prospères sur le plan commercial et sont devenues une caractéristique omniprésente de la vie quotidienne. L’IA est utilisée dans les moteurs de recherche (tels que Google Search ), ciblant les publicités en ligne , [146] [ source non primaire nécessaire ] systèmes de recommandation (offerts par Netflix , YouTube ou Amazon ), générant du trafic Internet , [147] [148] ciblé publicité ( AdSense , Facebook ), assistants virtuels (tels queSiri ou Alexa ), [149] véhicules autonomes (y compris les drones et les voitures autonomes ), traduction automatique de la langue ( Microsoft Translator , Google Translate ), reconnaissance faciale ( Apple ‘s Face ID ou Microsoft ‘s DeepFace ), étiquetage d’image (utilisé par Facebook , iPhoto d’ Apple et TikTok ) et le filtrage anti- spam .

Il existe également des milliers d’applications d’IA réussies utilisées pour résoudre des problèmes pour des industries ou des institutions spécifiques. Quelques exemples sont le stockage d’énergie , [150] les deepfakes , [151] le diagnostic médical, la logistique militaire ou la gestion de la chaîne d’approvisionnement.

Le jeu est un test de la force de l’IA depuis les années 1950. Deep Blue est devenu le premier système informatique de jeu d’échecs à battre un champion du monde d’échecs en titre, Garry Kasparov , le 11 mai 1997. [152] En 2011, in a Jeopardy! match d’exposition de quiz , le système de réponse aux questions d’ IBM , Watson , a vaincu les deux plus grands Jeopardy ! champions, Brad Rutter et Ken Jennings , par une marge significative. [153] En mars 2016, AlphaGo a remporté 4 matchs de Go sur 5 dans un match avec le champion de GoLee Sedol , devenant le premier système de jeu de Go sur ordinateur à battre un joueur de Go professionnel sans handicap . [154] D’autres programmes gèrent des jeux d’informations imparfaites ; comme pour le poker à un niveau surhumain, Pluribus [p] et Cepheus . [156] DeepMind dans les années 2010 a développé une « intelligence artificielle généralisée » qui pourrait apprendre par elle-même de nombreux jeux Atari divers . [157]

En 2020, les systèmes de traitement du langage naturel tels que l’énorme GPT-3 (alors de loin le plus grand réseau de neurones artificiels) correspondaient aux performances humaines sur des références préexistantes, mais sans que le système n’atteigne une compréhension de bon sens du contenu des références. [158] L’ AlphaFold 2 de DeepMind (2020) a démontré la capacité d’approximer, en heures plutôt qu’en mois, la structure 3D d’une protéine. [159] D’autres applications prédisent le résultat de décisions judiciaires, [160] créent de l’art (comme la poésie ou la peinture) et prouvent des théorèmes mathématiques .

Familles de brevets AI pour les catégories et sous-catégories d’applications fonctionnelles. La vision par ordinateur représente 49 % des familles de brevets liés à une application fonctionnelle en 2016.

En 2019, l’OMPI a signalé que l’IA était la technologie émergente la plus prolifique en termes de nombre de demandes de brevet et de brevets délivrés, l’ Internet des objets étant estimé être le plus important en termes de taille de marché. Elle a été suivie, toujours en taille de marché, par les technologies du big data, la robotique, l’IA, l’impression 3D et la cinquième génération de services mobiles (5G). [161]Depuis l’émergence de l’IA dans les années 1950, 340 000 demandes de brevet liées à l’IA ont été déposées par des innovateurs et 1,6 million d’articles scientifiques ont été publiés par des chercheurs, la majorité de tous les dépôts de brevets liés à l’IA ayant été publiés depuis 2013. Les entreprises représentent 26 des 30 premières. Les demandeurs de brevet d’IA, les universités ou les organismes de recherche publics représentant les quatre autres. [162] Le ratio articles scientifiques/inventions a considérablement diminué, passant de 8:1 en 2010 à 3:1 en 2016, ce qui est considéré comme révélateur d’un passage de la recherche théorique à l’utilisation des technologies d’IA dans les produits et services commerciaux. Apprentissage automatiqueest la technique d’IA dominante divulguée dans les brevets et est incluse dans plus d’un tiers de toutes les inventions identifiées (134777 brevets d’apprentissage automatique déposés pour un total de 167038 brevets d’IA déposés en 2016), avec vision par ordinateurétant l’application fonctionnelle la plus populaire. Les brevets liés à l’IA ne divulguent pas seulement des techniques et des applications d’IA, ils font souvent également référence à un domaine d’application ou à une industrie. Vingt domaines d’application ont été identifiés en 2016 et comprenaient, par ordre d’importance : les télécommunications (15 %), les transports (15 %), les sciences de la vie et médicales (12 %), et les appareils personnels, l’informatique et l’interaction homme-machine (11 %). . Les autres secteurs comprenaient la banque, le divertissement, la sécurité, l’industrie et la fabrication, l’agriculture et les réseaux (y compris les réseaux sociaux, les villes intelligentes et l’Internet des objets). IBM possède le plus grand portefeuille de brevets d’IA avec 8 290 demandes de brevet, suivi de Microsoft avec 5 930 demandes de brevet. [162]

Philosophie

Définir l’intelligence artificielle

Penser contre agir : le test de Turing

Alan Turing écrivait en 1950 “Je propose de considérer la question ‘les machines peuvent-elles penser’?” [163] Il a conseillé de changer la question de savoir si une machine “pense” à “si oui ou non il est possible pour une machine de montrer un comportement intelligent”. [164] La seule chose visible est le comportement de la machine, donc peu importe si la machine est consciente , ou a un esprit , ou si l’intelligence est simplement une “simulation” et non “la chose réelle”. Il a noté que nous ne savons pas non plus ces choses sur les autres, mais que nous étendons une “convention polie” qu’ils “pensent” réellement. Cette idée est à la base du test de Turing .

Agir humainement vs. agir intelligemment : agents intelligents

Le fondateur de l’IA, John McCarthy , a déclaré : “L’intelligence artificielle n’est pas, par définition, une simulation de l’intelligence humaine”. [167] Russell et Norvig sont d’accord et critiquent le test de Turing. Ils ont écrit : ” Les textes d’ingénierie aéronautique ne définissent pas l’objectif de leur domaine comme ” fabriquer des machines qui volent si exactement comme des pigeons qu’elles peuvent tromper les autres pigeons “. ” [ 166] D’autres chercheurs et analystes ne sont pas d’accord et ont soutenu que l’IA devrait simuler des l’intelligence en étudiant la psychologie ou la neurobiologie . [r]

Le paradigme de l’agent intelligent [169] définit le comportement intelligent en général, sans référence aux êtres humains. Un agent intelligent est un système qui perçoit son environnement et prend des mesures qui maximisent ses chances de succès. Tout système qui a un comportement orienté vers un but peut être analysé comme un agent intelligent : quelque chose d’aussi simple qu’un thermostat, aussi complexe qu’un être humain, ainsi que de grands systèmes tels que des entreprises , des biomes ou des nations . Le paradigme de l’agent intelligent est devenu largement accepté au cours des années 1990 et sert actuellement de définition du domaine. [un]

Le paradigme a d’autres avantages pour l’IA. Il fournit un moyen fiable et scientifique de tester les programmes ; les chercheurs peuvent directement comparer ou même combiner différentes approches de problèmes isolés, en se demandant quel agent est le plus apte à maximiser une « fonction de but » donnée. Cela leur donne également un langage commun pour communiquer avec d’autres domaines – tels que l’optimisation mathématique (qui est définie en termes de “buts”) ou l’économie (qui utilise la même définition d’un ” agent rationnel “). [170]

Évaluation des approches de l’IA

Aucune théorie ou paradigme unificateur établi n’a guidé la recherche sur l’IA pendant la majeure partie de son histoire. [s] Le succès sans précédent du machine learning statistique dans les années 2010 a éclipsé toutes les autres approches (à tel point que certaines sources, notamment dans le monde des affaires, utilisent le terme « intelligence artificielle » pour signifier « machine learning avec réseaux de neurones »). Cette approche est principalement sous-symbolique , soignée , douce et étroite (voir ci-dessous). Les critiques soutiennent que ces questions devront peut-être être réexaminées par les futures générations de chercheurs en IA.

L’IA symbolique et ses limites

L’IA symbolique (ou ” GOFAI “) [172] simulait le raisonnement conscient de haut niveau que les gens utilisent lorsqu’ils résolvent des énigmes, expriment un raisonnement juridique et font des mathématiques. Ils réussissaient très bien dans des tâches “intelligentes” telles que l’algèbre ou les tests de QI. Dans les années 1960, Newell et Simon ont proposé l’ hypothèse des systèmes de symboles physiques : “Un système de symboles physiques a les moyens nécessaires et suffisants d’action intelligente générale.” [173]

Cependant, l’approche symbolique a échoué lamentablement sur de nombreuses tâches que les humains résolvent facilement, telles que l’apprentissage, la reconnaissance d’un objet ou le raisonnement de bon sens. Le paradoxe de Moravec est la découverte que les tâches “intelligentes” de haut niveau étaient faciles pour l’IA, mais que les tâches “instinctives” de bas niveau étaient extrêmement difficiles. [174] Le philosophe Hubert Dreyfus avait soutenu depuis les années 1960 que l’expertise humaine dépend de l’instinct inconscient plutôt que de la manipulation consciente des symboles, et du fait d’avoir une “sensation” de la situation, plutôt que d’une connaissance symbolique explicite. [175] Bien que ses arguments aient été ridiculisés et ignorés lorsqu’ils ont été présentés pour la première fois, la recherche sur l’IA a finalement été d’accord. [t] [50]

Le problème n’est pas résolu : le raisonnement sous-symbolique peut commettre bon nombre des mêmes erreurs impénétrables que l’intuition humaine, comme le biais algorithmique . Des critiques tels que Noam Chomsky soutiennent que la poursuite des recherches sur l’IA symbolique sera toujours nécessaire pour atteindre l’intelligence générale, [177] [178] en partie parce que l’IA sous-symbolique s’éloigne de l’ IA explicable : il peut être difficile, voire impossible, de comprendre pourquoi un programme d’IA statistique moderne a pris une décision particulière.

Propre vs débraillé

“Neats” espère que le comportement intelligent est décrit à l’aide de principes simples et élégants (tels que la logique , l’ optimisation ou les réseaux de neurones ). Les “Scruffies” s’attendent à ce que cela nécessite nécessairement de résoudre un grand nombre de problèmes sans rapport. Cette question a été activement discutée dans les années 70 et 80, [179] mais dans les années 1990, des méthodes mathématiques et des normes scientifiques solides sont devenues la norme, une transition que Russell et Norvig ont qualifiée de « victoire des purs ». [180]

Informatique douce vs informatique dure

Trouver une solution prouvée correcte ou optimale est insoluble pour de nombreux problèmes importants. [49] L’informatique douce est un ensemble de techniques, comprenant des algorithmes génétiques , une logique floue et des réseaux de neurones , qui tolèrent l’imprécision, l’incertitude, la vérité partielle et l’approximation. L’ informatique logicielle a été introduite à la fin des années 80 et les programmes d’IA les plus réussis du 21e siècle sont des exemples d’informatique logicielle avec des réseaux de neurones .

IA étroite ou générale

Les chercheurs en IA sont divisés quant à savoir s’il faut poursuivre directement les objectifs de l’intelligence artificielle générale et de la superintelligence (IA générale) ou résoudre autant de problèmes spécifiques que possible (IA étroite) dans l’espoir que ces solutions mèneront indirectement aux objectifs à long terme du domaine [ 181] [182] L’intelligence générale est difficile à définir et difficile à mesurer, et l’IA moderne a eu des succès plus vérifiables en se concentrant sur des problèmes spécifiques avec des solutions spécifiques. Le sous-domaine expérimental de l’intelligence artificielle générale étudie exclusivement ce domaine.

Conscience, sensibilité et esprit de la machine

La philosophie de l’esprit ne sait pas si une machine peut avoir un esprit , une conscience et des états mentaux , au même sens que les êtres humains. Ce problème considère les expériences internes de la machine, plutôt que son comportement externe. La recherche traditionnelle sur l’IA considère que cette question n’est pas pertinente car elle n’affecte pas les objectifs du domaine. Stuart Russell et Peter Norvig observent que la plupart des chercheurs en IA “ne se soucient pas de la [philosophie de l’IA] – tant que le programme fonctionne, ils ne se soucient pas de savoir si vous l’appelez une simulation d’intelligence ou une intelligence réelle”. [183] ​​Cependant, la question est devenue centrale dans la philosophie de l’esprit. C’est aussi typiquement la question centrale en jeu dans l’intelligence artificielle dans la fiction .

Conscience

David Chalmers a identifié deux problèmes dans la compréhension de l’esprit, qu’il a nommés les problèmes “difficiles” et “faciles” de la conscience. [184] Le problème facile est de comprendre comment le cerveau traite les signaux, élabore des plans et contrôle le comportement. Le problème difficile est d’expliquer comment cela se sent ou pourquoi cela devrait ressembler à quoi que ce soit. Le traitement humain de l’ information est facile à expliquer, cependant, l’expérience subjective humaine est difficile à expliquer. Par exemple, il est facile d’imaginer une personne daltonienne qui a appris à identifier quels objets dans son champ de vision sont rouges, mais on ne sait pas ce qui serait nécessaire pour que la personne sache à quoi ressemble le rouge . [185]

Computationalisme et fonctionnalisme

Le calculalisme est la position dans la philosophie de l’esprit selon laquelle l’esprit humain est un système de traitement de l’information et que la pensée est une forme d’informatique. Le calculalisme soutient que la relation entre l’esprit et le corps est similaire ou identique à la relation entre le logiciel et le matériel et peut donc être une solution au problème corps-esprit . Cette position philosophique a été inspirée par les travaux des chercheurs en intelligence artificielle et des scientifiques cognitifs dans les années 1960 et a été initialement proposée par les philosophes Jerry Fodor et Hilary Putnam . [186]

Le philosophe John Searle a qualifié cette position d ‘”IA forte” : “L’ordinateur programmé de manière appropriée avec les bonnes entrées et sorties aurait ainsi un esprit exactement dans le même sens que les êtres humains ont un esprit.” [u] Searle contredit cette affirmation avec son argument de chambre chinois , qui tente de montrer que, même si une machine simule parfaitement le comportement humain, il n’y a toujours aucune raison de supposer qu’elle a aussi un esprit. [189]

Droits des robots

Si une machine a un esprit et une expérience subjective, alors elle peut aussi avoir une sensibilité (la capacité de ressentir), et si c’est le cas, alors elle pourrait aussi souffrir , et donc elle aurait droit à certains droits. [190] Tout droit hypothétique des robots se situerait sur un spectre comprenant les droits des animaux et les droits de l’homme. [191] Cette question a été considérée dans la fiction pendant des siècles, [192] et est maintenant considérée, par exemple, par l’ Institut californien pour l’avenir , cependant, les critiques soutiennent que la discussion est prématurée. [193]

Futur

Superintelligence

Une superintelligence, une hyperintelligence ou une intelligence surhumaine est un agent hypothétique qui posséderait une intelligence dépassant de loin celle de l’esprit humain le plus brillant et le plus doué. La superintelligence peut également faire référence à la forme ou au degré d’intelligence possédée par un tel agent. [182]

Si la recherche sur l’intelligence artificielle générale produisait des logiciels suffisamment intelligents, ils pourraient peut-être se reprogrammer et s’améliorer. Le logiciel amélioré serait encore meilleur pour s’améliorer, conduisant à une auto-amélioration récursive . [194] Son intelligence augmenterait de façon exponentielle dans une explosion d’intelligence et pourrait considérablement dépasser les humains. L’écrivain de science-fiction Vernor Vinge a nommé ce scénario la “singularité”. [195] Parce qu’il est difficile voire impossible de connaître les limites de l’intelligence ou les capacités des machines superintelligentes, la singularité technologique est un événement au-delà duquel les événements sont imprévisibles voire insondables.[196]

Le concepteur de robots Hans Moravec , le cybernéticien Kevin Warwick et l’inventeur Ray Kurzweil ont prédit que les humains et les machines fusionneront à l’avenir en cyborgs plus capables et plus puissants que les deux. Cette idée, appelée transhumanisme, trouve ses racines dans Aldous Huxley et Robert Ettinger . [197]

Edward Fredkin soutient que “l’intelligence artificielle est la prochaine étape de l’évolution”, une idée proposée pour la première fois par ” Darwin parmi les machines ” de Samuel Butler dès 1863, et développée par George Dyson dans son livre du même nom en 1998. [198]

Des risques

Conférence de Fillipo Santoni de Sio ( Université de technologie de Delft ) sur les risques de l’intelligence artificielle et comment nous pouvons garder l’intelligence artificielle sous contrôle Chômage technologique

Dans le passé, la technologie a eu tendance à augmenter plutôt qu’à réduire l’emploi total, mais les économistes reconnaissent que “nous sommes en territoire inconnu” avec l’IA. [199] Une enquête d’économistes a montré un désaccord quant à savoir si l’utilisation croissante des robots et de l’IA entraînera une augmentation substantielle du chômage de longue durée , mais ils conviennent généralement que cela pourrait être un avantage net si les gains de productivité sont redistribués . [200] Les estimations subjectives du risque varient considérablement ; par exemple, Michael Osborne et Carl Benedikt Frey estiment que 47 % des emplois américains sont à « haut risque » d’automatisation potentielle, tandis qu’un rapport de l’OCDE classe seulement 9 % des emplois américains comme « à haut risque ».

Contrairement aux précédentes vagues d’automatisation, de nombreux emplois de la classe moyenne peuvent être éliminés par l’intelligence artificielle ; The Economist déclare que “l’inquiétude que l’IA pourrait faire aux cols blancs ce que la vapeur a fait aux cols bleus pendant la révolution industrielle” vaut “la peine d’être prise au sérieux”. [203] Les emplois à risque extrême vont des parajuristes aux cuisiniers de restauration rapide, tandis que la demande d’emplois est susceptible d’augmenter pour les professions liées aux soins allant des soins de santé personnels au clergé. [204]

Mauvais acteurs et IA armée

L’IA fournit un certain nombre d’outils particulièrement utiles aux gouvernements autoritaires : les logiciels espions intelligents , la reconnaissance faciale et la reconnaissance vocale permettent une surveillance généralisée ; une telle surveillance permet à l’apprentissage automatique de classer les ennemis potentiels de l’État et peut les empêcher de se cacher ; les systèmes de recommandation peuvent cibler précisément la propagande et la désinformation pour un effet maximal ; les deepfakes aident à produire de la désinformation ; l’IA avancée peut prendre des décisions centraliséesplus compétitif avec les systèmes libéraux et décentralisés tels que les marchés. [205]

Les terroristes, les criminels et les États voyous peuvent utiliser d’autres formes d’IA militarisées telles que la guerre numérique avancée et les armes autonomes létales . En 2015, plus de cinquante pays faisaient des recherches sur les robots de champ de bataille. [206]

L’IA d’apprentissage automatique est également capable de concevoir des dizaines de milliers de molécules toxiques en quelques heures. [207]

Biais algorithmique

Les programmes d’IA peuvent devenir biaisés après avoir appris à partir de données du monde réel. Il n’est généralement pas introduit par les concepteurs du système mais est appris par le programme, et donc les programmeurs ignorent souvent que le biais existe. [208] Un biais peut être introduit par inadvertance par la manière dont les données d’apprentissage sont sélectionnées. [209] Elle peut aussi émerger de corrélations : l’IA est utilisée pour classer les individus en groupes puis faire des prédictions en supposant que l’individu ressemblera aux autres membres du groupe. Dans certains cas, cette hypothèse peut être injuste. [210] Un exemple de ceci est COMPAS , un programme commercial largement utilisé par les tribunaux américainspour évaluer la probabilité qu’un prévenu devienne un récidiviste . ProPublica affirme que le niveau de risque de récidive attribué par COMPAS aux accusés noirs est beaucoup plus susceptible d’être surestimé que celui des accusés blancs, malgré le fait que le programme n’a pas été informé des races des accusés. [211] D’autres exemples où le biais algorithmique peut conduire à des résultats injustes sont lorsque l’IA est utilisée pour la notation de crédit ou l’embauche .

Risque existentiel

L’IA superintelligente pourrait être capable de s’améliorer au point que les humains ne pourraient plus la contrôler. Cela pourrait, comme le dit le physicien Stephen Hawking , « signifier la fin de la race humaine ». [212] Le philosophe Nick Bostrom soutient qu’une IA suffisamment intelligente si elle choisit des actions basées sur la réalisation d’un objectif, présentera un comportement convergent tel que l’acquisition de ressources ou la protection contre la fermeture. Si les objectifs de cette IA ne reflètent pas pleinement ceux de l’humanité, elle devra peut-être nuire à l’humanité pour acquérir plus de ressources ou s’empêcher d’être arrêtée, en fin de compte pour mieux atteindre son objectif. Il conclut que l’IA représente un risque pour l’humanité, aussi humble ou « amicale »” ses objectifs déclarés pourraient être. [213] Le politologue Charles T. Rubin soutient que “toute bienveillance suffisamment avancée peut être indiscernable de la malveillance.” Les humains ne devraient pas supposer que les machines ou les robots nous traiteraient favorablement car il n’y a a priori aucune raison de croire qu’ils partageraient notre système de morale. [214]

L’opinion des experts et des initiés de l’industrie est mitigée, avec des fractions importantes à la fois concernées et non concernées par le risque d’une éventuelle IA aux capacités surhumaines. [215] Stephen Hawking , le fondateur de Microsoft Bill Gates , le professeur d’histoire Yuval Noah Harari et le fondateur de SpaceX Elon Musk ont ​​tous exprimé de sérieuses inquiétudes quant à l’avenir de l’IA. [216] D’éminents titans de la technologie, dont Peter Thiel ( Amazon Web Services ) et Musk, ont engagé plus d’un milliard de dollars dans des entreprises à but non lucratif qui défendent le développement responsable de l’IA, comme OpenAI et leInstitut du futur de la vie . [217] Mark Zuckerberg (PDG, Facebook) a déclaré que l’intelligence artificielle est utile dans sa forme actuelle et continuera à aider les humains. [218] D’autres experts affirment que les risques sont suffisamment éloignés dans le futur pour ne pas valoir la peine d’être étudiés, ou que les humains seront précieux du point de vue d’une machine superintelligente. [219] Rodney Brooks , en particulier, a déclaré que l’IA “malveillante” est encore à des siècles de distance. [f]

Machines éthiques

Les IA conviviales sont des machines qui ont été conçues dès le départ pour minimiser les risques et faire des choix qui profitent aux humains. Eliezer Yudkowsky , qui a inventé le terme, soutient que le développement d’une IA conviviale devrait être une priorité de recherche plus élevée : cela peut nécessiter un investissement important et il doit être achevé avant que l’IA ne devienne un risque existentiel. [221]

Les machines intelligentes ont le potentiel d’utiliser leur intelligence pour prendre des décisions éthiques. Le domaine de l’éthique des machines fournit aux machines des principes et des procédures éthiques pour résoudre les dilemmes éthiques. [222] L’éthique de la machine est également appelée moralité de la machine , éthique computationnelle ou moralité computationnelle, [222] et a été fondée lors d’un symposium AAAI en 2005. [223]

D’autres approches incluent les “agents moraux artificiels” de Wendell Wallach [224] et les trois principes de Stuart J. Russell pour développer des machines dont les bénéfices sont prouvés. [225]

Régulation

La réglementation de l’intelligence artificielle est l’élaboration de politiques et de lois du secteur public pour promouvoir et réglementer l’intelligence artificielle (IA); elle est donc liée à la régulation plus large des algorithmes. [226] Le paysage réglementaire et politique de l’IA est un problème émergent dans les juridictions du monde entier. [227] Entre 2016 et 2020, plus de 30 pays ont adopté des stratégies dédiées à l’IA. [46] La plupart des États membres de l’UE avaient publié des stratégies nationales d’IA, tout comme le Canada, la Chine, l’Inde, le Japon, Maurice, la Fédération de Russie, l’Arabie saoudite, les Émirats arabes unis, les États-Unis et le Vietnam. D’autres étaient en train d’élaborer leur propre stratégie d’IA, notamment le Bangladesh, la Malaisie et la Tunisie. [46] LeLe Partenariat mondial sur l’intelligence artificielle a été lancé en juin 2020, indiquant la nécessité de développer l’IA conformément aux droits de l’homme et aux valeurs démocratiques, afin de garantir la confiance du public dans la technologie. [46] Henry Kissinger , Eric Schmidt et Daniel Huttenlocher ont publié une déclaration commune en novembre 2021 appelant à une commission gouvernementale pour réglementer l’IA. [228]

Dans la fiction

Le mot “robot” lui-même a été inventé par Karel Čapek dans sa pièce de 1921 RUR , le titre signifiant “Rossum’s Universal Robots”

Les êtres artificiels capables de penser sont apparus comme des dispositifs de narration depuis l’Antiquité [17] et ont été un thème persistant dans la science-fiction . [19]

Un trope commun dans ces œuvres a commencé avec Frankenstein de Mary Shelley , où une création humaine devient une menace pour ses maîtres. Cela inclut des œuvres telles que 2001 : A Space Odyssey d’ Arthur C. Clarke et Stanley Kubrick (tous deux de 1968), avec HAL 9000 , l’ordinateur meurtrier responsable du vaisseau spatial Discovery One , ainsi que The Terminator (1984) et The Matrix (1999). ). En revanche, les rares robots fidèles tels que Gort de The Day the Earth Stood Still (1951) et Bishop de Aliens (1986) sont moins présents dans la culture populaire. [229]

Isaac Asimov a introduit les trois lois de la robotique dans de nombreux livres et histoires, notamment la série “Multivac” sur un ordinateur super intelligent du même nom. Les lois d’Asimov sont souvent évoquées lors de discussions profanes sur l’éthique des machines; [230] alors que presque tous les chercheurs en intelligence artificielle connaissent les lois d’Asimov à travers la culture populaire, ils considèrent généralement les lois comme inutiles pour de nombreuses raisons, dont l’une est leur ambiguïté. [231]

Le transhumanisme (la fusion des humains et des machines) est exploré dans le manga Ghost in the Shell et la série de science-fiction Dune .

Plusieurs œuvres utilisent l’IA pour nous obliger à nous confronter à la question fondamentale de ce qui fait de nous des humains, nous montrant des êtres artificiels qui ont la capacité de ressentir , et donc de souffrir. Cela apparaît dans RUR de Karel Čapek , les films AI Artificial Intelligence et Ex Machina , ainsi que le roman Les androïdes rêvent-ils de moutons électriques ? , par Philip K. Dick . Dick considère l’idée que notre compréhension de la subjectivité humaine est altérée par la technologie créée avec l’intelligence artificielle. [232]

Diplomatie scientifique

Guerre

Alors que la technologie et la recherche évoluent et que le monde entre dans la troisième révolution de la guerre après la poudre à canon et les armes nucléaires, la course aux armements de l’intelligence artificielle s’ensuit entre les États-Unis, la Chine et la Russie, trois pays avec les cinq budgets militaires les plus élevés au monde. [233] L’intention d’être un leader mondial de la recherche sur l’IA d’ici 2030 [234] a été déclarée par le dirigeant chinois Xi Jinping, et le président russe Poutine a déclaré que « celui qui devient le leader dans ce domaine deviendra le dirigeant du monde ». . [ citation nécessaire ]Si la Russie devait devenir le leader de la recherche sur l’IA, le président Poutine a déclaré l’intention de la Russie de partager certaines de leurs recherches avec le monde afin de ne pas monopoliser le domaine, [ la citation nécessaire ] similaire à leur partage actuel des technologies nucléaires, en maintenant la diplomatie scientifique rapports. Les États-Unis, la Chine et la Russie sont quelques exemples de pays qui ont pris position à l’égard de l’intelligence artificielle militaire dès 2014, ayant établi des programmes militaires pour développer des cyberarmes, contrôler des armes autonomes létales et des drones qui peuvent être utilisés pour surveillance.

Guerre russo-ukrainienne

Le président Poutine a annoncé que l’intelligence artificielle est l’avenir de toute l’humanité [ citation nécessaire ] et reconnaît le pouvoir et les opportunités que le développement et le déploiement de la technologie d’IA d’armes létales autonomes peuvent détenir dans la guerre et la sécurité intérieure, ainsi que ses menaces. La prédiction du président Poutine selon laquelle les guerres futures seront menées à l’aide de l’IA a commencé à se concrétiser dans une certaine mesure après que la Russie a envahi l’Ukraine le 24 février 2022 . L’armée ukrainienne utilise les drones turcs Bayraktar TB2 [235] qui nécessitent toujours une intervention humaine pour déployer des bombes à guidage laser mais peuvent décoller, atterrir et naviguer de manière autonome. L’Ukraine utilise également des drones Switchbladefourni par les États-Unis et recevant des informations collectées par les propres opérations de surveillance des États-Unis concernant le renseignement sur le champ de bataille et la sécurité nationale sur la Russie [236] . De même, la Russie peut utiliser l’IA pour aider à analyser les données du champ de bataille à partir de séquences de surveillance prises par des drones. Des rapports et des images montrent que l’armée russe a déployé des drones suicides KUB-BLA [237] en Ukraine, avec des spéculations sur l’intention d’assassiner le président ukrainien Volodymyr Zelenskyy.

Règlement de guerre

Au fur et à mesure que la recherche dans le domaine de l’IA progresse, l’utilisation de l’IA est rejetée par la campagne pour arrêter les robots tueurs et les leaders mondiaux de la technologie ont envoyé une pétition [238] aux Nations Unies appelant à de nouvelles réglementations sur le développement et l’utilisation des technologies de l’IA. en 2017, y compris une interdiction de l’utilisation d’ armes létales autonomes en raison de préoccupations éthiques pour les populations civiles innocentes.

La cyber-sécurité

Avec les cyberattaques et la génération d’appareils en constante évolution, l’IA peut être utilisée pour la détection des menaces et une réponse plus efficace grâce à la hiérarchisation des risques. Avec cet outil, certains défis sont également présentés tels que la confidentialité, le consentement éclairé et l’utilisation responsable [239] [240] . Selon la CISA , le cyberespace est difficile à sécuriser pour les facteurs suivants : la capacité des acteurs malveillants à opérer de n’importe où dans le monde, les liens entre le cyberespace et les systèmes physiques, et la difficulté de réduire les vulnérabilités et les conséquences dans les cyber-réseaux complexes [241 ]. Avec les progrès technologiques accrus du monde, le risque d’événements consécutifs à grande échelle augmente. Paradoxalement, la capacité de protéger l’information et de créer une ligne de communication entre la communauté scientifique et diplomatique se développe. Le rôle de la cybersécurité dans la diplomatie est devenu de plus en plus pertinent, créant le terme de cyberdiplomatie – qui n’est pas défini de manière uniforme et n’est pas synonyme de cyberdéfense [242] . De nombreux pays ont développé des approches uniques de la diplomatie scientifique dans le cyberespace.

L’approche de la République tchèque

Cela remonte à 2011, lorsque l’ Autorité de sécurité nationale tchèque (NSA) a été nommée autorité nationale pour le cyberagenda. Le rôle de la cyberdiplomatie s’est renforcé en 2017 lorsque le ministère tchèque des Affaires étrangères (MAE) a détecté une sérieuse cybercampagne dirigée contre ses propres réseaux informatiques [243] . En 2016, trois cyber-diplomates ont été déployés à Washington, DC, Bruxelles et Tel-Aviv, dans le but d’établir une coopération internationale active axée sur l’engagement avec l’ UE et l’OTAN . Le principal programme de ces efforts de diplomatie scientifique est de renforcer la recherche sur l’intelligence artificielle et la manière dont elle peut être utilisée dans la recherche, le développement et la confiance globale des consommateurs en matière de cybersécurité.[244] . CzechInvest est un acteur clé de la diplomatie scientifique et de la cybersécurité. Par exemple, en septembre 2018, ils ont organisé une mission au Canada en septembre 2018 avec un accent particulier sur l’intelligence artificielle. L’objectif principal de cette mission particulière était un effort de promotion au nom de Prague, visant à en faire un futur centre de connaissances pour l’industrie pour les entreprises canadiennes intéressées [245] .

L’approche de l’Allemagne

La cybersécurité est reconnue comme une tâche gouvernementale, divisée en trois ministères de responsabilité : le ministère fédéral de l’Intérieur, le ministère fédéral de la Défense et le ministère fédéral des Affaires étrangères [246] . Ces distinctions ont favorisé la création de diverses institutions, telles que l’Office national allemand de la sécurité de l’information, le Centre national de cyberdéfense, le Conseil national allemand de la cybersécurité et le Service du domaine de la cybersécurité et de l’information [244] . En 2018, une nouvelle stratégie pour l’intelligence artificielle a été établie par le gouvernement allemand, avec la création d’un réseau virtuel de recherche et d’innovation franco-allemand [247] , offrant une opportunité d’expansion de la recherche sur la cybersécurité.

Approche de l’Union européenne

L’adoption de la Stratégie de cybersécurité de l’Union européenne — Un document sur le cyberespace ouvert, sûr et sécurisé en 2013 par la Commission européenne [244] a fait avancer les efforts de cybersécurité intégrés à la diplomatie scientifique et à l’intelligence artificielle. Les efforts sont considérables, car l’UE finance divers programmes et institutions dans le but d’amener la science à la diplomatie et d’amener la diplomatie à la science. Quelques exemples sont le programme de cybersécurité Competence Research Innovation (CONCORDIA), qui rassemble 14 États membres [248] , Cybersecurity for Europe (CSE) – qui rassemble 43 partenaires impliquant 20 États membres [249]. En outre, le réseau européen des centres de cybersécurité et des centres de compétences pour l’innovation et les opérations (ECHO) rassemble 30 partenaires avec 15 États membres [250] et SPARTA rassemble 44 partenaires impliquant 14 États membres [251] . Ces efforts reflètent les objectifs généraux de l’UE, à savoir innover en matière de cybersécurité pour la défense et la protection, établir un cyberespace hautement intégré entre de nombreux pays et contribuer davantage à la sécurité de l’intelligence artificielle [244] .

Guerre russo-ukrainienne

Avec l’invasion de l’Ukraine, il y a eu une augmentation des cyber-activités malveillantes contre les États-Unis [252] , l’Ukraine et la Russie. Une utilisation documentée importante et rare de l’intelligence artificielle dans le conflit est au nom de l’Ukraine, en utilisant un logiciel de reconnaissance faciale pour découvrir les assaillants russes et identifier les Ukrainiens tués dans la guerre en cours [253]. Bien que ces personnalités gouvernementales ne se concentrent pas principalement sur la diplomatie scientifique et la cyberdiplomatie, d’autres institutions commentent l’utilisation de l’intelligence artificielle dans la cybersécurité avec cet accent. Par exemple, le Centre pour la sécurité et les technologies émergentes (CSET) de l’Université de Georgetown a le projet Cyber-AI, dont l’un des objectifs est d’attirer l’attention des décideurs sur le nombre croissant de recherches universitaires, qui exposent les conséquences d’exploitation de l’IA et de l’apprentissage automatique (ML ) algorithmes [254] . Cette vulnérabilité peut être une explication plausible de la raison pour laquelle la Russie ne s’engage pas dans l’utilisation de l’IA dans les conflits par Andrew Lohn, chercheur principal au CSET. En plus d’être utilisée sur le champ de bataille, l’IA est utilisée par le Pentagone pour analyser les données de la guerre, en analysant pour renforcer la cybersécurité et le renseignement de guerre pour les États-Unis [255] [256] .

Voir également

  • icon iconPortail de programmation informatique
  • IA en hausse
  • Problème de contrôle de l’IA
  • Course aux armements de l’intelligence artificielle
  • Intelligence artificielle générale
  • Algorithme de sélection de comportement
  • Automatisation des processus métier
  • Raisonnement par cas
  • Sciences citoyennes
  • Algorithme émergent
  • Genre féminin des technologies d’IA
  • Lexique de l’intelligence artificielle
  • Automatisation des processus robotiques
  • Intelligence synthétique
  • Revenu de base universel
  • IA faible

Notes d’explication

  1. ^ a b Définition de l’IA comme l’étude des agents intelligents , tirée des principaux manuels d’IA.
    • Poole, Mackworth & Goebel (1998 , p. 1 ), qui fournit la version utilisée dans cet article. Ces auteurs utilisent le terme « intelligence computationnelle » comme synonyme d’intelligence artificielle.
    • Russell & Norvig (2003 , p. 55) (qui préfèrent le terme “agent rationnel”) et écrivent “La vision de l’agent global est maintenant largement acceptée dans le domaine”.
    • Nilsson (1998)
    • Legg et Hutter (2007)
  2. Stuart Russell et Peter Norvig caractérisent cette définition comme « penser humainement » et la rejettent en faveur d’« agir rationnellement ». [1]
  3. ^ a b Cette liste de traits intelligents est basée sur les sujets couverts par les principaux manuels d’IA, notamment: Russell & Norvig (2003) , Luger & Stubblefield (2004) , Poole, Mackworth & Goebel (1998) et Nilsson (1998)
  4. Cette déclaration provient de la proposition de atelier de Dartmouth de 1956, qui se lit comme suit : “Chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut être décrit avec une telle précision qu’une machine peut être conçue pour le simuler.” [13]
  5. Daniel Crevier a écrit que « la conférence est généralement reconnue comme la date de naissance officielle de la nouvelle science ». [25] Russel et Norvifg appellent la conférence “la naissance de l’intelligence artificielle.” [26]
  6. ^ Russel et Norvig écrit que « pendant les 20 prochaines années, le domaine serait dominé par ces personnes et leurs étudiants ». [26]
  7. ^ Russel et Norvig ont écrit “c’était étonnant chaque fois qu’un ordinateur faisait quelque chose d’intelligent”. [28]
  8. ^ Les programmes décrits sontle programme de dames d’ Arthur Samuel pour l’ IBM 701 ,l’ ÉTUDIANT de Daniel Bobrow ,le théoricien de la logique de Newell et Simon et le SHRDLU de Terry Winograd .
  9. ^ Les approches incarnées de l’IA [38] ont été défendues par Hans Moravec [39] et Rodney Brooks [40] et portaient de nombreux noms : Nouvelle AI , [40] Robotique développementale , [41] IA située , IA basée sur le comportement ainsi que autres. Un mouvement similaire dans les sciences cognitives était la thèse de l’esprit incarné .
  10. ^ Clark a écrit: “Après une demi-décennie de percées silencieuses dans l’intelligence artificielle, 2015 a été une année charnière. Les ordinateurs sont plus intelligents et apprennent plus vite que jamais.” [dix]
  11. ^ Alan Turing a discuté de la centralité de l’apprentissage dès 1950, dans son article classique ” Computing Machinery and Intelligence “. [68] En 1956, lors de la première conférence d’été de Dartmouth AI, Ray Solomonoff a écrit un rapport sur l’apprentissage automatique probabiliste non supervisé : “An Inductive Inference Machine”. [69]
  12. Il s’agit d’une forme de la définition largement citée de l’apprentissage automatique de Tom Mitchell : “Un programme informatique est configuré pour apprendre d’une expérience E par rapport à une tâche T et à une mesure de performance P si sa performance sur T telle que mesurée par P s’améliore avec expérience E .” [70]
  13. Alan Turing a suggéré dans « Computing Machinery and Intelligence » qu’une « machine à penser » devrait être éduquée comme un enfant. [68] La robotique développementale est une version moderne de l’idée. [41]
  14. ^ Par rapport à la logique symbolique, l’inférence bayésienne formelle est coûteuse en calcul. Pour que l’inférence soit traitable, la plupart des observations doivent être conditionnellement indépendantes les unes des autres. AdSense utilise un réseau bayésien avec plus de 300 millions d’arêtes pour savoir quelles annonces diffuser.[111]
  15. ^ La maximisation des attentes, l’un des algorithmes les plus populaires en apprentissage automatique, permet le regroupement en présence de variables latentes inconnues .[113]
  16. ^ Le Smithsonian rapporte : “Pluribus a battu les pros du poker dans une série de parties de Texas Hold’em sans limite à six joueurs, atteignant une étape importante dans la recherche sur l’intelligence artificielle. C’est le premier bot à battre les humains dans une compétition multijoueur complexe.”[155]
  17. La distinction entre « agir » et « penser » est due à Russell et Norvig .[166]
  18. La distinction entre « agir humainement » et « agir rationnellement » est due à Russell et Norvig . [166] Pamela McCorduck a écrit en 2004 qu’il existe « deux grandes branches de l’intelligence artificielle : l’une visant à produire un comportement intelligent quelle que soit la manière dont il a été accompli, et l’autre visant à modéliser les processus intelligents trouvés dans la nature, en particulier les processus humains ».[168]
  19. Nils Nilsson écrivait en 1983 : “Pour faire simple, il y a un large désaccord dans le domaine sur ce qu’est l’IA.”[171]
  20. Daniel Crevier a écrit que « le temps a prouvé l’exactitude et la perspicacité de certains commentaires de Dreyfus. S’il les avait formulés de manière moins agressive, les actions constructives qu’ils suggéraient auraient pu être entreprises beaucoup plus tôt ».[176]
  21. ^ Searle a présenté cette définition de “l’IA forte” en 1999. [187] La ​​formulation originale de Searle était “L’ordinateur programmé de manière appropriée est vraiment un esprit, dans le sens où l’on peut littéralement dire que les ordinateurs dotés des bons programmes comprennent et ont d’autres états cognitifs .” [188] L’IA forte est définie de manière similaire par Russell et Norvig : “L’affirmation selon laquelle les machines pourraient éventuellement agir intelligemment (ou, peut-être mieux, agir comme si elles étaient intelligentes) est appelée l’hypothèse de l’IA faible par les philosophes, et l’affirmation selon laquelle les machines qui le font pensent réellement (par opposition à la simulation de la pensée) s’appelle l’hypothèse de “l’IA forte”. [183]
  22. ^ Voir tableau 4 ; 9 % est à la fois la moyenne de l’OCDE et la moyenne des États-Unis.[201]
  23. Rodney Brooks écrit : « Je pense que c’est une erreur de s’inquiéter que nous développions une IA malveillante à tout moment au cours des quelques centaines d’années à venir. aspect particulier de l’IA et l’énormité et la complexité de la construction d’une intelligence volitionnelle sensible.” [220]

Citations

  1. ^ Russel & Norvig (2009) , p. 2.
  2. ^ Google (2016) .
  3. ^ McCorduck (2004) , p. 204.
  4. ^ Ashok83 (2019) .
  5. ^ Schank (1991) , p. 38.
  6. ^ Crevier (1993) , p. 109.
  7. ^ a bc Initiatives de financement au début des années 80: Projet de cinquième génération (Japon), Alvey (Royaume-Uni), Microelectronics and Computer Technology Corporation (États-Unis), Strategic Computing Initiative (États-Unis):
    • McCorduck (2004 , p. 426–441)
    • Crevier (1993 , p. 161-162, 197-203, 211, 240)
    • Russel & Norvig (2003 , p. 24)
    • CNRC (1999 , p. 210–211)
    • Newquist (1994 , p. 235-248)
  8. ^ a b First AI Winter , rapport Lighthill , amendement Mansfield
    • Crevier (1993 , p. 115–117)
    • Russel & Norvig (2003 , p. 22)
    • CNRC (1999 , p. 212–213)
    • Howe (1994)
    • Newquist (1994 , p. 189-201)
  9. ^ a b Second AI Winter :
    • McCorduck (2004 , p. 430–435)
    • Crevier (1993 , p. 209-210)
    • CNRC (1999 , p. 214–216)
    • Newquist (1994 , p. 301–318)
  10. ^ un bcd Clark (2015b ) .
  11. ^ un b AI largement utilisé à la fin des années 1990 :
    • Russel & Norvig (2003 , p. 28)
    • Kurzweil (2005 , p. 265)
    • CNRC (1999 , p. 216–222)
    • Newquist (1994 , p. 189-201)
  12. ^ un b Pennachin & Goertzel (2007) ; Roberts (2016)
  13. ^ McCarthy et al. (1955) .
  14. ^ Newquist (1994) , p. 45–53.
  15. ^ Spadafora (2016) .
  16. ^ Lombardo, Boehm & Nairz (2020) .
  17. ^ un b AI dans le mythe :
    • McCorduck (2004 , p. 4-5)
    • Russell & Norvig (2003 , p. 939)
  18. ^ McCorduck (2004) , p. 17-25.
  19. ^ un b McCorduck (2004) , pp. 340–400.
  20. ^ Berlinsky (2000) .
  21. ^ Les précurseurs immédiats de l’IA :
    • McCorduck (2004 , p. 51-107)
    • Crevier (1993 , p. 27–32)
    • Russell & Norvig (2003 , p. 15, 940)
    • Moravec (1988 , p. 3)
  22. ^ Russel & Norvig (2009) , p. 16.
  23. ^ Manyika 2022 , p. 9.
  24. ^ Manyika 2022 , p. dix.
  25. ^ Crevier (1993) , p. 47–49.
  26. ^ un b Russell & Norvig (2003) , p. 17.
  27. ^ Atelier de Dartmouth :
    • Russell & Norvig (2003 , p. 17)
    • McCorduck (2004 , p. 111-136)
    • CNRC (1999 , p. 200–201)

    La proposition:

    • McCarthy et al. (1955)
  28. ^ Russel & Norvig (2003) , p. 18.
  29. ^ IA symbolique réussie :
    • McCorduck (2004 , p. 243-252)
    • Crevier (1993 , p. 52–107)
    • Moravec (1988 , p. 9)
    • Russell & Norvig (2003 , p. 18-21)
  30. ^ AI fortement financée dans les années 1960 :
    • McCorduck (2004 , p. 131)
    • Crevier (1993 , p. 51, 64–65)
    • CNRC (1999 , p. 204–205)
  31. ^ Howe (1994) .
  32. ^ Newquist (1994) , pp. 86–86.
  33. Simon (1965 , p. 96) cité dans Crevier (1993 , p. 109)
  34. Minsky (1967 , p. 2) cité dans Crevier (1993 , p. 109)
  35. ^ Light Hill (1973) .
  36. ^ Systèmes experts :
    • Russell & Norvig (2003 , p. 22-24)
    • Luger & Stubblefield (2004 , p. 227–331)
    • Nilsson (1998 , chapitre 17.4)
    • McCorduck (2004 , p. 327–335, 434–435)
    • Crevier (1993 , p. 145–62, 197–203)
    • Newquist (1994 , p. 155–183)
  37. ^ Nilsson (1998) , p. 7.
  38. ^ McCorduck (2004) , pp. 454–462.
  39. ^ Moravec (1988) .
  40. ^ un b Brooks (1990) .
  41. ^ a b Robotique de développement :
    • Weng et al. (2001)
    • Lungarella et al. (2003)
    • Asada et al. (2009)
    • Oudeyer (2010)
  42. ^ Renaissance du connexionnisme :
    • Crevier (1993 , p. 214-215)
    • Russel et Norvig (2003 , p. 25)
  43. ^ Méthodes formelles et étroites adoptées dans les années 1990 :
    • Russell & Norvig (2003 , p. 25-26)
    • McCorduck (2004 , p. 486-487)
  44. ^ McKinsey (2018) .
  45. ^ Examen de la gestion du MIT Sloan (2018) ; Lorique (2017)
  46. ^ un bcd UNESCO (2021 ) .
  47. ^ Résolution de problèmes, résolution d’énigmes, jeu et déduction :
    • Russel & Norvig (2003 , chap. 3–9)
    • Poole, Mackworth et Goebel (1998 , chap. 2,3,7,9)
    • Luger & Stubblefield (2004 , chap. 3,4,6,8)
    • Nilsson (1998 , chap. 7–12)
  48. ^ Raisonnement incertain:
    • Russell & Norvig (2003 , p. 452–644)
    • Poole, Mackworth & Goebel (1998 , p. 345–395)
    • Luger & Stubblefield (2004 , p. 333–381)
    • Nilsson (1998 , chapitre 19)
  49. ^ a b c Intractibilité et efficacité et l’ explosion combinatoire :
    • Russell & Norvig (2003 , p. 9, 21–22)
  50. ^ un bc _ Preuve psychologique de la prévalence du raisonnement et des connaissances sous-symboliques:
    • Kahnman (2011)
    • Wason et Shapiro (1966)
    • Kahneman, Slovic et Tversky (1982)
    • Dreyfus & Dreyfus (1986)
  51. ^ Représentation des connaissances et ingénierie des connaissances :
    • Russell & Norvig (2003 , pp. 260–266, 320–363)
    • Poole, Mackworth & Goebel (1998 , pp. 23–46, 69–81, 169–233, 235–277, 281–298, 319–345)
    • Luger & Stubblefield (2004 , p. 227–243),
    • Nilsson (1998 , chap. 17.1–17.4, 18)
  52. ^ Russell & Norvig (2003) , pp. 320–328.
  53. ^ a b c Représentation des catégories et des relations : réseaux sémantiques , logiques de description , héritage (y compris les cadres et les scripts ) :
    • Russell & Norvig (2003 , p. 349–354),
    • Poole, Mackworth & Goebel (1998 , p. 174-177),
    • Luger & Stubblefield (2004 , p. 248–258),
    • Nilsson (1998 , chapitre 18.3)
  54. ^ a b Représentation des événements et du temps : calcul de situation, calcul d’ événement , calcul fluide (y compris la résolution du problème du cadre ) :
    • Russel & Norvig (2003 , p. 328–341),
    • Poole, Mackworth & Goebel (1998 , p. 281–298),
    • Nilsson (1998 , chapitre 18.2)
  55. ^ a b Calcul causal :
    • Poole, Mackworth & Goebel (1998 , p. 335–337)
  56. ^ a b Représentation des connaissances sur les connaissances : Calcul des croyances, logiques modales :
    • Russell & Norvig (2003 , p. 341–344),
    • Poole, Mackworth & Goebel (1998 , p. 275-277)
  57. ^ a b Raisonnement par défaut , problème de cadre , logique par défaut , logiques non monotones , circonscription , hypothèse du monde fermé , abduction :
    • Russell & Norvig (2003 , p. 354–360)
    • Poole, Mackworth & Goebel (1998 , pp. 248–256, 323–335)
    • Luger & Stubblefield (2004 , p. 335–363)
    • Nilsson (1998 , ~18.3.3)

    (Poole et al. placent l’abduction sous “raisonnement par défaut”. Luger et al. placent cela sous “raisonnement incertain”).

  58. ^ a b Étendue des connaissances de bon sens :
    • Russel & Norvig (2003 , p. 21),
    • Crevier (1993 , p. 113-114),
    • Moravec (1988 , p. 13),
    • Lénat & Guha (1989 , Introduction)
  59. ^ Smolier & Zhang (1994) .
  60. ^ Neumann & Moller (2008) .
  61. ^ Kuperman, Reichley & Bailey (2006) .
  62. ^ McGarry (2005) .
  63. ^ Bertini, Del Bimbo & Torniai (2006) .
  64. ^ Planification :
    • Russell & Norvig (2003 , p. 375–459)
    • Poole, Mackworth & Goebel (1998 , p. 281–316)
    • Luger et Stubblefield (2004 , p. 314–329)
    • Nilsson (1998 , chap. 10.1–2, 22)

    Théorie de la valeur de l’information :

    • Russell & Norvig (2003 , p. 600–604)
  65. ^ Planification classique :
    • Russell & Norvig (2003 , p. 375–430)
    • Poole, Mackworth & Goebel (1998 , p. 281–315)
    • Luger & Stubblefield (2004 , p. 314–329)
    • Nilsson (1998 , chap. 10.1–2, 22)
  66. ^ Planifier et agir dans des domaines non déterministes : planification conditionnelle, suivi d’exécution, replanification et planification continue :
    • Russell & Norvig (2003 , p. 430–449)
  67. ^ Planification multi-agents et comportement émergent :
    • Russell & Norvig (2003 , p. 449–455)
  68. ^ un b Turing (1950) .
  69. ^ Solomonoff (1956) .
  70. ^ Russell & Norvig (2003) , pp. 649–788.
  71. ^ Apprentissage :
    • Russell & Norvig (2003 , p. 649-788)
    • Poole, Mackworth & Goebel (1998 , p. 397–438)
    • Luger & Stubblefield (2004 , p. 385–542)
    • Nilsson (1998 , chap. 3.3, 10.3, 17.5, 20)
  72. ^ Apprentissage par renforcement :
    • Russell & Norvig (2003 , p. 763–788)
    • Luger & Stubblefield (2004 , p. 442–449)
  73. ^ L’économiste (2016) .
  74. ^ Jordan & Mitchell (2015) .
  75. ^ Traitement du langage naturel (TAL) :
    • Russell & Norvig (2003 , p. 790–831)
    • Poole, Mackworth & Goebel (1998 , p. 91-104)
    • Luger & Stubblefield (2004 , p. 591–632)
  76. ^ Applications de la PNL :
    • Russell & Norvig (2003 , p. 840–857)
    • Luger & Stubblefield (2004 , p. 623–630)
  77. ^ Approches statistiques modernes de la PNL :
    • Cambria & Blanc (2014)
  78. ^ Vincent (2019) .
  79. ^ Perception machine :
    • Russell & Norvig (2003 , p. 537–581, 863–898)
    • Nilsson (1998 , ~ chapitre 6)
  80. ^ Reconnaissance vocale :
    • Russell & Norvig (2003 , p. 568–578)
  81. ^ Reconnaissance d’objet :
    • Russell & Norvig (2003 , p. 885–892)
  82. ^ Vision par ordinateur :
    • Russell & Norvig (2003 , p. 863–898)
    • Nilsson (1998 , chapitre 6)
  83. ^ Robotique :
    • Russell & Norvig (2003 , p. 901–942)
    • Poole, Mackworth & Goebel (1998 , p. 443–460)
  84. ^ Cartographie robotique et localisation :
    • Russell & Norvig (2003 , p. 908–915)
    • Cadène et al. (2016)
  85. ^ Espace de planification et de configuration de mouvement :
    • Russell & Norvig (2003 , p. 916–932)
    • Tecuci (2012)
  86. ^ MIT AIL (2014) .
  87. ^ Informatique affective :
    • Thro (1993)
    • Edison (1991)
    • Tao & Tan (2005)
    • Scassellati (2002)
  88. ^ Waddell (2018) .
  89. ^ Poria et al. (2017) .
  90. ^ La société de l’esprit :
    • Minski (1986)

    La “pointe dorée” de Moravec :

    • Moravec (1988 , p. 20)

    Systèmes multi-agents , systèmes intelligents hybrides , architectures d’ agents , architecture cognitive :

    • Russel & Norvig (2003 , p. 27, 932, 970–972)
    • Nilsson (1998 , chapitre 25)
  91. ^ Domingues (2015) , Chpt. 9.
  92. ^ Cerveau artificiel comme approche de l’ IAG :
    • Russell & Norvig (2003 , p. 957)
    • Crevier (1993 , p. 271 & 279)
    • Goertzel et al. (2010)

    Quelques-unes des personnes qui présentent une certaine forme d’argument :

    • Moravec (1988 , p. 20)
    • Kurzweil (2005 , p. 262)
    • Hawkins et Blakeslee (2005)
  93. ^ Algorithmes de recherche :
    • Russell & Norvig (2003 , p. 59–189)
    • Poole, Mackworth et Goebel (1998 , p. 113–163)
    • Luger & Stubblefield (2004 , p. 79–164, 193–219)
    • Nilsson (1998 , chap. 7–12)
  94. ^ Chaînage avant , chaînage arrière , clauses Horn et déduction logique comme recherche:
    • Russell & Norvig (2003 , p. 217–225, 280–294)
    • Poole, Mackworth & Goebel (1998 , pp. ~46–52)
    • Luger & Stubblefield (2004 , p. 62–73)
    • Nilsson (1998 , chap. 4.2, 7.2)
  95. ^ Recherche et planification de l’espace d’état :
    • Russell & Norvig (2003 , p. 382–387)
    • Poole, Mackworth & Goebel (1998 , p. 298–305)
    • Nilsson (1998 , chap. 10.1–2)
  96. ^ Espace de déplacement et de configuration :
    • Russell & Norvig (2003 , p. 916–932)
  97. ^ Recherches non informées (recherche en largeur d’abord, recherche en profondeur d’abord et recherche générale dans l’espace d’état ):
    • Russell & Norvig (2003 , p. 59–93)
    • Poole, Mackworth & Goebel (1998 , p. 113–132)
    • Luger & Stubblefield (2004 , p. 79-121)
    • Nilsson (1998 , chapitre 8)
  98. ^ Recherches heuristiques ou informées (par exemple, le meilleur gourmand en premier et A * ):
    • Russell & Norvig (2003 , p. 94-109)
    • Poole, Mackworth & Goebel (1998 , pp. pp. 132–147)
    • Poole et Mackworth (2017 , article 3.6)
    • Luger & Stubblefield (2004 , p. 133-150)
  99. ^ Tecuci (2012) .
  100. ^ Recherches d’optimisation :
    • Russell & Norvig (2003 , p. 110-116, 120-129)
    • Poole, Mackworth & Goebel (1998 , p. 56–163)
    • Luger & Stubblefield (2004 , p. 127-133)
  101. ^ Programmation génétique et algorithmes génétiques :
    • Luger & Stubblefield (2004 , p. 509-530)
    • Nilsson (1998 , chapitre 4.2)
  102. ^ Apprentissage basé sur la vie artificielle et la société :
    • Luger & Stubblefield (2004 , p. 530–541)
    • Merkle et Middendorf (2013)
  103. ^ Logique :
    • Russell & Norvig (2003 , p. 194–310),
    • Luger & Stubblefield (2004 , p. 35–77),
    • Nilsson (1998 , chap. 13-16)
  104. ^ Plan satellite :
    • Russel & Norvig (2003 , p. 402–407),
    • Poole, Mackworth & Goebel (1998 , p. 300–301),
    • Nilsson (1998 , chapitre 21)
  105. ^ Apprentissage basé sur l’explication , apprentissage basé sur la pertinence, programmation logique inductive , raisonnement basé sur des cas :
    • Russell & Norvig (2003 , p. 678–710),
    • Poole, Mackworth & Goebel (1998 , p. 414–416),
    • Luger & Stubblefield (2004 , p. ~422–442),
    • Nilsson (1998 , chap. 10.3, 17.5)
  106. ^ Logique propositionnelle :
    • Russel & Norvig (2003 , p. 204–233),
    • Luger & Stubblefield (2004 , p. 45–50)
    • Nilsson (1998 , chapitre 13)
  107. ^ Logique du premier ordre et fonctionnalités telles que l’égalité :
    • Russel & Norvig (2003 , p. 240–310),
    • Poole, Mackworth & Goebel (1998 , p. 268–275),
    • Luger & Stubblefield (2004 , p. 50–62),
    • Nilsson (1998 , chapitre 15)
  108. ^ Logique floue :
    • Russell & Norvig (2003 , p. 526-527)
    • Scientifique américain (1999)
  109. ^ Méthodes stochastiques pour un raisonnement incertain :
    • Russell & Norvig (2003 , p. 462–644),
    • Poole, Mackworth & Goebel (1998 , p. 345–395),
    • Luger & Stubblefield (2004 , p. 165–191, 333–381),
    • Nilsson (1998 , chapitre 19)
  110. ^ Réseaux bayésiens :
    • Russell & Norvig (2003 , p. 492–523),
    • Poole, Mackworth & Goebel (1998 , p. 361–381),
    • Luger & Stubblefield (2004 , pp. ~182–190, ≈363–379),
    • Nilsson (1998 , chap. 19.3–4)
  111. ^ Domingues (2015) , chapitre 6.
  112. ^ Algorithme d’ inférence bayésien :
    • Russell & Norvig (2003 , p. 504-519),
    • Poole, Mackworth & Goebel (1998 , p. 361–381),
    • Luger & Stubblefield (2004 , p. ~363–379),
    • Nilsson (1998 , chap. 19.4 & 7)
  113. ^ Domingues (2015) , p. 210.
  114. ^ Apprentissage bayésien et algorithme de maximisation des attentes :
    • Russell & Norvig (2003 , p. 712–724),
    • Poole, Mackworth & Goebel (1998 , p. 424–433),
    • Nilsson (1998 , chapitre 20)
    • Domingues (2015 , p. 210)
  115. ^ Théorie de la décision bayésienne et réseaux de décision bayésiens :
    • Russell & Norvig (2003 , p. 597–600)
  116. ^ a b c Modèles temporels stochastiques :
    • Russell & Norvig (2003 , p. 537–581)

    Réseaux bayésiens dynamiques :

    • Russell & Norvig (2003 , p. 551-557)

    Modèle de Markov caché :

    • ( Russell & Norvig 2003 , p. 549–551)

    Filtres de Kalman :

    • Russell & Norvig (2003 , p. 551-557)
  117. ^ théorie de la décision et analyse de la décision :
    • Russell & Norvig (2003 , p. 584–597),
    • Poole, Mackworth & Goebel (1998 , p. 381–394)
  118. ^ Théorie de la valeur de l’information :
    • Russell & Norvig (2003 , p. 600–604)
  119. ^ Processus décisionnels de Markov et réseaux décisionnels dynamiques:
    • Russell & Norvig (2003 , p. 613–631)
  120. ^ Théorie des jeux et conception des mécanismes :
    • Russell & Norvig (2003 , p. 631–643)
  121. ^ Méthodes d’apprentissage statistique et classificateurs :
    • Russel & Norvig (2003 , p. 712–754),
    • Luger & Stubblefield (2004 , p. 453–541)
  122. ^ Arbre de décision :
    • Domingues (2015 , p. 88)
    • Russell & Norvig (2003 , p. 653–664),
    • Poole, Mackworth & Goebel (1998 , p. 403–408),
    • Luger & Stubblefield (2004 , p. 408–417)
  123. ^ Algorithme du K-plus proche voisin :
    • Domingues (2015 , p. 187)
    • Russell & Norvig (2003 , p. 733–736)
  124. ^ méthodes du noyau telles que la machine à vecteurs de support :
    • Domingues (2015 , p. 88)
    • Russell & Norvig (2003 , p. 749–752)

    Modèle de mélange gaussien :

    • Russell & Norvig (2003 , p. 725–727)
  125. ^ Domingues (2015) , p. 152.
  126. ^ Classificateur naïf de Bayes :
    • Domingues (2015 , p. 152)
    • Russell & Norvig (2003 , p. 718)
  127. ^ a b Réseaux de neurones :
    • Russell & Norvig (2003 , p. 736–748),
    • Poole, Mackworth & Goebel (1998 , p. 408–414),
    • Luger & Stubblefield (2004 , p. 453–505),
    • Nilsson (1998 , chapitre 3)
    • Domingues (2015 , Chapitre 4)
  128. ^ Performances du classificateur :
    • van der Walt & Bernard (2006)
    • Russell & Norvig (2009 , 18.12 : Apprendre à partir d’exemples : résumé)
  129. ^ Rétropropagation :
    • Russel & Norvig (2003 , p. 744–748),
    • Luger & Stubblefield (2004 , p. 467–474),
    • Nilsson (1998 , chapitre 3.3)

    Introduction de Paul Werbos de la rétropropagation à l’IA :

    • Werbos (1974) ; Webos (1982)

    La différenciation automatique , précurseur indispensable :

    • Linnainmaa (1970) ; Griewank (2012)
  130. ^ Apprentissage compétitif ,par coïncidence Hebbian , Réseaux de Hopfield et réseaux d’ attracteurs :
    • Luger & Stubblefield (2004 , p. 474–505)
  131. ^ Réseaux de neurones feedforward , Perceptrons et réseaux à base radiale :
    • Russell & Norvig (2003 , p. 739–748, 758)
    • Luger & Stubblefield (2004 , p. 458–467)
  132. ^ Schulz & Behnke (2012) .
  133. ^ Apprentissage en profondeur :
    • Goodfellow, Bengio et Courville (2016)
    • Hinton et al. (2016)
    • Schmidhuber (2015)
  134. ^ Deng & Yu (2014) , p. 199–200.
  135. ^ Ciresan, Meier & Schmidhuber (2012) .
  136. ^ Habibi (2017) .
  137. ^ Fukushima (2007) .
  138. ^ Réseaux de neurones récurrents, réseaux de Hopfield :
    • Russell & Norvig (2003 , p. 758)
    • Luger & Stubblefield (2004 , p. 474–505)
    • Schmidhuber (2015)
  139. ^ Schmidhuber (2015) .
  140. ^ Werbos (1988) ; Robinson & Fallside (1987) ; Williams et Zipser (1994)
  141. ^ Goodfellow, Bengio & Courville (2016) ; Hochreiter (1991)
  142. ^ Hochreiter & Schmidhuber (1997) ; Gers, Schraudolph & Schraudolph (2002)
  143. ^ Russel & Norvig (2009) , p. 1.
  144. ^ Commission européenne (2020) , p. 1.
  145. ^ CNN (2006) .
  146. ^ Publicité ciblée :
    • Russell et Norvig (2009 , p. 1)
    • Économiste (2016)
    • Lohr (2016)
  147. ^ Lohr (2016) .
  148. ^ Smith (2016) .
  149. ^ Rowinski (2013) .
  150. ^ Frangoul (2019) .
  151. ^ Marron (2019) .
  152. ^ McCorduck (2004) , pp. 480–483.
  153. ^ Markoff (2011) .
  154. ^ Google (2016) ; BBC (2016)
  155. ^ Solly (2019) .
  156. ^ Bowling et al. (2015) .
  157. ^ Échantillon (2017) .
  158. ^ Anadiotis (2020) .
  159. ^ Heath (2020) .
  160. ^ Aletras et al. (2016) .
  161. ^ “Propriété intellectuelle et technologies frontalières” . OMPI .
  162. ^ un b “Tendances technologiques de l’OMPI 2019 – Intelligence artificielle” (PDF) . OMPI . 2019.
  163. ^ Turing (1950) , p. 1.
  164. ^ Turing (1948) .
  165. ^ Publication originale du test de Turing par Turing dans « Machines informatiques et intelligence » :
    • Turing (1950)

    Influence historique et implications philosophiques :

    • Haugeland (1985 , p. 6–9)
    • Crevier (1993 , p. 24)
    • McCorduck (2004 , p. 70-71)
    • Russell & Norvig (2003 , p. 2–3 et 948)
  166. ^ un bc Russell & Norvig (2003) , p. 3.
  167. ^ Fabricant (2006) .
  168. ^ McCorduck (2004) , pp. 100–101.
  169. ^ L’ agent intelligent paradigme
    • Russel & Norvig (2003 , p. 27, 32–58, 968–972)
    • Poole, Mackworth et Goebel (1998 , p. 7-21)
    • Luger et Stubblefield (2004 , p. 235–240)
    • Hutter (2005 , p. 125-126)

    La définition utilisée dans cet article, en termes d’objectifs, d’actions, de perception et d’environnement, est due à Russell & Norvig (2003) . D’autres définitions incluent également les connaissances, l’apprentissage et l’autonomie comme critères supplémentaires.

  170. ^ Russel & Norvig (2003) , p. 27.
  171. ^ Nilsson (1983) , p. dix.
  172. ^ Haugeland (1985) , pp. 112–117.
  173. ^ Hypothèse du système de symboles physiques :
    • Newell & Simon (1976 , p. 116)

    Importance historique:

    • McCorduck (2004 , p. 153)
    • Russell & Norvig (2003 , p. 18)
  174. Paradoxe de Moravec :
    • Moravec (1988 , p. 15-16)
    • Minski (1986 , p. 29)
    • Pinker (2007 , p. 190-91)
  175. ^ La critique de Dreyfus de l’IA :
    • Dreyfus (1972)
    • Dreyfus & Dreyfus (1986)

    Signification historique et implications philosophiques :

    • Crevier (1993 , p. 120–132)
    • McCorduck (2004 , p. 211-239)
    • Russell & Norvig (2003 , p. 950–952)
    • Peur (2007 , chapitre 3)
  176. ^ Crevier (1993) , p. 125.
  177. ^ Langley (2011) .
  178. ^ Katz (2012) .
  179. ^ Neats vs Scruffies , le débat historique :
    • McCorduck (2004 , p. 421–424, 486–489)
    • Crevier (1993 , p. 168)
    • Nilsson (1983 , p. 10-11)

    Un exemple classique de l’approche « débraillée » de l’intelligence :

    • Minski (1986)

    Un exemple moderne d’IA soignée et de ses aspirations :

    • Domingues (2015)
  180. ^ Russel & Norvig (2003) , p. 25-26.
  181. ^ Pennachin & Goertzel (2007) .
  182. ^ un b Roberts (2016) .
  183. ^ un b Russell & Norvig (2003) , p. 947.
  184. ^ Chalmers (1995) .
  185. ^ Dennett (1991) .
  186. ^ Hors (2005) .
  187. ^ Searle (1999) .
  188. ^ Searle (1980) , p. 1.
  189. ^ L’ argument de la chambre chinoise de Searle
    • Searle (1980) . Présentation originale de Searle de l’expérience de pensée.
    • Searle (1999) .

    Discussion:

    • Russell & Norvig (2003 , p. 958–960)
    • McCorduck (2004 , p. 443–445)
    • Crevier (1993 , p. 269-271)
  190. ^ Droits des robots :
    • Russell & Norvig (2003 , p. 964)
    • BBC (2006)
    • Maschafilm (2010) (le film Plug & Pray )
  191. ^ Evans (2015) .
  192. ^ McCorduck (2004) , p. 19-25.
  193. ^ Henderson (2007) .
  194. ^ Omohundro (2008) .
  195. ^ Vinge (1993) .
  196. ^ Russel & Norvig (2003) , p. 963.
  197. ^ Transhumanisme :
    • Moravec (1988)
    • Kurzweil (2005)
    • Russell & Norvig (2003 , p. 963)
  198. ^ L’IA comme évolution :
    • Edward Fredkin est cité dans McCorduck (2004 , p. 401)
    • Majordome (1863)
    • Dyson (1998)
  199. ^ Ford & Colvin (2015) ; McGaughey (2018)
  200. ^ IGM Chicago (2017) .
  201. ^ Arntz, Gregory & Zierahn (2016) , p. 33.
  202. ^ Lohr (2017) ; Frey & Osborne (2017) ; Arntz, Gregory & Zierahn (2016 , p. 33)
  203. ^ Morgenstern (2015) .
  204. ^ Mahdawi (2017) ; Thompson (2014)
  205. ^ Harari (2018) .
  206. ^ IA militarisée :
    • Robitzsky (2018)
    • Sanato (2015)
  207. ^ Urbina, Fabio; Lentzos, Filippa; Invernizzi, Cédric; Ekins, Sean (7 mars 2022). “Double utilisation de la découverte de médicaments basée sur l’intelligence artificielle” . Intelligence des machines naturelles . 4 (3): 189–191. doi : 10.1038/s42256-022-00465-9 . S2CID 247302391 . Récupéré le 15 mars 2022 .
  208. ^ ANC (2019) .
  209. ^ Goffrey (2008) , p. 17.
  210. ^ Lipartito (2011 , p. 36); Goodman & Flaxman (2017 , p. 6)
  211. ^ Larson et Angwin (2016) .
  212. ^ Cellan-Jones (2014) .
  213. ^ Bostrom (2014) ; Muller & Bostrom (2014) ; Bostrom (2015)
  214. ^ Rubin (2003) .
  215. ^ Muller & Bostrom (2014) .
  216. ^ Préoccupations des dirigeants concernant les risques existentiels de l’IA :
    • RAWLINSON (2015)
    • Holley (2015)
    • Gibbs (2014)
    • Coire (2019)
    • Sanato (2015)
  217. ^ Financement pour atténuer les risques d’IA :
    • Poste (2015)
    • Del Prado (2015)
    • Clark (2015a)
    • Fast Company (2015)
  218. ^ Les dirigeants qui soutiennent que les avantages de l’IA l’emportent sur les risques :
    • Thibodeau (2019)
    • Bhardwaj (2018)
  219. ^ Arguments selon lesquels l’IA n’est pas un risque imminent :
    • Brooks (2014)
    • Geist (2015)
    • Madrigal (2015)
    • Lee (2014)
  220. ^ Brooks (2014) .
  221. ^ Yudkowsky (2008) .
  222. ^ un b Anderson & Anderson (2011) .
  223. ^ AAAI (2014) .
  224. ^ Valach (2010) .
  225. ^ Russel (2019) , p. 173.
  226. ^ Réglementation de l’IA pour atténuer les risques :
    • Berry Hill et al. (2019)
    • Barfield et Pagallo (2018)
    • Iphofen & Kritikos (2019)
    • Wirtz, Weyerer et Geyer (2018)
    • Buiten (2019)
  227. ^ Bibliothèque de droit du Congrès (États-Unis). Direction de la recherche juridique mondiale (2019) .
  228. ^ Kissinger, Henry (1er novembre 2021). “Le défi d’être humain à l’ère de l’IA” . Le Wall StreetJournal .
  229. ^ Buttazzo (2001) .
  230. ^ Anderson (2008) .
  231. ^ McCauley (2007) .
  232. ^ Galvan (1997) .
  233. ^ “Un guide visuel des budgets militaires mondiaux” . Bloomberg.com . 11 mars 2022 . Récupéré le 11 mai 2022 .
  234. ^ Kharpal, Arjun (21 juillet 2017). “La Chine veut être un leader mondial de l’IA à 150 milliards de dollars en moins de 15 ans” . CNBC . Récupéré le 11 mai 2022 .
  235. ^ “En Ukraine, l’IA part en guerre” . Fortune . Récupéré le 11 mai 2022 .
  236. ^ “AI apprend déjà de la guerre de la Russie en Ukraine, dit le DOD” . Défense Un . Récupéré le 11 mai 2022 .
  237. ^ “Les drones IA utilisés dans la guerre d’Ukraine font craindre que des robots tueurs ne fassent des ravages sur les futurs champs de bataille” . Fortune . Récupéré le 11 mai 2022 .
  238. ^ Vincent, James (21 août 2017). “Elon Musk et les dirigeants de l’IA appellent à l’interdiction des robots tueurs” . La Verge . Récupéré le 11 mai 2022 .
  239. ^ Kerry, Cameron F. (10 février 2020). “Protéger la vie privée dans un monde axé sur l’IA” . Brookings . Récupéré le 11 mai 2022 .
  240. ^ “Utilisation de l’intelligence artificielle dans la cybersécurité” . Balbix . 27 novembre 2019 . Récupéré le 11 mai 2022 .
  241. ^ “CYBERSÉCURITÉ | CISA” . www.cisa.gov . Récupéré le 11 mai 2022 .
  242. ^ Inkster, Nigel (4 novembre 2021), “Semi-Formal Diplomacy” , The Oxford Handbook of Cyber ​​Security , Oxford University Press, pp. 530–542 , récupéré le 11 mai 2022
  243. ^ “Relier les points sur les cyberincidents parrainés par l’État – Compromis de l’ordinateur du ministre des Affaires étrangères tchèque” . Conseil des relations étrangères . Récupéré le 11 mai 2022 .
  244. ^ un bcd Kadlecová , Lucie ; Meyer, Nadia; Cos, Rafaël ; Ravinet, Pauline (2020). « Cybersécurité : Cartographier le rôle de la diplomatie scientifique dans le domaine de la cybersécurité ». Dans : Young, M., T. Flink, E. Dall . La diplomatie scientifique en devenir : aperçus basés sur des cas du projet S4D4C.
  245. ^ Canada, Affaires mondiales (19 novembre 2019). “Partenariats d’innovation européens – Un guide pour les petites et moyennes entreprises canadiennes” . GAC . Récupéré le 11 mai 2022 .
  246. ^ “Page d’accueil” . Office fédéral de la sécurité de l’information . Récupéré le 11 mai 2022 .
  247. ^ “Strategie Künstliche Intelligenz der Bundesregierung” . Ministère fédéral de l’Économie et de l’Énergie : 6. 2018 – via Économie et protection du climat (BMWK).
  248. ^ “L’Europe compte sur l’expertise luxembourgeoise” . San Fransisco . Récupéré le 11 mai 2022 .
  249. ^ “Cyber ​​Security Europe | Aperçu de la cybersécurité pour les cadres de la salle de conférence et de la suite c” . Cybersécurité Europe . Récupéré le 11 mai 2022 .
  250. ^ EMK, SU. “Réseau ECHO” . Récupéré le 11 mai 2022 .
  251. ^ “Consortium SPARTE” . www.cybersecurityintelligence.com . Récupéré le 11 mai 2022 .
  252. ^ “Boucliers | CISA” . www.cisa.gov . Récupéré le 11 mai 2022 .
  253. ^ Tegler, Éric. “La vulnérabilité des systèmes d’IA peut expliquer pourquoi la Russie ne les utilise pas intensivement en Ukraine” . Forbes . Récupéré le 11 mai 2022 .
  254. ^ “Projet CyberAI” . Centre pour la sécurité et les technologies émergentes . Récupéré le 11 mai 2022 .
  255. ^ “AI apprend déjà de la guerre de la Russie en Ukraine, dit le DOD” . Défense Un . Récupéré le 11 mai 2022 .
  256. ^ “AI Weekly: Le conflit Russie-Ukraine est un test pour l’IA dans la guerre” . VentureBeat . 4 mars 2022 . Récupéré le 11 mai 2022 .

Références

Manuels d’IA

Ce sont les quatre manuels d’IA les plus utilisés en 2008.

  • Luger, Georges ; Stubblefield, William (2004). Intelligence artificielle : structures et stratégies pour la résolution de problèmes complexes (5e éd.). Benjamin/Cummings. ISBN 978-0-8053-4780-7. Archivé de l’original le 26 juillet 2020 . Récupéré le 17 décembre 2019 .
  • Nilsson, Nils (1998). Intelligence Artificielle : Une Nouvelle Synthèse . Morgan Kaufman. ISBN 978-1-55860-467-4. Archivé de l’original le 26 juillet 2020 . Récupéré le 18 novembre 2019 .
  • Russel, Stuart J. ; Norvig, Peter (2003), Intelligence artificielle: une approche moderne (2e éd.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2.
  • Poole, David ; Mackworth, Alan ; Goebel, Randy (1998). Intelligence computationnelle : une approche logique . New York : presse universitaire d’Oxford. ISBN 978-0-19-510270-3. Archivé de l’original le 26 juillet 2020 . Récupéré le 22 août 2020 .

Éditions ultérieures.

  • Russel, Stuart J. ; Norvig, Peter (2009). Intelligence artificielle : une approche moderne (3e éd.). Upper Saddle River, New Jersey : Prentice Hall. ISBN 978-0-13-604259-4..
  • Poole, David ; Mackworth, Alan (2017). Intelligence artificielle: fondements des agents informatiques (2e éd.). La presse de l’Universite de Cambridge. ISBN 978-1-107-19539-4.

Les deux manuels les plus utilisés en 2021. Open Syllabus : Explorer

  • Russel, Stuart J. ; Norvig, Peter (2021). Intelligence artificielle : une approche moderne (4e éd.). Hoboken : Pearson. ISBN 9780134610993. RCAC 20190474 .
  • Chevalier, Kévin ; Rich, Elaine (1er janvier 2010). Intelligence artificielle (3e éd.). Mc Graw Hill Inde. ISBN 9780070087705.

Histoire de l’IA

  • Crevier, Daniel (1993). IA : la recherche tumultueuse de l’intelligence artificielle . New York, NY : BasicBooks. ISBN 0-465-02997-3..
  • McCorduck, Pamela (2004), Machines Who Think (2e éd.), Natick, MA: AK Peters, Ltd., ISBN 1-56881-205-1.
  • Newquist, HP (1994). Les fabricants de cerveaux : génie, ego et cupidité dans la quête des machines qui pensent . New York : Macmillan/SAMS. ISBN 978-0-672-30412-5.
  • Nilsson, Nils (2009). La quête de l’intelligence artificielle : une histoire d’idées et de réalisations . New York : Cambridge University Press. ISBN 978-0-521-12293-1.

Autres ressources

  • Werbos, PJ (1988), “Généralisation de la rétropropagation avec application à un modèle récurrent de marché du gaz” , Neural Networks , 1 (4): 339–356, doi : 10.1016/0893-6080(88)90007-X
  • Gers, Félix A. ; Schraudolph, Nicol N.; Schraudolph, Jürgen (2002). “Apprentissage de la synchronisation précise avec les réseaux récurrents LSTM” (PDF) . Journal de recherche sur l’apprentissage automatique . 3 : 115–143 . Récupéré le 13 juin 2017 .
  • Deng, L.; Yu, D. (2014). “Apprentissage en profondeur : méthodes et applications” (PDF) . Fondements et tendances du traitement du signal . 7 (3–4) : 1–199. doi : 10.1561/2000000039 . Archivé (PDF) de l’original le 14 mars 2016 . Récupéré le 18 octobre 2014 .
  • Schulz, Hannes; Behnke, Sven (1er novembre 2012). “Apprentissage en profondeur” . KI-Künstliche Intelligenz . 26 (4): 357–363. doi : 10.1007/s13218-012-0198-z . ISSN 1610-1987 . S2CID 220523562 .
  • En ligneFukushima, K. (2007). “Néocognitron” . Scholarpédia . 2 (1): 1717. Bibcode : 2007SchpJ…2.1717F . doi : 10.4249/scholarpedia.1717 .a été introduit par Kunihiko Fukushima en 1980.
  • Habibi, Aghdam, Hamed (30 mai 2017). Guide des réseaux de neurones convolutifs : une application pratique à la détection et à la classification des panneaux de signalisation . Heravi, Elnaz Jahani. Cham, Suisse. ISBN 9783319575490. OCLC 987790957 .
  • Ciresan, D.; Meier, U.; En ligneSchmidhuber, J. (2012). “Réseaux de neurones profonds multi-colonnes pour la classification d’images”. Conférence IEEE 2012 sur la vision par ordinateur et la reconnaissance de formes . pages 3642–3649. arXiv : 1202.2745 . doi : 10.1109/cvpr.2012.6248110 . ISBN 978-1-4673-1228-8. S2CID 2161592 .
  • “From not working to neural networking”. The Economist. 2016. Archived from the original on 31 December 2016. Retrieved 26 April 2018.
  • Thompson, Derek (23 January 2014). “What Jobs Will the Robots Take?”. The Atlantic. Archived from the original on 24 April 2018. Retrieved 24 April 2018.
  • Scassellati, Brian (2002). “Theory of mind for a humanoid robot”. Autonomous Robots. 12 (1): 13–24. doi:10.1023/A:1013298507114. S2CID 1979315.
  • Sample, Ian (14 March 2017). “Google’s DeepMind makes AI program that can learn like a human”. The Guardian. Archived from the original on 26 April 2018. Retrieved 26 April 2018.
  • Heath, Nick (11 December 2020). “What is AI? Everything you need to know about Artificial Intelligence”. ZDNet. Retrieved 1 March 2021.
  • Bowling, Michael; Burch, Neil; Johanson, Michael; Tammelin, Oskari (9 January 2015). “Heads-up limit hold’em poker is solved”. Science. 347 (6218): 145–149. Bibcode:2015Sci…347..145B. doi:10.1126/science.1259433. ISSN 0036-8075. PMID 25574016. S2CID 3796371.
  • Solly, Meilan (15 July 2019). “This Poker-Playing A.I. Knows When to Hold ‘Em and When to Fold ‘Em”. Smithsonian.
  • “Artificial intelligence: Google’s AlphaGo beats Go master Lee Se-dol”. BBC News. 12 March 2016. Archived from the original on 26 August 2016. Retrieved 1 October 2016.
  • Rowinski, Dan (15 January 2013). “Virtual Personal Assistants & The Future Of Your Smartphone [Infographic]”. ReadWrite. Archived from the original on 22 December 2015.
  • Manyika, James (2022). “Getting AI Right: Introductory Notes on AI & Society”. Daedalus. Retrieved 5 May 2022.
  • Markoff, John (16 February 2011). “Computer Wins on ‘Jeopardy!’: Trivial, It’s Not”. The New York Times. Archived from the original on 22 October 2014. Retrieved 25 October 2014.
  • Anadiotis, George (1 October 2020). “The state of AI in 2020: Democratization, industrialization, and the way to artificial general intelligence”. ZDNet. Retrieved 1 March 2021.
  • Goertzel, Ben; Lian, Ruiting; Arel, Itamar; de Garis, Hugo; Chen, Shuo (December 2010). “A world survey of artificial brain projects, Part II: Biologically inspired cognitive architectures”. Neurocomputing. 74 (1–3): 30–49. doi:10.1016/j.neucom.2010.08.012.
  • Robinson, A. J.; Fallside, F. (1987), “The utility driven dynamic error propagation network.”, Technical Report CUED/F-INFENG/TR.1, Cambridge University Engineering Department
  • Hochreiter, Sepp (1991). Untersuchungen zu dynamischen neuronalen Netzen (PDF) (diploma thesis). Munich: Institut f. Informatik, Technische Univ. Archived from the original (PDF) on 6 March 2015. Retrieved 16 April 2016.
  • Williams, R. J.; Zipser, D. (1994), “Gradient-based learning algorithms for recurrent networks and their computational complexity”, Back-propagation: Theory, Architectures and Applications, Hillsdale, NJ: Erlbaum
  • Hochreiter, Sepp; Schmidhuber, Jürgen (1997), “Long Short-Term Memory”, Neural Computation, 9 (8): 1735–1780, doi:10.1162/neco.1997.9.8.1735, PMID 9377276, S2CID 1915014
  • Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016), Deep Learning, MIT Press., archived from the original on 16 April 2016, retrieved 12 November 2017
  • Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P.; Sainath, T.; Kingsbury, B. (2012). “Deep Neural Networks for Acoustic Modeling in Speech Recognition – The shared views of four research groups”. IEEE Signal Processing Magazine. 29 (6): 82–97. Bibcode:2012ISPM…29…82H. doi:10.1109/msp.2012.2205597. S2CID 206485943.
  • Schmidhuber, J. (2015). “Deep Learning in Neural Networks: An Overview”. Neural Networks. 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509.
  • Linnainmaa, Seppo (1970). The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors (Thesis) (in Finnish). Univ. Helsinki, 6–7.|
  • Griewank, Andreas (2012). “Who Invented the Reverse Mode of Differentiation? Optimization Stories”. Documenta Matematica, Extra Volume ISMP: 389–400.
  • Werbos, Paul (1974). Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences (Ph.D. thesis). Harvard University.
  • Werbos, Paul (1982). “Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences” (PDF). System Modeling and Optimization. Applications of advances in nonlinear sensitivity analysis. Berlin, Heidelberg: Springer. Archived from the original (PDF) on 14 April 2016. Retrieved 16 April 2016.
  • “What is ‘fuzzy logic’? Are there computers that are inherently fuzzy and do not apply the usual binary logic?”. Scientific American. 21 October 1999. Retrieved 5 May 2018.
  • Merkle, Daniel; Middendorf, Martin (2013). “Swarm Intelligence”. In Burke, Edmund K.; Kendall, Graham (eds.). Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques. Springer Science & Business Media. ISBN 978-1-4614-6940-7.
  • van der Walt, Christiaan; Bernard, Etienne (2006). “Data characteristics that determine classifier performance” (PDF). Archived from the original (PDF) on 25 March 2009. Retrieved 5 August 2009.
  • Hutter, Marcus (2005). Universal Artificial Intelligence. Berlin: Springer. ISBN 978-3-540-22139-5.
  • Howe, J. (November 1994). “Artificial Intelligence at Edinburgh University: a Perspective”. Archived from the original on 15 May 2007. Retrieved 30 August 2007.
  • Galvan, Jill (1 January 1997). “Entering the Posthuman Collective in Philip K. Dick’s “Do Androids Dream of Electric Sheep?””. Science Fiction Studies. 24 (3): 413–429. JSTOR 4240644.
  • McCauley, Lee (2007). “AI armageddon and the three laws of robotics”. Ethics and Information Technology. 9 (2): 153–164. CiteSeerX 10.1.1.85.8904. doi:10.1007/s10676-007-9138-2. S2CID 37272949.
  • Buttazzo, G. (July 2001). “Artificial consciousness: Utopia or real possibility?”. Computer. 34 (7): 24–30. doi:10.1109/2.933500.
  • Anderson, Susan Leigh (2008). “Asimov’s “three laws of robotics” and machine metaethics”. AI & Society. 22 (4): 477–493. doi:10.1007/s00146-007-0094-5. S2CID 1809459.
  • Yudkowsky, E (2008), “Artificial Intelligence as a Positive and Negative Factor in Global Risk” (PDF), Global Catastrophic Risks, Oxford University Press, 2008, Bibcode:2008gcr..book..303Y
  • McGaughey, E (2018), Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy, p. SSRN part 2(3), SSRN 3044448, archived from the original on 24 May 2018, retrieved 12 January 2018
  • IGM Chicago (30 June 2017). “Robots and Artificial Intelligence”. www.igmchicago.org. Archived from the original on 1 May 2019. Retrieved 3 July 2019.
  • Lohr, Steve (2017). “Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says”. The New York Times. Archived from the original on 14 January 2018. Retrieved 13 January 2018.
  • Frey, Carl Benedikt; Osborne, Michael A (1 January 2017). “The future of employment: How susceptible are jobs to computerisation?”. Technological Forecasting and Social Change. 114: 254–280. CiteSeerX 10.1.1.395.416. doi:10.1016/j.techfore.2016.08.019. ISSN 0040-1625.
  • Arntz, Melanie; Gregory, Terry; Zierahn, Ulrich (2016), “The risk of automation for jobs in OECD countries: A comparative analysis”, OECD Social, Employment, and Migration Working Papers 189
  • Morgenstern, Michael (9 May 2015). “Automation and anxiety”. The Economist. Archived from the original on 12 January 2018. Retrieved 13 January 2018.
  • Mahdawi, Arwa (26 June 2017). “What jobs will still be around in 20 years? Read this to prepare your future”. The Guardian. Archived from the original on 14 January 2018. Retrieved 13 January 2018.
  • Rubin, Charles (Spring 2003). “Artificial Intelligence and Human Nature”. The New Atlantis. 1: 88–100. Archived from the original on 11 June 2012.
  • Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
  • Brooks, Rodney (10 November 2014). “artificial intelligence is a tool, not a threat”. Archived from the original on 12 November 2014.
  • Sainato, Michael (19 August 2015). “Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence”. Observer. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  • Harari, Yuval Noah (October 2018). “Why Technology Favors Tyranny”. The Atlantic.
  • Robitzski, Dan (5 September 2018). “Five experts share what scares them the most about AI”. Archived from the original on 8 December 2019. Retrieved 8 December 2019.
  • Goffrey, Andrew (2008). “Algorithm”. In Fuller, Matthew (ed.). Software studies: a lexicon. Cambridge, Mass.: MIT Press. pp. 15–20. ISBN 978-1-4356-4787-9.
  • Lipartito, Kenneth (6 January 2011), The Narrative and the Algorithm: Genres of Credit Reporting from the Nineteenth Century to Today (PDF) (Unpublished manuscript), doi:10.2139/ssrn.1736283, S2CID 166742927
  • Goodman, Bryce; Flaxman, Seth (2017). “EU regulations on algorithmic decision-making and a “right to explanation””. AI Magazine. 38 (3): 50. arXiv:1606.08813. doi:10.1609/aimag.v38i3.2741. S2CID 7373959.
  • CNA (12 January 2019). “Commentary: Bad news. Artificial intelligence is biased”. CNA. Archived from the original on 12 January 2019. Retrieved 19 June 2020.
  • Larson, Jeff; Angwin, Julia (23 May 2016). “How We Analyzed the COMPAS Recidivism Algorithm”. ProPublica. Archived from the original on 29 April 2019. Retrieved 19 June 2020.
  • Müller, Vincent C.; Bostrom, Nick (2014). “Future Progress in Artificial Intelligence: A Poll Among Experts” (PDF). AI Matters. 1 (1): 9–11. doi:10.1145/2639475.2639478. S2CID 8510016. Archived (PDF) from the original on 15 January 2016.
  • Cellan-Jones, Rory (2 December 2014). “Stephen Hawking warns artificial intelligence could end mankind”. BBC News. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  • Rawlinson, Kevin (29 January 2015). “Microsoft’s Bill Gates insists AI is a threat”. BBC News. Archived from the original on 29 January 2015. Retrieved 30 January 2015.
  • Holley, Peter (28 January 2015). “Bill Gates on dangers of artificial intelligence: ‘I don’t understand why some people are not concerned'”. The Washington Post. ISSN 0190-8286. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  • Gibbs, Samuel (27 October 2014). “Elon Musk: artificial intelligence is our biggest existential threat”. The Guardian. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  • Churm, Philip Andrew (14 May 2019). “Yuval Noah Harari talks politics, technology and migration”. euronews. Archived from the original on 14 May 2019. Retrieved 15 November 2020.
  • Bostrom, Nick (2015). “What happens when our computers get smarter than we are?”. TED (conference). Archived from the original on 25 July 2020. Retrieved 30 January 2020.
  • Post, Washington (2015). “Tech titans like Elon Musk are spending $1 billion to save you from terminators”. Chicago Tribune. Archived from the original on 7 June 2016.
  • Del Prado, Guia Marie (9 October 2015). “The mysterious artificial intelligence company Elon Musk invested in is developing game-changing smart computers”. Tech Insider. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  • FastCompany (15 January 2015). “Elon Musk Is Donating $10M Of His Own Money To Artificial Intelligence Research”. Fast Company. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  • Thibodeau, Patrick (25 March 2019). “Oracle CEO Mark Hurd sees no reason to fear ERP AI”. SearchERP. Archived from the original on 6 May 2019. Retrieved 6 May 2019.
  • Bhardwaj, Prachi (24 May 2018). “Mark Zuckerberg responds to Elon Musk’s paranoia about AI: ‘AI is going to… help keep our communities safe.'”. Business Insider. Archived from the original on 6 May 2019. Retrieved 6 May 2019.
  • Geist, Edward Moore (9 August 2015). “Is artificial intelligence really an existential threat to humanity?”. Bulletin of the Atomic Scientists. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  • Madrigal, Alexis C. (27 February 2015). “The case against killer robots, from a guy actually working on artificial intelligence”. Fusion.net. Archived from the original on 4 February 2016. Retrieved 31 January 2016.
  • Lee, Timothy B. (22 August 2014). “Will artificial intelligence destroy humanity? Here are 5 reasons not to worry”. Vox. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  • Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. (2019). Regulation of artificial intelligence in selected jurisdictions. LCCN 2019668143. OCLC 1110727808.
  • UNESCO Science Report: the Race Against Time for Smarter Development. Paris: UNESCO. 11 June 2021. ISBN 978-92-3-100450-6.
  • Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF). Paris: OECD Observatory of Public Sector Innovation. Archived (PDF) from the original on 20 December 2019. Retrieved 9 August 2020.
  • Barfield, Woodrow; Pagallo, Ugo (2018). Research handbook on the law of artificial intelligence. Cheltenham, UK. ISBN 978-1-78643-904-8. OCLC 1039480085.
  • Iphofen, Ron; Kritikos, Mihalis (3 January 2019). “Regulating artificial intelligence and robotics: ethics by design in a digital society”. Contemporary Social Science. 16 (2): 170–184. doi:10.1080/21582041.2018.1563803. ISSN 2158-2041. S2CID 59298502.
  • Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (24 July 2018). “Artificial Intelligence and the Public Sector – Applications and Challenges”. International Journal of Public Administration. 42 (7): 596–615. doi:10.1080/01900692.2018.1498103. ISSN 0190-0692. S2CID 158829602. Archived from the original on 18 August 2020. Retrieved 22 August 2020.
  • Buiten, Miriam C (2019). “Towards Intelligent Regulation of Artificial Intelligence”. European Journal of Risk Regulation. 10 (1): 41–59. doi:10.1017/err.2019.8. ISSN 1867-299X.
  • Wallach, Wendell (2010). Moral Machines. Oxford University Press.
  • Brown, Eileen (5 November 2019). “Half of Americans do not believe deepfake news could target them online”. ZDNet. Archived from the original on 6 November 2019. Retrieved 3 December 2019.
  • Frangoul, Anmar (14 June 2019). “A Californian business is using A.I. to change the way we think about energy storage”. CNBC. Archived from the original on 25 July 2020. Retrieved 5 November 2019.
  • “The Economist Explains: Why firms are piling into artificial intelligence”. The Economist. 31 March 2016. Archived from the original on 8 May 2016. Retrieved 19 May 2016.
  • Lohr, Steve (28 February 2016). “The Promise of Artificial Intelligence Unfolds in Small Steps”. The New York Times. Archived from the original on 29 February 2016. Retrieved 29 February 2016.
  • Smith, Mark (22 July 2016). “So you think you chose to read this article?”. BBC News. Archived from the original on 25 July 2016.
  • Aletras, N.; Tsarapatsanis, D.; Preotiuc-Pietro, D.; Lampos, V. (2016). “Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective”. PeerJ Computer Science. 2: e93. doi:10.7717/peerj-cs.93.
  • Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, Jose; Reid, Ian; Leonard, John J. (December 2016). “Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age”. IEEE Transactions on Robotics. 32 (6): 1309–1332. arXiv:1606.05830. Bibcode:2016arXiv160605830C. doi:10.1109/TRO.2016.2624754. S2CID 2596787.
  • Cambria, Erik; White, Bebo (May 2014). “Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]”. IEEE Computational Intelligence Magazine. 9 (2): 48–57. doi:10.1109/MCI.2014.2307227. S2CID 206451986.
  • Vincent, James (7 November 2019). “OpenAI has published the text-generating AI it said was too dangerous to share”. The Verge. Archived from the original on 11 June 2020. Retrieved 11 June 2020.
  • Jordan, M. I.; Mitchell, T. M. (16 July 2015). “Machine learning: Trends, perspectives, and prospects”. Science. 349 (6245): 255–260. Bibcode:2015Sci…349..255J. doi:10.1126/science.aaa8415. PMID 26185243. S2CID 677218.
  • Maschafilm (2010). “Content: Plug & Pray Film – Artificial Intelligence – Robots -“. plugandpray-film.de. Archived from the original on 12 February 2016.
  • Evans, Woody (2015). “Posthuman Rights: Dimensions of Transhuman Worlds”. Teknokultura. 12 (2). doi:10.5209/rev_TK.2015.v12.n2.49072.
  • Waddell, Kaveh (2018). “Chatbots Have Entered the Uncanny Valley”. The Atlantic. Archived from the original on 24 April 2018. Retrieved 24 April 2018.
  • Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (September 2017). “A review of affective computing: From unimodal analysis to multimodal fusion”. Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003. hdl:1893/25490.
  • “Robots could demand legal rights”. BBC News. 21 December 2006. Archived from the original on 15 October 2019. Retrieved 3 February 2011.
  • Horst, Steven (2005). “The Computational Theory of Mind”. The Stanford Encyclopedia of Philosophy.
  • Omohundro, Steve (2008). The Nature of Self-Improving Artificial Intelligence. presented and distributed at the 2007 Singularity Summit, San Francisco, CA.
  • Ford, Martin; Colvin, Geoff (6 September 2015). “Will robots create more jobs than they destroy?”. The Guardian. Archived from the original on 16 June 2018. Retrieved 13 January 2018.
  • White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF). Brussels: European Commission. 2020. Archived (PDF) from the original on 20 February 2020. Retrieved 20 February 2020.
  • Anderson, Michael; Anderson, Susan Leigh (2011). Machine Ethics. Cambridge University Press.
  • “Machine Ethics”. aaai.org. Archived from the original on 29 November 2014.
  • Russell, Stuart (8 October 2019). Human Compatible: Artificial Intelligence and the Problem of Control. United States: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322.
  • “AI set to exceed human brain power”. CNN. 9 August 2006. Archived from the original on 19 February 2008.
  • “Robots could demand legal rights”. BBC News. 21 December 2006. Archived from the original on 15 October 2019. Retrieved 3 February 2011.
  • “Kismet”. MIT Artificial Intelligence Laboratory, Humanoid Robotics Group. Archived from the original on 17 October 2014. Retrieved 25 October 2014.
  • Smoliar, Stephen W.; Zhang, HongJiang (1994). “Content based video indexing and retrieval”. IEEE Multimedia. 1 (2): 62–72. doi:10.1109/93.311653. S2CID 32710913.
  • Neumann, Bernd; Möller, Ralf (January 2008). “On scene interpretation with description logics”. Image and Vision Computing. 26 (1): 82–101. doi:10.1016/j.imavis.2007.08.013.
  • Kuperman, G. J.; Reichley, R. M.; Bailey, T. C. (1 July 2006). “Using Commercial Knowledge Bases for Clinical Decision Support: Opportunities, Hurdles, and Recommendations”. Journal of the American Medical Informatics Association. 13 (4): 369–371. doi:10.1197/jamia.M2055. PMC 1513681. PMID 16622160.
  • McGarry, Ken (1 December 2005). “A survey of interestingness measures for knowledge discovery”. The Knowledge Engineering Review. 20 (1): 39–61. doi:10.1017/S0269888905000408. S2CID 14987656.
  • Bertini, M; Del Bimbo, A; Torniai, C (2006). “Automatic annotation and semantic retrieval of video sequences using multimedia ontologies”. MM ’06 Proceedings of the 14th ACM international conference on Multimedia. 14th ACM international conference on Multimedia. Santa Barbara: ACM. pp. 679–682.
  • Kahneman, Daniel (25 October 2011). Thinking, Fast and Slow. Macmillan. ISBN 978-1-4299-6935-2. Retrieved 8 April 2012.
  • Turing, Alan (1948), “Machine Intelligence”, in Copeland, B. Jack (ed.), The Essential Turing: The ideas that gave birth to the computer age, Oxford: Oxford University Press, p. 412, ISBN 978-0-19-825080-7
  • Domingos, Pedro (22 September 2015). The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Basic Books. ISBN 978-0465065707.
  • Minsky, Marvin (1986), The Society of Mind, Simon and Schuster
  • Pinker, Steven (4 September 2007) [1994], The Language Instinct, Perennial Modern Classics, Harper, ISBN 978-0-06-133646-1
  • Chalmers, David (1995). “Facing up to the problem of consciousness”. Journal of Consciousness Studies. 2 (3): 200–219. Archived from the original on 8 March 2005. Retrieved 11 October 2018.
  • Roberts, Jacob (2016). “Thinking Machines: The Search for Artificial Intelligence”. Distillations. Vol. 2, no. 2. pp. 14–23. Archived from the original on 19 August 2018. Retrieved 20 March 2018.
  • Pennachin, C.; Goertzel, B. (2007). “Contemporary Approaches to Artificial General Intelligence”. Artificial General Intelligence. Cognitive Technologies. Berlin, Heidelberg: Springer. doi:10.1007/978-3-540-68677-4_1. ISBN 978-3-540-23733-4.
  • “Ask the AI experts: What’s driving today’s progress in AI?”. McKinsey & Company. Archived from the original on 13 April 2018. Retrieved 13 April 2018.
  • “Reshaping Business With Artificial Intelligence”. MIT Sloan Management Review. Archived from the original on 19 May 2018. Retrieved 2 May 2018.
  • Lorica, Ben (18 December 2017). “The state of AI adoption”. O’Reilly Media. Archived from the original on 2 May 2018. Retrieved 2 May 2018.
  • “AlphaGo – Google DeepMind”. Archived from the original on 20 October 2021.
  • Asada, M.; Hosoda, K.; Kuniyoshi, Y.; Ishiguro, H.; Inui, T.; Yoshikawa, Y.; Ogino, M.; Yoshida, C. (2009). “Cognitive developmental robotics: a survey”. IEEE Transactions on Autonomous Mental Development. 1 (1): 12–34. doi:10.1109/tamd.2009.2021702. S2CID 10168773.
  • Ashok83 (10 September 2019). “How AI Is Getting Groundbreaking Changes In Talent Management And HR Tech”. Hackernoon. Archived from the original on 11 September 2019. Retrieved 14 February 2020.
  • Berlinski, David (2000). The Advent of the Algorithm. Harcourt Books. ISBN 978-0-15-601391-8. OCLC 46890682. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
  • Brooks, Rodney (1990). “Elephants Don’t Play Chess” (PDF). Robotics and Autonomous Systems. 6 (1–2): 3–15. CiteSeerX 10.1.1.588.7539. doi:10.1016/S0921-8890(05)80025-9. Archived (PDF) from the original on 9 August 2007.
  • Butler, Samuel (13 June 1863). “Darwin among the Machines”. Letters to the Editor. The Press. Christchurch, New Zealand. Archived from the original on 19 September 2008. Retrieved 16 October 2014 – via Victoria University of Wellington.
  • Clark, Jack (2015a). “Musk-Backed Group Probes Risks Behind Artificial Intelligence”. Bloomberg.com. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  • Clark, Jack (2015b). “Why 2015 Was a Breakthrough Year in Artificial Intelligence”. Bloomberg.com. Archived from the original on 23 November 2016. Retrieved 23 November 2016.
  • Dennett, Daniel (1991). Consciousness Explained. The Penguin Press. ISBN 978-0-7139-9037-9.
  • Dreyfus, Hubert (1972). What Computers Can’t Do. New York: MIT Press. ISBN 978-0-06-011082-6.
  • Dreyfus, Hubert; Dreyfus, Stuart (1986). Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. Oxford, UK: Blackwell. ISBN 978-0-02-908060-3. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
  • Dyson, George (1998). Darwin among the Machines. Allan Lane Science. ISBN 978-0-7382-0030-9. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
  • Edelson, Edward (1991). The Nervous System. New York: Chelsea House. ISBN 978-0-7910-0464-7. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
  • Fearn, Nicholas (2007). The Latest Answers to the Oldest Questions: A Philosophical Adventure with the World’s Greatest Thinkers. New York: Grove Press. ISBN 978-0-8021-1839-4.
  • Haugeland, John (1985). Artificial Intelligence: The Very Idea. Cambridge, Mass.: MIT Press. ISBN 978-0-262-08153-5.
  • Hawkins, Jeff; Blakeslee, Sandra (2005). On Intelligence. New York: Owl Books. ISBN 978-0-8050-7853-4.
  • Henderson, Mark (24 April 2007). “Human rights for robots? We’re getting carried away”. The Times Online. London. Archived from the original on 31 May 2014. Retrieved 31 May 2014.
  • Kahneman, Daniel; Slovic, D.; Tversky, Amos (1982). Judgment under uncertainty: Heuristics and biases. Science. Vol. 185. New York: Cambridge University Press. pp. 1124–1131. doi:10.1126/science.185.4157.1124. ISBN 978-0-521-28414-1. PMID 17835457. S2CID 143452957.
  • Katz, Yarden (1 November 2012). “Noam Chomsky on Where Artificial Intelligence Went Wrong”. The Atlantic. Archived from the original on 28 February 2019. Retrieved 26 October 2014.
  • Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 978-0-670-03384-3.
  • Langley, Pat (2011). “The changing science of machine learning”. Machine Learning. 82 (3): 275–279. doi:10.1007/s10994-011-5242-y.
  • Legg, Shane; Hutter, Marcus (15 June 2007). A Collection of Definitions of Intelligence (Technical report). IDSIA. arXiv:0706.3639. Bibcode:2007arXiv0706.3639L. 07-07.
  • Lenat, Douglas; Guha, R. V. (1989). Building Large Knowledge-Based Systems. Addison-Wesley. ISBN 978-0-201-51752-1.
  • Lighthill, James (1973). “Artificial Intelligence: A General Survey”. Artificial Intelligence: a paper symposium. Science Research Council.
  • Lombardo, P; Boehm, I; Nairz, K (2020). “RadioComics – Santa Claus and the future of radiology”. Eur J Radiol. 122 (1): 108771. doi:10.1016/j.ejrad.2019.108771. PMID 31835078.
  • Lungarella, M.; Metta, G.; Pfeifer, R.; Sandini, G. (2003). “Developmental robotics: a survey”. Connection Science. 15 (4): 151–190. CiteSeerX 10.1.1.83.7615. doi:10.1080/09540090310001655110. S2CID 1452734.
  • Maker, Meg Houston (2006). “AI@50: AI Past, Present, Future”. Dartmouth College. Archived from the original on 3 January 2007. Retrieved 16 October 2008.
  • McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955). “A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence”. Archived from the original on 26 August 2007. Retrieved 30 August 2007.
  • Minsky, Marvin (1967). Computation: Finite and Infinite Machines. Englewood Cliffs, N.J.: Prentice-Hall. ISBN 978-0-13-165449-5. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
  • Moravec, Hans (1988). Mind Children. Harvard University Press. ISBN 978-0-674-57616-2. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
  • NRC (United States National Research Council) (1999). “Developments in Artificial Intelligence”. Funding a Revolution: Government Support for Computing Research. National Academy Press.
  • Newell, Allen; Simon, H. A. (1976). “Computer Science as Empirical Inquiry: Symbols and Search”. Communications of the ACM. 19 (3): 113–126. doi:10.1145/360018.360022..
  • Nilsson, Nils (1983). “Artificial Intelligence Prepares for 2001” (PDF). AI Magazine. 1 (1). Archived (PDF) from the original on 17 August 2020. Retrieved 22 August 2020. Presidential Address to the Association for the Advancement of Artificial Intelligence.
  • Oudeyer, P-Y. (2010). “On the impact of robotics in behavioral and cognitive sciences: from insect navigation to human cognitive development” (PDF). IEEE Transactions on Autonomous Mental Development. 2 (1): 2–16. doi:10.1109/tamd.2009.2039057. S2CID 6362217. Archived (PDF) from the original on 3 October 2018. Retrieved 4 June 2013.
  • Schank, Roger C. (1991). “Where’s the AI”. AI magazine. Vol. 12, no. 4.
  • Searle, John (1980). “Minds, Brains and Programs” (PDF). Behavioral and Brain Sciences. 3 (3): 417–457. doi:10.1017/S0140525X00005756. S2CID 55303721. Archived (PDF) from the original on 17 March 2019. Retrieved 22 August 2020.
  • Searle, John (1999). Mind, language and society. New York: Basic Books. ISBN 978-0-465-04521-1. OCLC 231867665. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
  • Simon, H. A. (1965). The Shape of Automation for Men and Management. New York: Harper & Row. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
  • Solomonoff, Ray (1956). An Inductive Inference Machine (PDF). Dartmouth Summer Research Conference on Artificial Intelligence. Archived (PDF) from the original on 26 April 2011. Retrieved 22 March 2011 – via std.com, pdf scanned copy of the original. Later published as
    Solomonoff, Ray (1957). “An Inductive Inference Machine”. IRE Convention Record. Vol. Section on Information Theory, part 2. pp. 56–62.
  • Spadafora, Anthony (21 October 2016). “Stephen Hawking believes AI could be mankind’s last accomplishment”. BetaNews. Archived from the original on 28 August 2017.
  • Tao, Jianhua; Tan, Tieniu (2005). Affective Computing and Intelligent Interaction. Affective Computing: A Review. Vol. LNCS 3784. Springer. pp. 981–995. doi:10.1007/11573548.
  • Tecuci, Gheorghe (March–April 2012). “Artificial Intelligence”. Wiley Interdisciplinary Reviews: Computational Statistics. 4 (2): 168–180. doi:10.1002/wics.200. S2CID 196141190.
  • Thro, Ellen (1993). Robotics: The Marriage of Computers and Machines. New York: Facts on File. ISBN 978-0-8160-2628-9. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
  • Turing, Alan (October 1950), “Computing Machinery and Intelligence”, Mind, LIX (236): 433–460, doi:10.1093/mind/LIX.236.433, ISSN 0026-4423.
  • Vinge, Vernor (1993). “The Coming Technological Singularity: How to Survive in the Post-Human Era”. Vision 21: Interdisciplinary Science and Engineering in the Era of Cyberspace: 11. Bibcode:1993vise.nasa…11V. Archived from the original on 1 January 2007. Retrieved 14 November 2011.
  • Wason, P. C.; Shapiro, D. (1966). “Reasoning”. In Foss, B. M. (ed.). New horizons in psychology. Harmondsworth: Penguin. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
  • Weng, J.; McClelland; Pentland, A.; Sporns, O.; Stockman, I.; Sur, M.; Thelen, E. (2001). “Autonomous mental development by robots and animals” (PDF). Science. 291 (5504): 599–600. doi:10.1126/science.291.5504.599. PMID 11229402. S2CID 54131797. Archived (PDF) from the original on 4 September 2013. Retrieved 4 June 2013 – via msu.edu.

Further reading

  • DH Author, “Why Are There Still So Many Jobs? The History and Future of Workplace Automation” (2015) 29(3) Journal of Economic Perspectives 3.
  • Boden, Margaret, Mind As Machine, Oxford University Press, 2006.
  • Cukier, Kenneth, “Ready for Robots? How to Think about the Future of AI”, Foreign Affairs, vol. 98, no. 4 (July/August 2019), pp. 192–98. George Dyson, historian of computing, writes (in what might be called “Dyson’s Law”) that “Any system simple enough to be understandable will not be complicated enough to behave intelligently, while any system complicated enough to behave intelligently will be too complicated to understand.” (p. 197.) Computer scientist Alex Pentland writes: “Current AI machine-learning algorithms are, at their core, dead simple stupid. They work, but they work by brute force.” (p. 198.)
  • Domingos, Pedro, “Our Digital Doubles: AI will serve our species, not control it”, Scientific American, vol. 319, no. 3 (September 2018), pp. 88–93.
  • Gopnik, Alison, “Making AI More Human: Artificial intelligence has staged a revival by starting to incorporate what we know about how children learn”, Scientific American, vol. 316, no. 6 (June 2017), pp. 60–65.
  • Halpern, Sue, “The Human Costs of AI” (review of Kate Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021, 327 pp.; Simon Chesterman, We, the Robots?: Regulating Artificial Intelligence and the Limits of the Law, Cambridge University Press, 2021, 289 pp.; Keven Roose, Futureproof: 9 Rules for Humans in the Age of Automation, Random House, 217 pp.; Erik J. Larson, The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do, Belknap Press / Harvard University Press, 312 pp.), The New York Review of Books, vol. LXVIII, no. 16 (21 October 2021), pp. 29–31. “AI training models can replicate entrenched social and cultural biases. […] Machines only know what they know from the data they have been given. [p. 30.] [A]rtificial general intelligence–machine-based intelligence that matches our own–is beyond the capacity of algorithmic machine learning… ‘Your brain is one piece in a broader system which includes your body, your environment, other humans, and culture as a whole.’ [E]ven machines that master the tasks they are trained to perform can’t jump domains. AIVA, for example, can’t drive a car even though it can write music (and wouldn’t even be able to do that without Bach and Beethoven [and other composers on which AIVA is trained]).” (p. 31.)
  • Johnston, John (2008) The Allure of Machinic Life: Cybernetics, Artificial Life, and the New AI, MIT Press.
  • Koch, Christof, “Proust among the Machines”, Scientific American, vol. 321, no. 6 (December 2019), pp. 46–49. Christof Koch doubts the possibility of “intelligent” machines attaining consciousness, because “[e]ven the most sophisticated brain simulations are unlikely to produce conscious feelings.” (p. 48.) According to Koch, “Whether machines can become sentient [is important] for ethical reasons. If computers experience life through their own senses, they cease to be purely a means to an end determined by their usefulness to… humans. Per GNW [the Global Neuronal Workspace theory], they turn from mere objects into subjects… with a point of view…. Once computers’ cognitive abilities rival those of humanity, their impulse to push for legal and political rights will become irresistible—the right not to be deleted, not to have their memories wiped clean, not to suffer pain and degradation. The alternative, embodied by IIT [Integrated Information Theory], is that computers will remain only supersophisticated machinery, ghostlike empty shells, devoid of what we value most: the feeling of life itself.” (p. 49.)
  • Marcus, Gary, “Am I Human?: Researchers need new ways to distinguish artificial intelligence from the natural kind”, Scientific American, vol. 316, no. 3 (March 2017), pp. 58–63. A stumbling block to AI has been an incapacity for reliable disambiguation. An example is the “pronoun disambiguation problem”: a machine has no way of determining to whom or what a pronoun in a sentence refers. (p. 61.)
  • E McGaughey, ‘Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy’ (2018) SSRN, part 2(3) Archived 24 May 2018 at the Wayback Machine.
  • George Musser, “Artificial Imagination: How machines could learn creativity and common sense, among other human qualities”, Scientific American, vol. 320, no. 5 (May 2019), pp. 58–63.
  • Myers, Courtney Boyd ed. (2009). “The AI Report” Archived 29 July 2017 at the Wayback Machine. Forbes June 2009
  • Raphael, Bertram (1976). The Thinking Computer. W.H. Freeman and Co. ISBN 978-0716707233. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
  • Scharre, Paul, “Killer Apps: The Real Dangers of an AI Arms Race”, Foreign Affairs, vol. 98, no. 3 (May/June 2019), pp. 135–44. “Today’s AI technologies are powerful but unreliable. Rules-based systems cannot deal with circumstances their programmers did not anticipate. Learning systems are limited by the data on which they were trained. AI failures have already led to tragedy. Advanced autopilot features in cars, although they perform well in some circumstances, have driven cars without warning into trucks, concrete barriers, and parked cars. In the wrong situation, AI systems go from supersmart to superdumb in an instant. When an enemy is trying to manipulate and hack an AI system, the risks are even greater.” (p. 140.)
  • Serenko, Alexander (2010). “The development of an AI journal ranking based on the revealed preference approach” (PDF). Journal of Informetrics. 4 (4): 447–59. doi:10.1016/j.joi.2010.04.001. Archived (PDF) from the original on 4 October 2013. Retrieved 24 August 2013.
  • Serenko, Alexander; Michael Dohan (2011). “Comparing the expert survey and citation impact journal ranking methods: Example from the field of Artificial Intelligence” (PDF). Journal of Informetrics. 5 (4): 629–49. doi:10.1016/j.joi.2011.06.002. Archived (PDF) from the original on 4 October 2013. Retrieved 12 September 2013.
  • Tom Simonite (29 December 2014). “2014 in Computing: Breakthroughs in Artificial Intelligence”. MIT Technology Review.
  • Sun, R. & Bookman, L. (eds.), Computational Architectures: Integrating Neural and Symbolic Processes. Kluwer Academic Publishers, Needham, MA. 1994.
  • Taylor, Paul, “Insanely Complicated, Hopelessly Inadequate” (review of Brian Cantwell Smith, The Promise of Artificial Intelligence: Reckoning and Judgment, MIT, 2019, ISBN 978-0262043045, 157 pp.; Gary Marcus and Ernest Davis, Rebooting AI: Building Artificial Intelligence We Can Trust, Ballantine, 2019, ISBN 978-1524748258, 304 pp.; Judea Pearl and Dana Mackenzie, The Book of Why: The New Science of Cause and Effect, Penguin, 2019, ISBN 978-0141982410, 418 pp.), London Review of Books, vol. 43, no. 2 (21 January 2021), pp. 37–39. Paul Taylor writes (p. 39): “Perhaps there is a limit to what a computer can do without knowing that it is manipulating imperfect representations of an external reality.”
  • Tooze, Adam, “Democracy and Its Discontents”, The New York Review of Books, vol. LXVI, no. 10 (6 June 2019), pp. 52–53, 56–57. “Democracy has no clear answer for the mindless operation of bureaucratic and technological power. We may indeed be witnessing its extension in the form of artificial intelligence and robotics. Likewise, after decades of dire warning, the environmental problem remains fundamentally unaddressed…. Bureaucratic overreach and environmental catastrophe are precisely the kinds of slow-moving existential challenges that democracies deal with very badly…. Finally, there is the threat du jour: corporations and the technologies they promote.” (pp. 56–57.)

External links

Artificial intelligenceat Wikipedia’s sister projects

  • Definitions from Wiktionary
  • Media from Commons
  • Quotations from Wikiquote
  • Textbooks from Wikibooks
  • Resources from Wikiversity
  • Data from Wikidata
  • “Artificial Intelligence”. Internet Encyclopedia of Philosophy.
  • Thomason, Richmond. “Logic and Artificial Intelligence”. In Zalta, Edward N. (ed.). Stanford Encyclopedia of Philosophy.
  • Artificial Intelligence. BBC Radio 4 discussion with John Agar, Alison Adam & Igor Aleksander (In Our Time, Dec. 8, 2005).

Sources

  • Definition of Free Cultural Works logo notext.svg This article incorporates text derived from a free content work. Licensed under C-BY-SA 3.0 IGO Licensed text taken from UNESCO Science Report: the Race Against Time for Smarter Development., Schneegans, S., T. Straza and J. Lewis (eds), UNESCO. To learn how to add open license text to Wikipedia articles, please see this how-to page. For information on reusing text from Wikipedia, please see Wikipedia’s terms of use.
You might also like
Leave A Reply

Your email address will not be published.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More