1.1.1. Votre requête est guidée par la suggestion des mots-clés déjà enregistrés dans la base de données (auto-complétion)
1.1.2. Pour combiner des mots-clés dans une requête, plusieurs possibilités se présentent :
1) Opérateur ET : il doit être entré avec le symbole "&" :
2) Opérateur OU : il doit être entré avec le symbole "+" :
3) Opérateur SAUF : il doit être entré avec le symbole "-" :
1.2.1. Cliquez sur une lettre :
1.2.2. Vous avez la possibilité de faire tourner la boule des mots-clés associés au terme choisi :
1.2.3. Vous avez aussi la possibilité de cliquer sur un mot-clé :
1.2.4. Une fois un mot cliqué, un widget apparaît indiquant le nombre de notices indexées par le mot-clé sélectionné :
1.2.5. En cliquant sur le widget, vous faites apparaître la liste des références bibliographiques indexées par le mot-clé que vous avez sélectionné :
Vous avez la possibilité de faire défiler cette liste de références bibliographiques
1.2.6. Après avoir cliqué sur un résultat de requête, la notice associée à la référence bibliographique sélectionnée s’affiche :
1.2.7. Vous avez alors la possibilité de faire défiler la notice pour la consulter et lire son contenu
1.3.1. Cliquez sur le bouton accueil :
1.3.2. Vous avez la possibilité de choisir un critère parmi les critères suivants :
1.3.3. Cliquez sur le bouton OK ou sur la touche ENTER de votre clavier pour lancer la recherche
1.3.4. La liste des résultats s’affiche :
Vous avez la possibilité de faire défiler et de cliquer sur un résultat de requête
1.3.5. Une fois que vous avez sélectionné un résultat, la notice associée à cette référence bibliographique s’affiche et vous pouvez la consulter :
1.3.6. Pour afficher ou masquer le détail des métadonnées de la référence appuyer sur + ou sur – :
1.4.1. Entrez une requête dans le ou les champs souhaités
1.4.2. Votre requête est guidée par la suggestion des termes déjà enregistrés dans la base de données (auto-complétion) :
1.4.3. Pour sélectionner un item appuyez sur « + » ; pour retirer un item de la recherche appuyez sur « - »
1.4.4. Pour combiner les termes, sélectionnez les opérateurs que vous souhaitez utiliser dans votre requête :
1.4.5. Pour lancer votre recherche appuyez sur « Rechercher »
Monographie
Dictionnaire / Encyclopédie
Collectif
Article
Revue / Périodique
Thèse
3.1. Vous pouvez la faire tourner dans tous les sens
3.2. Vous pouvez la zoomer et la dézoomer
3.3. Vous pouvez cliquer sur les mots-clés qu'elle présente
La Physique du calcul. Histoire de l’ordinateur
Girolamo RAMUNNIÉditeur : Hachette - 1989
À l'image de l'Homme. Du Golem aux créatures virtuelles
Philippe BRETONÉditeur : Seuil - 1995
Philosophies des mathématiques et de la modélisation. Du chercheur à l'ingénieur
Nicolas BOULEAUÉditeur : L’Harmattan - 1999
Complexités. Aux limites des mathématiques et de l’informatique
Jean-Paul DELAHAYEÉditeur : Pour la science - 2006
Matière et conscience
Paul Montgomery CHURCHLANDÉditeur : Champ Vallon - 1999
Hasard et complexité en mathématiques
Gregory J. CHAITINSous la direction de Roger MANSUY, Hugo FORGETÉditeur : Flammarion - 2009
The Sciences of the Artificial
Herbert Alexander SIMONÉditeur : The MIT Press - 1969
The Emperor's new mind. Concerning computers, minds, and the laws of physics
Roger PENROSEÉditeur : Oxford University Press - 1989
Mathématiques et informatique
Gérard HUET, Philippe FLAJOLETSous la direction de Jean-Christophe YOCCOZDans Rapports sur la science et la technologie - 2005
Jacques Herbrand
Jacques DUBUCS, Paul ÉGRÉSous la direction de Michel BITBOL, Jean GAYONDans L’Épistémologie française, 1830-1970 - 2006
Condorcet et L’art de former des tableaux historiques
Nicolas RIEUCAUSous la direction de Danièle HERVIEU-LÉGERDans Mathématiques et Sciences Humaines = Mathematics and Social Science [Revue éditée par le Centre d’analyse et de mathématique sociales] - 2007
Genèse de quelques nouvelles sciences : de l'intelligence artificielle aux sciences de la cognition
Jean-Louis LE MOIGNESous la direction de Jean-Louis LE MOIGNEDans Intelligence des mécanismes, mécanismes de l'intelligence - 1986
La poésie comme expérience cognitive
Mario BORILLOSous la direction de Jean-Louis LE MOIGNEDans Intelligence des mécanismes, mécanismes de l'intelligence - 1986
L'intelligence doit être et sera artificielle
Laurent SIKLÓSSYSous la direction de Jean-Louis LE MOIGNEDans Intelligence des mécanismes, mécanismes de l'intelligence - 1986
Le contrôle dans les systèmes à base de connaissances : contribution à l'épistémologie de l'intelligence artificielle
Bruno BACHIMONTÉditeur : Hermès Science Publications - 1994
Cet ouvrage constitue la première histoire de l’ordinateur écrite à partir d’une étude systématique des documents originaux disponibles à ce jour. Au mythe linéaire, les faits imposent de substituer une dynamique historique : l’histoire de l’ordinateur peut ainsi être reconstituée à partir d’un ensemble de tensions, les unes conceptuelles – entre numérique et analogique, matériel et logiciel ... –, les autres institutionnelles – entre secret défense, diffusion scientifique et essor commercial. Si l’histoire de l’ordinateur est loin d’être achevée, une première période se clôt. L’intelligence artificielle procède d’une prise de conscience des limites atteintes par l’architecture à la Von Neumann et de la nécessité d’en concevoir une autre faisant appel à des techniques entièrement nouvelles. – Chap. I, La naissance du calcul électronique; – Chap. II, John von Neumann et Alan Turing : deux mathématiciens experts en électronique; – Chap. III, L’ère expérimentale; – Chap. IV, La première génération ou la recherche d’une mémoire fiable; – Chap. V, La naissance des semi-conducteurs; – Chap. VI, La deuxième génération et la naissance du logiciel; – Chap. VII, La troisième génération et l’organisation de la machine; – Chap. VIII, Performances et limites des ordinateurs; – Chap. IX, La programmation est-elle une science ?; – Chap. X, Il faut changer de philosophie : la cinquième génération. – Conclusions. M.-M. V.
«Le Golem et Pygmalion font figure de récites prototypiques dans un contexte fortement marqué par la croyance dans le caractère animé et vivant de certaines statues, dont Platon, quelques siècles plus tôt, disait déjà qu'il fallait les enchaîner la nuit pour les empêcher de partir». Les créatures artificielles peuplent une zone particulière de notre imaginaire, nourrie de vieilles légendes. Ce livre veut montrer qu'un lien existe entre toutes ces créatures, de la statue animée de Pygmalion au monstre de Frankenstein, en passant par les ordinateurs intelligents du XXe siècle. Les créatures artificielles tendent à l'homme un miroir où il est confronté à sa propre image. En exposant la généalogie des récits concernant les créatures artificielles que l'homme s'invente et se fabrique depuis 2 000 ans, Philippe Breton nous invite a découvrir ce qui les relie entre elles, et elles à nous, par le biais du thème transcendant de la Création : l'homme être créé et être créateur, l'homme à l'image de Dieu et rêvant à son tour d'insuffler la vie à des créatures à son image. Pour l'auteur de La Tribu informatique et de L'Idéologie de la communication, l'existence de toutes ces créatures témoigne d'un besoin d'ordre métaphysique, et illustre le «mystère de l'homme tentant de sortir de lui-même pour se comprendre». Breton considère finalement ces créatures comme des miroirs de la perception que l'homme a de lui-même. Nos ordinateurs et les créatures virtuelles engendrées par l'informatique doivent donc nous renseigner sur les hommes que nous sommes. C'est en cela qu'elles intéressent l'anthropologue, dont l'analyse aboutit à une représentation de l'humain entre politique et psychologie : il évoque par exemple l'évacuation du corps physique au profit de la seule intelligence du cerveau, intelligence transférée à l'ordinateur censé nous gouverner mieux que nous même. Il propose également des interprétations très précises quant à la passion trouble de l'homme pour ses créatures artificielles, et à l'autonomie qu'il leur accorde. «La question du lien social est désormais présente au cœur de la problématique des créatures artificielles. À la représentation de l'homme comme création et sujet divin s'est substituée une liberté nouvelle où la question la plus urgente est désormais celle de l'organisation collective des consciences. C'est dans ce contexte que la nouvelle représentation de l'homme en tant qu'être informationnel va trouver tout son sens, à travers une machine communicante : l'ordinateur». M.-M. V.
Comprendre le rôle économique que jouent les mathématiques est essentiel pour situer les enjeux de la formation des jeunes et des futurs ingénieurs. L'informatique a modifié les repères et déplacé l'intérêt. Peut-on pour autant rejeter les mathématiques dans l'abstrait inutile? Ce discours à la mode pourrait être une grave erreur. – Nicolas Bouleau replace les mathématiques contemporaines dans l'histoire des idées et éclaircit leurs liens avec les activités économiques d'aujourd'hui. De ce parcours ressortent deux thèses fortes : – 1) La recherche mathématique consiste à faire le travail inverse d'un ordinateur. Cette intéressante image s'appuie sur les travaux récents des logiciens; – 2) La modélisation, qui est devenue l'activité principale de l'ingénieur, permet d'utiliser les mathématiques directement, sans qu'elles soient la servante des disciplines traditionnelles. – Ce livre apporte une vision des mathématiques différente de celle rabâchée ces dernières décennies : elles apparaissent comme un langage permettant aux acteurs de la vie économique et sociale d'exprimer leurs intérêts et de représenter leur vision des problèmes dans la complexité du monde actuel, en réduisant les fossés sémantiques entre disciplines. – Sommaire : Avant-propos, Une caractérisation philosophique récente des mathématiques et ses conséquences vis à vis de l’informatique et de la modélisation. – Partie I, Fondements des mathématiques et philosophie (Regards sur le développement historique et logique : le rôle des méthodes impures et des excursions; La philosophie et les mathématiques : la lente et difficile reconnaissance de la pluralité des sens; Bilan provisoire); – Partie II, Les mathématiques pures : inventer un sens (La recherche mathématique comme déchiffrement inventif; Polysémies et dictionnaires en mathématiques; Fabrication de réel par des idées simplifiantes); – Partie III, Les mathématiques mixtes : représenter et communiquer dans les langages semi-artificiels (La modélisation, exemples; Qu'est-ce qu'un modèle ? Un récit symbolique; Remarques sur la formation des ingénieurs). – Conclusion, Modernité et post-modernité des mathématiques. M.-M. V.
Toutes les sciences sont concernées par une multitude d’aspects de la complexité que chacune affronte avec ses outils et ses concepts propres. Cependant, c’est aux mathématiques et à l’informatique que l’on doit la maîtrise des complexités rencontrées dans toutes les sciences : en effet, ces deux disciplines fabriquent les outils pour penser ces complexités et en générer de nouvelles, tels les ordinateurs, objets artificiels les plus complexes jamais créés par l’homme. Mais mathématiques et informatique flirtent avec les limites de l’intelligence, soulevant par là même d’incontournables questions : – quelle est la mémoire totale de l’humanité actuelle et comment évolue-t-elle ?; – quels sont les plus grands calculs envisageables avec notre technologie ?; – qu’est-ce qu’un très grand nombre, et comment le noter ?; – l’intelligence humaine est-elle rattrapée par celle des machines ?; – les objets mathématiques existent-ils vraiment ?; – la simulation informatique nous plonge-t-elle dans un monde d’illusions ?; – quelles sont les caractéristiques de l’ordinateur ultime, et l’univers entier est-il lui-même un immense ordinateur ? Fondé sur l’actualité scientifique et les spéculations théoriques qu’elle a suscitées ces dernières années en mathématiques et en informatique, cet ouvrage est constitué à partir d’articles parus dans la revue Pour la science (rubrique «Logique et calcul»), et complété d’une bibliographie et d’une liste de liens Internet mises à jour. – I. «Avancées folles en informatique» : 1, La mémoire de l’humanité; 2, Les chiffres de la complexité informatique; 3, Savoir si un nombre est premier : facile!. – II. «Intelligences» : 4, Les machines pensent-elles ?; 5, Les dés pipés du cerveau; 6, Marques d’intelligence. – III. «Vertiges de la théorie» : 7, L’informatique théorique; 8, Des nombres bien plus grands que vous ne l’imaginez; 9, Un algorithme à un million de dollars; 10, Que le monde est petit !. – IV. «Affronter les complexités» : 11, La complexité mesurée par la taille des programmes; 12, Les nombres Oméga; 13, Classer musiques, images, textes et génomes. – V. «Méditations paradoxales» : 14, Sommes-nous réels ?; 15, Le monde mathématique existe-t-il ?; 16, Coloriages irréels. – VI. «Physique du calcul» : 17, La barrière de Turing; 18, L’ordinateur ultime; 19, Calculer dans un monde hyperbolique. – VII. «Mathématiques nouvelles» : 20, Démontrer ?; 21, Mathématiques expérimentales; 22, Labyrinthes de longueur infinie. M.-M. V.
Cet ouvrage d’initiation aux questions de philosophie de l’esprit, telles qu’elles sont abordées dans le domaine anglo-saxon, examine les différentes thèses philosophiques qui s’affrontent quant à l’interprétation de la nature de nos états mentaux (dualismes, matérialismes, fonctionnalisme ... ), et rappelle les perspectives qu’ouvrent en ce domaine à la fois les neurosciences, l’informatique et l’intelligence artificielle. Avec le développement d’une philosophie matérialiste et réductionniste, il devrait être possible de parvenir à expliquer tous les phénomènes mentaux dans les termes du fonctionnement électrochimique du réseau de neurones qui compose notre système nerveux. – Chap. 1, «De quoi est-il question dans ce livre ?»; – Chap. 2, «Le problème ontologique (Le problème de l’sprit et du corps» : I. Le dualisme; II. Le behaviorisme philosophique; III. Le matérialisme réductionniste (la théorie de l’identité); IV. Le fonctionnalisme; V. Le matérialisme éliminatoire; – Chap. 3, «Le problème sémantique» : I. Définition par l’ostention interne; II. Le behaviorisme philosophique; III. La thèse du réseau théorique et la psychologie populaire; IV. L’intentionnalité et les attitudes propositionnelles; – Chap. 4, «Le problème épistémologique» : I. Le problème des autres esprits; II. Le problème de la conscience de soi; – Chap. 5, «Le problème méthodologique» : I. Idéalisme et phénoménologie; II. Le behaviorisme méthodologique; III. L’approche cognitive et computationnelle; IV. Le matérialisme méthodologique; – Chap. 6, «L’intelligence artificielle» : I. Ordinateurs : quelques concepts élémentaires; II. Programmation de l’intelligence : l’approche pas à pas; – Chap. 7. «Neurosciences» : I. Neuro-anatomie : l’arrière-plan de l’évolution; II. Neurophysiologie et organisation neuronale; III. Neuropsychologie; IV. Neurobiologie cognitive; V. À nouveau l’intelligence artificielle : le traitement parallèle distribué; – Chap. 8, «Pour élargir notre horizon» : I. La répartition de l’intelligence dans l’Univers; II. L’expansion de la conscience introspective. M.-M. V.
Titre original : Meta Math ! The Quest for Omega. New York : Pantheon Books, 2005. – «Sorte de cauchemar pour la raison pure», le nombre Oméga apparaît comme un concentré des propriétés les plus étranges que peuvent avoir certains nombres réels. Définissable, mais non calculable, incompressible et aléatoire, il réunit d’une certaine manière les propriétés les plus extrêmes que peut posséder un réel définissable. C’est dans les années 1970 que les mathématiques se sont enrichies de ce nombre étrange. Gregory Chaitin, son découvreur, entreprend ici de familiariser le lecteur avec sa surprenante complexité, tout en le resituant dans l’histoire des mathématiques. Le nombre Oméga et les théorèmes associés à la complexité algorithmique éclairent d’un jour nouveau les fameux théorèmes de Gödel sur l’incomplétude des mathématiques : ils font désormais partie du bagage de tout mathématicien, logicien, informaticien ou philosophe des sciences. – I. Trois étranges amours. Les nombres premiers, Gödel, LISP; – II. Information numérique : ADN/Logiciels/Leibniz; – Intermède : la parabole de la rose (Physique théorique et philosophie numérique); – III. Le labyrinthe du continu; – IV. Complexité, hasard et incomplétude. – Conclusion. – Appendice. M.-M. V.
This book comments briefly on the relation between general ideas about complexity and the particular hierarchic form of complexity with which the book is chiefly concerned. The thesis is that certain phenomena or entities are "artificial" in the sense that they are contingent to the goals or purposes of their designer. In other words, they could have been different had the goals been different (as opposed to natural phenomena which are necessarily evolved given natural laws). – Chapter 1 tackles the following issue: Since artifacts are contingent, how is a science of the artificial possible? How to study artifacts empirically? Chapter 4, on the other hand, deals with the notion of complexity. This is necessary because "artificiality and complexity are inextricably interwoven." M.-M. V.
Sur Jacques Herbrand (1908-1931), dont l’article souligne l’ampleur des intérêts, notamment son attention aux développements récents des sciences physiques, son œuvre en informatique qui, dans sa postérité tardive, renforce la pertinence d’un rapprochement avec von Neumann, que Herbrand rencontre d’ailleurs lors de son séjour en Allemagne en 1930, et dont il connaissait le mémoire de 1927 sur la non-contradiction de l’arithmétique. – La lecture de Principia; – La rencontre avec le programme de Hilbert; – L’année allemande; – Métamathématique et philosophie des mathématiques. La situation de Herbrand : Peut-on définir l’évidence effective ?; Signes mathématiques, référence et déréférence.
Membre du courant encyclopédique et Secrétaire perpétuel de l’Académie des Sciences, Condorcet (1743-1794) est particulièrement au fait de la question de la classification, que celle-ci s’applique au monde des idées ou à celui de la Nature. Il commente les réalisations de ses contemporains en la matière et nourrit son propos par une réflexion sur les principes de classification en tant que tels. Originale et méconnue, la classification qu’il consacre à l’histoire des progrès de l’esprit humain, dite Table de référence, est une émanation directe de cette réflexion. Elle est élaborée selon trois dimensions codées – lignes, colonnes, profondeur – devant permettre le stockage, le repérage et le traitement des données historiques. L’aspect inachevé de la Table de référence est aisément compréhensible si on la conçoit comme une construction exploratoire que Condorcet souhaiterait léguer aux générations futures. La Table de référence est aussi pour Condorcet une manifestation de la puissance de l’analyse, synonyme chez lui de calcul mathématique. Il en résulte une vision proprement mécanique de l’opération de classification, l’exposé de Condorcet annonçant, de manière explicite, l’avènement de la mécanographie et du traitement automatique de l’information. N.R.
L'intelligence artificielle apparaît en 1956, après un siècle de maturation : G. Boole (pour la logique) et Ch. Babbage (pour le calcul) préparent le terrain qu'occuperont A. Turing (la théorie de la computation) et C. Shannon (la théorie de la communication), puis N. Wiener (la cybernétique) et J. von Neumann (la théorie des automates). L'ordinateur, cette machine à computer tous les types de symboles, peut alors apparaître : s'il peut automatiser les calculs numériques, ne peut-il aussi, «artificieuse machine», simuler les manifestations de l'intelligence ? Quelle intelligence ? Quelle connaissance de l'intelligence raisonnante ? Ces questions vont dès lors rayonner dans bien des disciplines scientifiques sous l'impulsion de chercheurs originaux, soucieux à la fois d'ouvertures épistémologiques et de réalisations opérationnelles : M. Minsky, J. McCarthy, A. Newell et H.A. Simon ... Les théories de la computation, en devenant des machines à computer des symboles, vont certes se développer pour elles-mêmes, suscitant l'essor contemporain de l'informatique, mais elles vont aussi susciter des interactions sans précédent dans leur rencontre avec les sciences de l'Homme et de la Société, puis avec les sciences de la vie : psychologie cognitive, linguistique computationnelle, logiques normatives, l'intelligence artificielle va susciter dans bien des domaines, en moins d'une génération, une sorte d'ébranlement épistémologique accompagné de l'apparition de nouveaux résultats, qui sont aussi de nouveaux produits : une ingénierie et une technologie de la cognition apparaissent aujourd'hui (systèmes à base de connaissances, systèmes experts, traduction assistée, etc.), mettant en valeur la constitution de nouveaux champs scientifiques que l'on reconnaît par une sorte de fédération de disciplines : les sciences de la cognition ne proposent-elles pas de déployer, à partir des énoncés fondateurs de l'intelligence artificielle, les bases d'un nouvel encyclopédisme ? Un encyclopédisme que symbolise, de façon sans doute un peu caricaturale, l'annonce de la «cinquième génération informatique».
Artificial intellignce appeared in 1956, after maturing for a century : G. Boole (logic) and Ch. Babbage (calculus) prepared the ground to be exploited subsequently by A. Turing (computation theory) and C. Shannon (theory of communication), followed by N. Wiener (cybernetics) and J. von Neumann (theory of automatons). The machine for computing all types of symbols, or computer, could henceforth make its appearence : since it could automize numerical calculations, could not this «crafty machine» also simulate the various manifestations of intelligence ? But, what intelligence ? And what knowledge of the intelligence which reasons ? These questions would henceforth get pride of place in numerous scientific disciplines under the impulse of original research workers with an eye on epistemological openings and operational achievements : M. Minsky, J. McCarthy, A. Newell et H.A. Simon ... It is true that the computation theories would develop for themselves and become symbol-computing machines, providing impetus to contemporary data-processing. But, they would also give rise to unprecedented interactions on encountering the sciences of Man and Society and, later, the life sciences : cognitive psychology, computational linguistics, normative logic. In different spheres and in less than a generation, artificial intelligence would create somewhat of an epistemological shake-up accompanied by new results, which also happen to be new products : cognitive engineering and technology are making their appearence today (knowledge-based systems, expert systems, assisted translation, etc.), highlighting new scientific fields which are recognizable from an association of disciplines : working on the guide-lines provided by artificial intelligence, cognitive science does, after all, propose to lay the foundations for a new encyclopaedic endeavour. The announcement of the «fifth generation computers» comes as a symbol, somewhat caricatural, of this endeavour.
La création poétique se reconnaît à ce qu'elle ouvre des univers de significations dont la nécessité s'impose sans pour autant qu'ils soient réductibles aux systèmes préexistants de production/représentation du sens. Le rôle de la recherche cognitive ne se limite pas au balisage de ces émergences car, au fur et à mesure qu'elle progresse, elle donne à l'expérience poétique les moyens et le désir de nouveaux dépassements. Création et connaissance s'établissent ainsi dans une relation dynamique dont l'informatique constitue désormais le support conceptuel et technique privilégié.
Poetic creation is ascertainable from the fact that it opens up worlds of meanings which are quite necessary even though they are not reducible to preexisting systems of sense production/representation. The role of cognitive research is not just limited to the signalling of these new openings since, as it progresses, it provides poetic experience with the means and the desire to break new grounds. Creation ans knowledge thus combine in a dynamic relationship whose preferred conceptual as well as technical support will henceforth come from computers.
On soutient ici, en termes de défi, le point de vue que l'ordinateur sera dans l'avenir plus intelligent que l'homme. De l'assistant qu'il commence à être aujourd'hui, on montre comment il peut devenir un compagnon, puis un mode de communication dans le temps et dans l'espace, dont le rôle social ne peut que croître. On conclut par une prévision : l'intelligence naturelle de l'homme de demain sera en relation intime avec l'intelligence artificielle de l'ordinateur.
We support the idea, seen as a challenge, that the computer will be more intelligent than man, in the future. A mere assistant today, it will become a companion and finally a mode of communication in time and space whose social role only increase. The conclusion predicts that the natural intelligence of the man of tomorrow will be intimately related to the artificial intelligence of the computer.
Un problème se pose dès lors qu'une conduite finalisée rencontre un obstacle à sa réalisation. L'élaboration de connaissances d'une part et la confection de techniques d'autre part apportent les médiations symboliques et instrumentales au moyen desquelles les hommes visent à résoudre les problèmes qui se posent à eux, c'est-à-dire à lever les obstacles bloquant leurs conduites. Tout problème ne peut donc être résolu que par l'intermédiaire de savoirs implicites (savoir-faire) ou explicites (connaissances). Or l'ordinateur, concrétisation d'une machine universelle de Turing, peut résoudre tout problème de façon automatique, à condition que la méthode de résolution du problème affronté soit traduite en procédures de calcul exécutables. De plus, toute connaissance est un savoir formaté dans un langage : ce langage pouvant être naturel ou artificiel. Lorsqu'un savoir est exprimé dans un langage naturel (le français par exemple), la connaissance produite est phénoménologique. En revanche, lorsqu'il est exprimé dans un langage artificiel (la logique ou les mathématiques), la connaissance produite est scientifique. Alors que les connaissances phénoménologiques sont signifiantes et renvoient à des expériences vécues, les connaissances scientifiques sont calculatoires : elles visent des objets construits théoriquement, ayant des propriétés logico-mathématiques en vertu desquelles ils peuvent être saisis comme des phénomènes mesurables. Ainsi, le mot électron, dès lors qu'il est employé dans le cadre de la physique théorique ne renvoie pas à un contenu pouvant être décrit de manière phénoménologique, mais à des équations qui mesurent la loi d'existence à laquelle son contenu est soumis. Les connaissances représentent donc des médiations entre un sujet connaissant et des objets connus et interviennent pour participer à la résolution des problèmes. Dès lors, un problème est modélisé à partir du moment où ses données sont exprimées sous forme de connaissances phénoménologiques ou scientifiques. La modélisation peut être informelle (lors de la construction du système de connaissances phénoménologiques renvoyant à la position du problème) ou formelle (lors de la construction du système de connaissances scientifiques correspondant aux données du problème), la modélisation formelle étant soit une mathématisation (synthèse de phénomènes) soit une formalisation (analyse de phénomènes). Or tous les problèmes ne sont pas logico-mathématiques. En effet les problèmes de la vie quotidienne ou de la vie pratique ne sont pas nécessairement logico-mathématiquement spécifiables et s'expriment systématiquement par des connaissances phénoménologiques. Dès lors, émerge le problème posé par les sciences cognitives : comment appréhender les connaissances phénoménologiques en termes de connaissances scientifiques ? Puis celui du cognitivisme computationnel : comment formaliser logiquement les connaissances phénoménologiques ? Et enfin celui du cognitivisme physique : comment mathématiser les connaissances phénoménologiques ? La résolution informatique de problèmes se décompose en deux grandes classes de problèmes : 1° celle pour laquelle on dispose de modèles mathématiques des contextes réels dans lesquels les problèmes se posent et 2° celle pour laquelle on ne dispose que d'une modélisation informelle à base de connaissances phénoménologiques. La seconde classe de problèmes forme l'objet d'étude de l'intelligence artificielle (IA). Dès lors l'IA est d'emblée confrontée au problème du contrôle, c'est-à-dire au problème de la bonne correspondance, au sein d'un système IA en fonctionnement, entre les représentations formelles qu'il manipule et les connaissances phénoménologiques qui leur sont associées. Ainsi, l'objectif de cet ouvrage est de contribuer à l'épistémologie de l'IA en dégageant les éléments d'une méthodologie du contrôle « fondée sur l'analyse théorique des connaissances phénoménologiques et de leurs représentations formelles ». La théorie de l'IA proposée par l'auteur, nommée artefacture, est une théorie originale permettant 1° d'articuler les connaissances et leur représentation et 2° de mettre en place une méthodologie du contrôle dans les systèmes à base de connaissances. Après avoir introduit le lecteur à sa problématique de la connaissance (chapitre 1), l'auteur expose le problème du contrôle dans la perspective de l'artefacture (chapitre 2). La première partie de l'ouvrage illustre cette méthodologie du contrôle (chapitres 3 à 5) ; la seconde (chapitres 6 à 8) en justifie le fondement théorique : l'artefacture. – Avertissement, p. v-vi ; Table des matières, pp. vii-xiv ; Liste des figures, pp. xv-xvi ; Liste des encadrés, pp. xvii-xviii ; Bibliographie, pp. 345-355 ; Index des notions, pp. 357-365.
F. F.