1.1.1. Votre requête est guidée par la suggestion des mots-clés déjà enregistrés dans la base de données (auto-complétion)
1.1.2. Pour combiner des mots-clés dans une requête, plusieurs possibilités se présentent :
1) Opérateur ET : il doit être entré avec le symbole "&" :
2) Opérateur OU : il doit être entré avec le symbole "+" :
3) Opérateur SAUF : il doit être entré avec le symbole "-" :
1.2.1. Cliquez sur une lettre :
1.2.2. Vous avez la possibilité de faire tourner la boule des mots-clés associés au terme choisi :
1.2.3. Vous avez aussi la possibilité de cliquer sur un mot-clé :
1.2.4. Une fois un mot cliqué, un widget apparaît indiquant le nombre de notices indexées par le mot-clé sélectionné :
1.2.5. En cliquant sur le widget, vous faites apparaître la liste des références bibliographiques indexées par le mot-clé que vous avez sélectionné :
Vous avez la possibilité de faire défiler cette liste de références bibliographiques
1.2.6. Après avoir cliqué sur un résultat de requête, la notice associée à la référence bibliographique sélectionnée s’affiche :
1.2.7. Vous avez alors la possibilité de faire défiler la notice pour la consulter et lire son contenu
1.3.1. Cliquez sur le bouton accueil :
1.3.2. Vous avez la possibilité de choisir un critère parmi les critères suivants :
1.3.3. Cliquez sur le bouton OK ou sur la touche ENTER de votre clavier pour lancer la recherche
1.3.4. La liste des résultats s’affiche :
Vous avez la possibilité de faire défiler et de cliquer sur un résultat de requête
1.3.5. Une fois que vous avez sélectionné un résultat, la notice associée à cette référence bibliographique s’affiche et vous pouvez la consulter :
1.3.6. Pour afficher ou masquer le détail des métadonnées de la référence appuyer sur + ou sur – :
1.4.1. Entrez une requête dans le ou les champs souhaités
1.4.2. Votre requête est guidée par la suggestion des termes déjà enregistrés dans la base de données (auto-complétion) :
1.4.3. Pour sélectionner un item appuyez sur « + » ; pour retirer un item de la recherche appuyez sur « - »
1.4.4. Pour combiner les termes, sélectionnez les opérateurs que vous souhaitez utiliser dans votre requête :
1.4.5. Pour lancer votre recherche appuyez sur « Rechercher »
Monographie
Dictionnaire / Encyclopédie
Collectif
Article
Revue / Périodique
Thèse
3.1. Vous pouvez la faire tourner dans tous les sens
3.2. Vous pouvez la zoomer et la dézoomer
3.3. Vous pouvez cliquer sur les mots-clés qu'elle présente
La Cybernétique des êtres vivants
K. STANLEY-JONES, Douglas STANLEY-JONESÉditeur : Gauthier-Villars - 1962
L’Individuation à la lumière des notions de forme et d’information
Gilbert SIMONDONÉditeur : J. Millon - 2005
A Geometry of Approximation. Rough Set Theory : Logic, Algebra and Topology of Conceptual Patterns
Piero PAGLIANI, Mihir K. CHAKRABORTYÉditeur : Springer Science+Business Media B.V. - 2008
L'impact des technologies de l'information et de la communication sur les liens entre enseignement supérieur et industrie
Claude TRINKSous la direction de Thierry GAUDIN, Armand HATCHUELDans Les Nouvelles raisons du savoir : vers une prospective de la connaissance. - 2002
Skepticism, Information, and Closure: Dretskes Theory of Knowledge
Christoph JÄGERSous la direction de Hans ROTTDans Erkenntnis - 2004
Après la matière et l’énergie, l’information comme concept unificateur de la physique ?
Simon DINERSous la direction de Michel CAZENAVEDans De la science à la philosophie : y a-t-il une unité de la connaissance ? - 2005
The Impossibility of Coherence
Erik J. OLSSONSous la direction de Hans ROTTDans Erkenntnis - 2005
Ethos technicien et information
Nicolas AURAYSous la direction de Jacques ROUXDans Gilbert Simondon. Une pensée opérative - 2002
L’information à l’école : aliénation technique et illusion pédagogique
Georges CALMETTESSous la direction de Jacques ROUXDans Gilbert Simondon. Une pensée opérative - 2002
Vie, pouvoir, information
Muriel COMBESSous la direction de Jacques ROUXDans Gilbert Simondon. Une pensée opérative - 2002
Communication et cognition
François RÉCANATISous la direction de Jacques BOUVERESSEDans L’Âge de la science. Lectures philosophiques - 1991
Sur quelques pratiques de l’information mathématique
Catherine GOLDSTEINSous la direction de Gerhard HEINZMANNDans Philosophia Scientiae. Travaux d’histoire et de philosophie des sciences - 2001
Phenomenal experience and the measure of information
Craig DELANCEYSous la direction de Hans ROTTDans Erkenntnis - 2007
Quand la futurologie rencontre le grand public : permanence et constance d’une vulgate. Lectures croisées de Jacques Attali et de Joël de Rosnay
David FORESTSous la direction de Jean-Jacques KUPIEC, Franck VARENNE, Marc SILBERSTEIN, Guillaume LECOINTREDans Matière première. Revue d’épistémologie et d’études matérialistes - 2008
Dynamique des réseaux sociaux et apprentissage collectif : le cas du tribunal de commerce de Paris
Emmanuel LAZEGA, Lise MOUNIER, Paola TUBAROSous la direction de Gérard WEISBUCH, Hervé P. ZWIRNDans Qu’appelle-t-on aujourd’hui les sciences de la complexité ? Langages, réseaux, marchés, territoires - 2010
Le Zéro et le Un. Histoire de la notion scientifique d'information au 20e siècle
Jérôme SEGALÉditeur : Syllepse - 2003
Classification et information
Donald H. COLLESSSous la direction de Pascal TASSYDans L'Ordre et la diversité du vivant. Quel statut scientifique pour les classifications biologiques ? - 1986
L'Empire cybernétique. Des machines à penser à la pensée machine : Essai
Céline LAFONTAINEÉditeur : Seuil - 2004
Le Moment cybernétique. La constitution de la notion d'information
Mathieu TRICLOTÉditeur : Champ Vallon - 2008
Les voies de l'information. De la communication à la complexité : Thèse de doctorat : Philosophie : Université de Bourgogne : 1993, sous la direction de Jean Gayon
Philippe GOUJON
Notice: Undefined offset: 0 in /var/www/SipsDeploye/SIPS/abecedaire/fonctions.php on line 407
Notice: Trying to access array offset on value of type null in /var/www/SipsDeploye/SIPS/abecedaire/fonctions.php on line 407
Éditeur : - 1993
Trous noirs : La guerre des savants
Leonard SUSSKINDÉditeur : Gallimard - 2012
Trous noirs : La guerre des savants
Leonard SUSSKINDÉditeur : Robert Laffont - 2010
Le temps des processus élémentaires - I -
Gilles COHEN-TANNOUDJISous la direction de Étienne KLEIN, Michel SPIROSous la direction de Étienne KLEIN, Michel SPIRODans Le Temps et sa flèche - 2013
La réalité physique
Alain SÉGUY-DUCLOTÉditeur : Hermann - 2013
Influence des projets de théories des machines sur l’histoire des techniques chez Pierre Ducassé et François Russo
Ronan LE ROUXDans Méthode et histoire - 2013
Simondon ou l’Encyclopédisme génétique
Jean-Hugues BARTHÉLÉMYÉditeur : Presses Universitaires de France - 2008
Cybernétique : Information et régulation dans le vivant et la machine
Norbert WIENERÉditeur : Seuil - 2014
Rattaché «au nouveau domaine appelé cybernétique», cet ouvrage est une contribution à l’explication de nombreux phénomènes de comportement de l’être vivant, tant psychologiques que somatiques, au moyen d’un modèle unique, le «mécanisme» du feed back. Ce mode de raisonnement est essentiellement cybernétique parce qu’il est un raisonnement analogique : quelques fonctions étant reconnues communes à un mécanisme biologique et au mécanisme de feed back, on postule, comme hypothèse de travail, que le mécanisme biologique possède d’autres fonctions du feed back et l’on cherche s’il existe des organes qui puissent correspondre à ces fonctions. L’apport fondamental de ce travail à la pensée cybernétique est d’avoir su faire ainsi prédominer les analogies fonctionnelles sur les analogies structurales. – I. La cybernétique des systèmes naturels non vivants; – La commande des muscles involontaires; – III. La commande des muscles volontaires; – IV. La cybernétique du contrôle nerveux; – V. La cybernétique des invertébrés; – VI. La cybernétique des vertébrés; – VII. La cybernétique de la société humaine. M.-M. V.
G. S. questionne la genèse de l’individu sous l’angle d’une interrogation historique et philosophique du principe d’individuation en physique, biologie, psychologie et dans l’étude des collectifs sociaux. L’A. met en avant les processus de différenciations issus de systèmes métastables travaillés de tensions préindividuelles, dont la résolution donne naissance à des formes individualisantes. En désignant ce passage, le concept de “transduction” permet de penser la mise en forme de l’individu (l’in-formation), non plus comme l’application d’une forme à une matière, mais comme “théâtre d’individuations” : l’A. affirme ainsi l’importance des relations et minimise celle de la substance. La relation de transduction est ici démarche de la connaissance et structure de l’être lui-même, révélant dans la pensée de l’A. une volonté de penser l’ unité de leurs mouvements. - La présente édition reprend l’ensemble de la thèse de doctorat de G. S.. Elle fut jusque là publiée en deux éditions séparées, L’individu et sa genèse physico-biologique (Paris, Presses universitaires de France, 1964 ; édit. augm. de deux suppléments : Analyse des critères de l’individualité et Allagmatique : Théorie de l’acte analogique, Grenoble, Millon, 1995, coll. “Krisis”; et L‘individuation psychique et collective, Paris, Aubier, 1989). La présente édition comprend les deux suppléments de l’édition de 1995 ainsi que «Forme, Information, Potentiels» (Conférence faite à la Société Française de Philosophie le 27 fév. 1960) et «Histoire de la Notion d’Individu» (Texte inédit rédigé en même temps que la thèse). M.-M. V.
A Geometry of Approximation addresses Rough Set Theory, a field of interdisciplinary research first proposed by Zdzislaw Pawlak in 1982, and focuses mainly on its logic-algebraic interpretation. The theory is embedded in a broader perspective that includes logical and mathematical methodologies pertaining to the theory, as well as related epistemological issues. Any mathematical technique that is introduced in the book is preceded by logical and epistemological explanations. Intuitive justifications are also provided, insofar as possible, so that the general perspective is not lost. – Such an approach endows the present treatise with a unique character. Due to this uniqueness in the treatment of the subject, the book will be useful to researchers, graduate and pre-graduate students from various disciplines, such as computer science, mathematics and philosophy. It features an impressive number of examples supported by about 40 tables and 230 figures. The comprehensive index of concepts turns the book into a sort of encyclopædia for researchers from a number of fields. – A Geometry of Approximation links many areas of academic pursuit without losing track of its focal point, Rough Sets. – Table of contents : Preface. - Glossary of terms. - Introduction. - 1. A Mathematics of Perception. - 2. The Logico-algebraic Theory of Rough Sets. - 3. The Modal Logic of Rough Sets. - 4. A Relational Approach to Rough Sets. - 5. A Dialogical Approach. - Index. - Bibliography. M.-M. V.
According to Fred Dretske’s externalist theory of knowledge a subject knows that p if and only if she believes that p and this belief is caused or causally sustained by the information that p. Another famous feature of Dretske’s epistemology is his denial that knowledge is closed under known logical entailment. The author argues that, given Dretske’s construal of information, he is in fact committed to the view that both information and knowledge are closed under known entailment. This has far-reaching consequences. For if it is true that, as Dretske also believes, accepting closure leads to skepticism, he must either embrace skepticism or abandon his information theory of knowledge. The latter alternative would seem to be preferable. But taking this route would deprive one of the most powerfully developed externalist epistemologies of its foundation.
There is an emerging consensus in the literature on probabilistic coherence that such coherence cannot be truth conducive unless the information sources providing the cohering information are individually credible and collectively independent. Furthermore, coherence can at best be truth conducive in a ceteris paribus sense. Bovens and Hartmann have argued that there cannot be any measure of coherence that is truth conducive even in this very weak sense. In this paper, I give an alternative impossibility proof. I provide a relatively detailed comparison of the two results, which turn out to be logically unrelated, and argue that my result answers a question raised by Bovens and Hartmann’s study. Finally, I discuss the epistemological ramifications of these findings and try to make plausible that a shift to an explanatory framework such as Thagard’s is unlikely to turn the impossibility into a possibility.
[Mise à jour d’un texte paru en 1997 dans un numéro spécial de la revue Solaris coordonné par Sylvie Fayet-Scribe]. – Le rapport des mathématiques aux pratiques de l’information est exploré dans cet article de deux manières. – Plusieurs exemples illustrent d’abord la façon dont les mathématiques ont forgé, pour différents savoirs, des outils particuliers d’accès à l’information; nous indiquons comment l’existence de telles interactions retentit sur tout projet d’examiner, dans la longue durée, le fonctionnement propre de la documentation mathématique. – Une seconde partie esquisse ensuite brièvement l’évolution de quelques modes d’enregistrement, d’échange et de diffusion des résultats mathématiques, pour les périodes moderne et contemporaine en Occident.
This paper defends the hypothesis that phenomenal experiences may be very complex information states. This can explain some of our most perplexing anti-physicalist intuitions about phenomenal experience. The approach is to describe some basic facts about information in such a way as to make clear the essential oversight involved, by way illustrating how various intuitive arguments against physicalism (such as Frank Jackson’s Knowledge Argument, and Thomas Nagel’s Bat Argument) can be interpreted to show that phenomenal information is not different in kind from physical information, but rather is just more information than we typically attribute to our understanding of a physical theory. I clarify how this hypothesis is distinct from Nagel’s claim that the theory of consciousness may be inconceivable, and then in conclusion briefly describe how these results might suggest a positive and conservative physicalist account of phenomenal experience.
Rend compte de la litanie des légèretés des médiatiques futurologues. – 1. Accompagner la société de l’information; – 2. Le pont aux ânes de «l’intelligence collective»; – 3. La foire de l’imagerie technique ou le merveilleux sous perfusion idéologique; – 4. Révolution technique ou involution sociale ?; – 5. Les techniques de contrôle social : nouvel objet de la futurologie ?
Cette contribution situe l’importance des échelles intermédiaires entre les individus, ici les juges de tribunaux de commerce et le tribunal de commerce de Paris. Ces sous-réseaux dynamiques permettent la transmission des informations techniques nécessaires à la prise de décision des juges.
À l’aube du 21e siècle, la notion d’information occupe une place centrale dans nos sociétés occidentales sans qu’une réelle réflexion soit consacrée à cette notion en tant que telle. Il s’agit ici de revenir sur la genèse de celle-ci pour mieux comprendre les enjeux actuels relevant du développement de disciplines très diverses (biologie moléculaire, économie, génétique, linguistique, mathématiques, physique, psychologie, sciences de l’ingénieur, etc..). Pour cela, on remonte d’abord aux années 20 lorsque, dans trois domaines aussi distincts que la physique théorique, les statistiques ou les télécommunications, une définition scientifique de l’information est proposée. Le contexte de la seconde guerre mondiale explique alors comment ces définitions convergent dans le développement de ce qu’on nomme à partir de 1948 la théorie de l’information. Le développement de la cybernétique, définie comme théorie générale de la commande et de la régulation, est lié à celui de la théorie de l’information à partir du moment où l’information est identifiée comme la grandeur physique permettant de décrire les régulations. Aujourd’hui, la survivance du préfixe cyber- (comme dans “ cybercafé ”, “ cybercriminalité ” ou “ cyberespace ”) témoigne de cette époque mais seule une analyse historique des concepts et des contextes permet de distinguer les effets de modes de la constitution de véritables nouveaux champs du savoir. Un examen attentif de l’utilisation des analogies et des métaphores permet d’aborder dans une perspective novatrice la question aujourd’hui essentielle de l’interdisciplinarité, de la transversalité et du dialogue – trop souvent malmené – entre les cultures scientifiques et littéraires. Ce livre peut légitimement revendiquer un statut d’ouvrage de référence en français sur ce sujet et nous ne pouvons qu’inviter à consulter le sommaire détaillé de l’ouvrage qui illustre parfaitement bien la recherche de cohérence, de complétude et de complémentarité des approches descriptives et conceptuelles revendiquées par l’auteur. – Sommaire : Introduction. – Première partie : Naissance d’une «théorie mathématique de la communication» (Chapitre 1: Vers des définitions quantitatives de l’information; Chapitre 2: Claude Shannon et le contexte de l’axiomatisation de la notion d’information; Chapitre 3: Cybernétique et théorie de la communication; Chapitre 4: Autres contextes, autres théories: Allemagne, France et Grande-Bretagne). Conclusion de la première partie: La théorie de l’information dans les années 50: une discipline établie?. – Deuxième partie : Un développement multidisciplinaire (Chapitre 5: Une réinterprétation de la physique: les travaux de Léon Brillouin; Chapitre 6: Les sciences humaines et la notion scientifique d’information scientificité; Chapitre 7: L’information et le vivant: aléas de la métaphore informationnelle ; Chapitre 8: Des progrès techniques résultant de la théorie de l’information; Chapitre 9: La théorie de l’information comme théorie mathématique). Conclusion de la deuxième partie: «Le concept d’information dans la science contemporaine». – Troisième partie : Le rôle de la théorie de l’information dans ce développement (Chapitre 10: L’introduction de la cybernétique en RDA: entre science bourgeoise et panacée; Chapitre 11: La notion d’information dans l’émergence de l’unité du savoir; Chapitre 12: Typologie des applications de la théorie de l’information). Conclusion générale.
La classification taxinomique des êtres vivants est généralement une liste des noms et des appartenances des taxons, mais elle peut être présentée sous forme d'un arbre. Toutefois, un arbre ne constitue pas une classification. Une classification peut être extraite d'un arbre mais toutes les parties de l'arbre ne peuvent pas être des taxons. Les différentes classifications sont considérées comme ayant un «contenu informatif» ou, mieux, une «capacité d'informer» parfaitement mesurables. Sont distingués ici trois types d'informations : information structurale (structure intrinsèque d'une classification); information implicite, qui lie la structure aux données qui servent de base à la classification; information pratique (l'utilité de la classification telle que l'entend l'usager). Le processus de classification permet d'une part de rendre optimales des qualités telle que la prévisibilité, d'autre part, l'effacement progressif des taxons de moindre importance, jusqu'à ce que le résultat soit approuvé par les critères pragmatiques.
The taxonomic classification of living creatures is commonly a list of names and memberships of taxas, but may also be portrayed as a tree. However, a tree is not per se a classification. A classification may be abstracted from a tree, but not all subsets on the tree may be acceptable as taxa. Classifications are commonly regarded as having a measurable «information content» or, better, «informativeness». We can distinguish between structural information, which concerns the intrinsic pattern of a classification; implied information, which relates the pattern to the data on which the classification is based; and practical information, which includes the utility of the classification as perceived by the user. The process of classification consists in, first, the optimising of qualities such as predictivity, then, the progressive deletion of the least «important» taxa, until the result is approved by pragmatic criteria.
[Texte remanié de : Thèse de doctorat, sous la direction de Philippe Breton : Philosophie : 1 vol. : Université Paris 1 Panthéon-Sorbonne : 2001 : 257 p.]. – Définie de façon minimale comme la «science du contrôle et de la communication» par son inventeur Norbert Wiener, la cybernétique est véritablement née en 1949 comme projet technoscientifique, car c’est aux conférences Macy que le terme a officiellement été adopté par les membres de son programme. Parler « d’empire cybernétique », c’est donc d’emblée signifier deux choses : la prégnance historique d’une part, la persistance et la suprématie actuelles d’autre part, de ce que Popper a pu appeler « un programme métaphysique de recherche », c’est-à-dire un programme technoscientifique fondé, comme l’écrit l’auteure de l’ouvrage Céline Lafontaine, sur «une représentation globale du monde, un modèle d’interprétation à partir duquel on pense et on se pense nous-mêmes comme agissant dans le monde.» (p. 16) La cybernétique a-t-elle constitué un tel programme? Peut-on légitimement, et d’après quelle analyse, lui donner le statut de paradigme voire d’épistémè d’une nouvelle époque, celle qui précisément aurait émergée dans l’immédiat après-guerre ? Si oui, faisons-nous encore partie de cette même époque ? Autrement dit : sommes-nous encore dominés par une représentation globale du monde dont les cadres sont ceux qui furent découpés par les concepts cybernétiques eux-mêmes ? Ce livre entend retracer l’histoire du « paradigme cybernétique pour montrer que plusieurs approches théoriques marquantes de la philosophie et des sciences humaines contemporaines sont porteuses d’une représentation de la subjectivité et du lien social fondée sur le modèle informationnel. » (p. 14) Dans un premier moment, l’auteure montre que la cybernétique, matrice de la technoscience, a historiquement une origine militaire liée au contexte politique international qui fut engendré par les conséquences de la Seconde Guerre mondiale (chapitres 1 et 2). Introduit en Europe par Lévi-Strauss grâce à la linguistique de Jakobson, le modèle structural fait figure de premier rejeton de la cybernétique (chapitre 3). Par le biais des notions d’autorégulation, d’entropie et d’information, la cybernétique représente le fil conducteur qui conduit du structuralisme à la théorie des systèmes, dont le but est de dégager leurs lois d’organisation et de développement (chapitre 4). De plus, par le biais des concepts cardinaux de complexité et d’auto-organisation, ce livre nous montre que le systémisme nous mène « à la convergence contemporaine entre le néo-libéralisme et le paradigme informationnel » (p. 141-142), c’est-à-dire à la convergence entre une vision du monde focalisée sur l’adaptabilité et une recherche orientée vers le développement des technologies de l’information : soit l’ère de la postmodernité (chapitre 5). Dès lors seule « l’hypothèse d’une continuité paradigmatique » (p. 172) permet de comprendre l’avènement du cyberespace en contexte d’impérialisme néo-libéral, c’est-à-dire de période post Guerre froide (chapitre 6). Car « Internet et les nouvelles technologies de l’information sont étroitement liés au triomphe de l’économie de marché à l’échelle planétaire. » (p. 172). Abordant la question du « posthumain » dans le dernier chapitre, le livre se termine sur la métaphore de la machine moléculaire, qui semble cacher un nouveau programme métaphysique et politique: celui des NBIC (Nanotechnologies, Biotechnologies, Informatique, Sciences cognitives). Après l’empire cybernétique, une nouvelle ère s’ouvre dont nous commençons seulement à faire l’expérience : l’ère bionique, où le corps fusionne avec la machine, devenant un système hybride entre biologie et électronique.
F. F.
[Texte remanié de : Thèse de doctorat, sous la direction de Daniel Parrochia : Philosophie : 1 vol. : Université Jean Moulin Lyon 3 : 2006 : 520 p.]. – Quelles sont les conditions de possibilité historique, discursives et non discursives, qui ont rendu possible l’émergence du concept d’information ? « La thèse principale de cette étude est que la notion d’information apparaît non pas une, mais clivée au sein du milieu technique. » (p. 11) L’apparition de cette notion s’inscrit dans le contexte américain du début du XXe siècle, où les systèmes télégraphiques et téléphoniques atteignent leurs limites d’extension géographique et d’économie. Ces limites atteintes, parce qu’elles posent des problèmes réellement insurmontables en termes de distance et de coût, nécessitent de repenser totalement une théorie de la transmission des messages, qui implique dès lors un allègement des supports de transmission (problème géographique de la distance), ce problème une fois résolu diminuant les coûts de construction (problème économique des dépenses). C’est d’une part la nécessaire réflexion sur le problème des types de codage, d’autre part celle sur les meilleures formes d’onde servant à véhiculer les messages, qui ont conduit les ingénieurs à s’interroger sur la possibilité d’une nouvelle dimension grâce à laquelle les techniques de télécommunication pourraient s’affranchir des dimensions physiques et énergétiques des lignes de transmission. Or cette dimension nouvelle n’est autre que celle de l’information. L’auteur de cette étude d’épistémologie historique, d’inspiration à la fois bachelardienne et foucaldienne, nous montre qu’à partir des travaux de l’ingénieur Nyquist, le problème de la limite de la vitesse de transmission des messages n’a plus été conçu en termes d’énergie, mais d’information. Nyquist, en ouvrant ainsi la voie à Hartley pour la mesure de la quantité d’information, conduit à la construction d’une théorie mathématique de la communication par Shannon. La thèse de la première partie du livre (Partie I : « L’idée de message ») consiste à montrer qu’à sa naissance, le concept d’information est le lieu d’un clivage entre une représentation digitale qui rend possible la construction d’une théorie du code (Shannon) et une représentation analogique qui rend possible une théorie du signal (Wiener). La seconde partie consiste à montrer qu’un même clivage au sein du concept d’information – semblable à celui détecté dans les théories de la télécommunication et du contrôle –, est à l’œuvre dans l’histoire de l’informatique (Partie II: « Ordinateur, esprit, cerveau »). À une analyse approfondie des théories de Shannon et de Wiener, succède donc une étude détaillée des travaux de Turing, McCulloch, Pitts et Von Neumann. Parce qu’ « elle ajoute aux explications existantes, par la matière ou l’énergie, un nouveau type d’explication » (p. 207), la dimension nouvelle de l’information engage une réflexion sur l’ordre du monde, et donc aussi sur ses rapports à la notion d’entropie (Partie III : « Une cosmologie de l’information »). Après avoir dégagé les conditions historiques et techniques d’émergence de la notion d’information (Parties I et II) ainsi que la philosophie immanente à l’activité technique qui l’anime (Partie III), l’auteur propose dans un dernier temps une analyse et une mise en perspective historique des positions politiques du père de la cybernétique : Norbert Wiener (Partie IV : « Politique de l’information »).
F. F.
L'information sous ses diverses formes, la communication et les notions qui leur sont associées, sont devenues les concepts clefs de notre représentation du monde et de nous-mêmes. Notion moderne née au sein de ce que l'on appelait la cybernétique, la communication a été associée à un projet de société où la transparence et la libre circulation de l'information sont essentielles. Le propos de cette thèse est d'analyser de quelle manière l'information et la communication ont pu devenir les pivots d'une nouvelle représentation du monde et les valeurs d'une société en crise, d'en aborder les conséquence, les limites, et le dépassement, en étudiant le problème de la complexité.
Information under its various shapes, communication and their related notions have now become the key-concepts of our representation of the world and of ourselves. However, more than a mere scientific concept, the notion of communication, born in the bosom of what we called cybernetics, has gradually been associated with a social project including transparancy and the free movement of information. This thesis makes an analysis of the ways in which information and communication have become the keystones of a new representation of the world and the values of a society in a state of crisis. It determines the consequences and the limits of such a representation and its overcoming by studying complexity.
En ayant émis en 1976 l'hypothèse selon laquelle les trous noirs seraient identifiables à des puits de capture d'information impliquant leur perte irréversible, Stephen Hawking a menacé de renverser depuis sa base l'édifice de la physique moderne, dans la mesure où il remettait en cause un des principes fondamentaux de la physique : celui de la conservation de l'information dans l'univers. La « guerre du trou noir », telle est la controverse scientifique dont il est question dans cet ouvrage. Son auteur, professeur de physique théorique à l'université de Stanford, en explique les fondements théoriques, en relate l'histoire et en détermine les enjeux. Cette guerre a opposé des physiciens relativistes (Stephen Hawking, Jacob Bekenstein et d'autres) et deux physiciens de la mécanique quantique (Leonard Susskind et Gerard t'Hooft). Or il s'avère que le formalisme mathématique de la théorie des cordes réfute l'hypothèse de Hawking. Mais cette théorie, dont l'ambition est de proposer une unification de la relativité générale et de la mécanique quantique dans le cadre de la gravité quantique, reste à ce jour « un chantier inachevé », puisque nous ne connaissons pas les principes qui la fondent : « La guerre du trou noir nous a donné des leçons très importantes et inattendues mais qui ne sont qu'un indice de la distance qui sépare la réalité de notre modèle mental, même reprogrammé pour la relativité et la mécanique quantique ». – Glossaire, pp. 570-575 ; Notes, pp. 576-600 ; Index des noms, pp. 601-607 ; Index des notions, pp. 608-619 ; Table des matières, pp. 621-622.
F. F.
En ayant émis en 1976 l'hypothèse selon laquelle les trous noirs seraient identifiables à des puits de capture d'information impliquant leur perte irréversible, Stephen Hawking a menacé de renverser depuis sa base l'édifice de la physique moderne, dans la mesure où il remettait en cause un des principes fondamentaux de la physique : celui de la conservation de l'information dans l'univers. La « guerre du trou noir », telle est la controverse scientifique dont il est question dans cet ouvrage. Son auteur, professeur de physique théorique à l'université de Stanford, en explique les fondements théoriques, en relate l'histoire et en détermine les enjeux. Cette guerre a opposé des physiciens relativistes (Stephen Hawking, Jacob Bekenstein et d'autres) à deux physiciens de la mécanique quantique (Leonard Susskind et Gerard t'Hooft). Or il s'avère que le formalisme mathématique de la théorie des cordes réfute l'hypothèse de Hawking. Mais cette théorie, dont l'ambition est de proposer une unification de la relativité générale et de la mécanique quantique dans le cadre de la gravité quantique, reste à ce jour « un chantier inachevé », puisque nous ne connaissons pas les principes qui la fondent : « La guerre du trou noir nous a donné des leçons très importantes et inattendues mais qui ne sont qu'un indice de la distance qui sépare la réalité de notre modèle mental, même reprogrammé pour la relativité et la mécanique quantique ».
Cet article montre comment à partir de la théorie des interactions fondamentales (qui étudie les structures d'emboîtements des particules élémentaires) se posent les problèmes du temps à l'échelle de l'infiniment petit. La théorie quantique des champs (qui allie relativité restreinte et théorie des quanta) permet, grâce à la méthode de renormalisation, de conférer à la physique des processus élémentaires une véritable dimension temporelle. – Introduction : relativité et quanta, matière, espace et temps ; 2. Théorie quantique des champs : relativité, localité et causalité quantiques ; 3. L'intégrale des chemins et la renormalisation ; 4. Conclusion : matière et flèche du temps. F. F.
L’objectif de cet ouvrage est double : d’une part, proposer une critique rationnelle de l’ontologie qui ne soit pas rationaliste à partir d’une épistémologie fondée sur les données de la physique contemporaine ; d’autre part, saisir le sens du réalisme probabiliste en physique quantique. Ainsi, après une longue introduction historique aux rapports de l’ontologie à la physique, l’auteur propose dans une première partie (Partie I : « Aléatoire, probabilités et hasard ») une analyse détaillée du concept de probabilité, en distinguant probabilité subjective et probabilité objective, puis probabilité possibiliste et probabilité statistique, enfin probabilité hypothétique et probabilité conditionnelle, ainsi que les différents enchâssements ou oppositions entre ces différents sens de la probabilité. L’importance de cette partie réside, au-delà de la richesse de son contenu, dans la clarté définitionnelle et les distinctions que l’auteur opère entre des notions trop souvent mal définies ou confondues (déterminisme, aléatoire, déterminisme aléatoire, aléatoire déterministe, hasard, probable, possible, stochastique, etc.). Une seconde partie (Partie II : « Désordre et émergence ») est consacrée à la question de l’ordre et du désordre en physique, à partir d’une analyse du concept d’incertitude statistique, qui conduit l’auteur à distinguer deux concepts de désordre – dans l’homogène d’une part et dans l’hétérogène d’autre part (i.e. à un niveau physique émergent) – afin de montrer comment s’articulent entre elles la thermodynamique et la théorie de l’information. L’analyse du concept d’incertitude algorithmique (i.e. la complexité au sens de Kolmogorov) conduit dans un premier temps l’auteur à opérer la distinction entre quatre concepts de complexité – deux concepts de complexité algorithmique compressible (complication dans l’homogène et complication dans l’hétérogène) et deux concepts de complexité algorithmique incompressible (aléatoire algorithmique dans l’homogène et aléatoire algorithmique dans l’hétérogène). Dans un second temps, cela le conduit : 1° à poser le problème de la constitution d’une science de la complexité et 2° à penser l’émergence, c’est-à-dire la pluralité relative de la notion de réalité (réalité mathématique, réalité physique, réalité biologique, réalité ordinaire, etc.) et la pluralité interne de chaque sorte de réalité. Dès lors ce sont les notions de totalité non additive, de non-linéarité et d’émergence qui sont soigneusement distinguées. Afin de ne pas réintroduire une perspective ontologique pour penser la réalité fondamentale sous-jacente à la réalité émergente, l’auteur examine dans une troisième partie (Partie III : «Émergence et réalité») la base théorique de la physique contemporaine, offrant ainsi un admirable compendium de philosophie de la physique quantique. L’information pouvant être pensée comme une réduction de l’incertitude, l’unification de la théorie de l’incertitude conduit l’auteur à proposer une unification de la théorie de l’information au chapitre XXX. Ce livre se présente ainsi comme le déploiement d’une critique du rationalisme classique à partir d’une position relativiste non sceptique fondée sur la primauté du concept d’information. D’où le nouveau programme de recherche esquissé dans la longue conclusion de l’ouvrage, à savoir : compléter la théorie de l’information de Shannon par une théorie algorithmique de l’information, une théorie de l’émergence et une théorie sémantique. – Épilogue, pp. 441-442; Remerciements, p. 443 ; Index des noms, pp. 445-450 ; Index des notions, pp. 451-457 ; Table des matières, pp. 459-465.
F. F.
Cet article expose les deux grands types de modèle d’une théorie générale des machines : 1° le modèle biologique et naturaliste qu’est la « mécanologie » de Jacques Lafitte (1884-1966) ; 2° les modèles formalistes inspirés de l’algèbre symbolique de Louis Couffignal (1902-1966) et Jacques Riguet (1921-2013). Il montre comment leur convergence donne naissance à un troisième modèle visant à constituer une théorie générale des organisations et de la complexité centrée sur les concepts d’information et rétroaction (feedback) : à savoir la cybernétique. L’auteur étudie alors l’impact du modèle cybernétique sur les projets d’histoire des techniques de Pierre Ducassé (1905-1983) et François Russo (1909-1998).
F. F.
[Compte-rendu publié simultanément sur le site du Centre international des études simondoniennes]. – Cet ouvrage concis, précis et pédagogique dévoile les sources philosophiques, les fondements épistémologiques, les paradigmes scientifiques et les schèmes méthodologiques constitutifs du nouvel encyclopédisme dont Gilbert Simondon a été l’initiateur dans sa thèse principale L’individuation à la lumière des notions de forme et d’information, et qu’il ne nommait comme tel que dans sa thèse complémentaire : Du mode d’existence des objets techniques. Jean-Hugues Barthélémy revisite ainsi la thèse complémentaire de Simondon à la lumière de sa thèse principale. Dans le premier chapitre, il met au jour les grandes sources philosophiques (Bergson, Bachelard, Canguilhem) et les paradigmes physiques – issus de la thermodynamique, de la physique relativiste et de la physique quantique – de l’ontologie simondonienne. Il en explicite aussi les deux enjeux capitaux : 1° penser l’opération universelle d’individuation, ce que fait Simondon en élaborant une ontogenèse ; 2° « désubstantialiser l’individu sans le déréaliser » (Barthélémy), ce que fait Simondon en construisant un « réalisme des relations » (Simondon) multiscalaire, initiant ainsi une véritable pensée des « ordres de grandeur » de la réalité, donc une véritable pensée de la complexité. Une telle ontologie permet en effet de penser les différents « régimes d’individuation » (physique, vital et psycho-social), leur coexistence et leur articulation (donc leur complexité en tant que telle) sans tomber dans les travers d’un quelconque réductionnisme (physicaliste ou autre). On comprend ainsi pourquoi les trois grands schèmes du réalisme épistémologique des relations, qui sont fondés sur la valeur positive des avancées de la thermodynamique, de la physique relativiste et de la physique quantique, autorisent Simondon à une régénération de l’ontologie comme ontologie génétique de l’individuation. Quels sont dès lors le moteur et le vecteur de cette régénération dont l’enjeu est l’unification des connaissances scientifiques, c’est-à-dire la possibilité de la constitution d’un nouvel encyclopédisme ? Il s’agit de l’analogie opératoire (à ne pas confondre avec l’analogie structurale, source de métaphores) comme mode de pensée proprement philosophique (chapitre 2). L’acte analogique, pensée effective des opérations génétiques dans le sujet pensant comme dans les êtres individués qui sont ses objets, forme en un sens le cœur d’une science des opérations (espérée par Simondon sous le nom d’« Allagmatique », ou «Cybernétique universelle»). Mais dans la mesure où l’usage philosophique et réflexif de l’analogie n’est pas simplement heuristique (comme il peut l’être en science) mais constitutif de la « connaissance » philosophique elle-même, l’ontologie génétique qui en découle se veut non-objectivante. Enfin, l’unification analogique des régimes d’êtres dans une démarche encyclopédique se veut aussi une unification de l’Être et du Devenir au sein d’une « théorie des phases de l’être » (Simondon), laquelle est selon Barthélémy la « pointe métaphysique » de l’ontologie génétique simondonienne. L’exposition de l’ontologie génétique comme pensée des différents régimes d’individuation (physique, vital et psycho-social), ainsi que du schème méthodologique permettant de penser l’unité de ces régimes sans effacer leurs différences (schème de la transduction opérant « transposition » et « composition » des schématismes opératoires au cours des genèses physiques, vitales et psycho-sociales), fait l’objet des chapitres 3 et 4. Le chapitre 5 en vient quant à lui à Du mode d’existence des objets techniques et donc au thème de l’ « individu technique » : ce dernier ne procède pas d’une individuation, mais d’une « individualisation » (Simondon). Ce chapitre final pose en fait le problème général du rapport de l’homme à la technique, et plus particulièrement le problème des conditions d’une possible (et souvent réelle) aliénation de l’homme. Cette aliénation est liée d’une part au mauvais couplage de l’ouvrier et de la machine dans le machinisme industriel (aliénation « psycho-physiologique », dit Simondon), d’autre part à l’absence de culture technique chez les ouvriers comme chez les patrons, donc à une méconnaissance générale du mode d’existence des objets techniques (aliénation « culturelle »). Le nouvel encyclopédisme, que Simondon pose ici comme fondement d’un « nouvel humanisme », vise ainsi à rendre à l’homme ce qui de lui a été aliéné, mais en libérant pour cela la machine elle-même en tant qu’ « individu technique » ayant, à l’âge des « ensembles informationnels », à travailler seule – l’homme étant enfin disponible pour des tâches plus nobles. En fait, et pour en revenir au véritable fil directeur de Simondon dans ses deux thèses, c’est l’universalisation de la notion même d’information – telle qu’elle est redéfinie comme genèse ou prise de forme non-hylémorphique par Simondon 1° grâce à une critique de la Théorie de la forme et de la théorie technologique de l’information et 2° grâce à une fusion de la cybernétique de Wiener et de la théorie des systèmes ouverts de Bertalanffy – qui forme le cœur de l’ « encyclopédisme génétique » (Barthélémy) dans son ontologie comme dans sa technologie. – Sommaire, pp. v-vi ; Introduction : « L'Encyclopédisme génétique, une philosophie de l'individuation », pp. 1-7 ; Conclusion : « Portée de l'Encyclopédisme génétique », pp. 151-157 ; Bibliographie, pp. 159-162 ; Index des notions, pp. 163-165.
F. F.
Alors même qu’il avait paru pour la première fois en 1948 chez un éditeur français, ce livre mythique ne disposait toujours pas d’une traduction française jusqu’en 2014. C’est maintenant la cas, grâce au travail accompli par Ronan Le Roux, Robert Vallée et Nicole Vallée-Lévi, traducteurs qui ne se sont pas simplement contentés de produire une traduction, mais ont réalisé un travail de réédition incluant un véritable appareil critique (voir en particulier la longue présentation française rédigée par Ronan Le Roux et l’ensemble des notes en bas de pages de ce travail de réédition). De facture encyclopédique, non par sa longueur, mais dans l’articulation de ses matières et par la variété des connaissances de première main qu’il mobilise (en mathématiques, physique, physiologie, ingénierie, philosophie, biologie, psychologie), l’ouvrage est à la fois un bilan des recherches commencées par l’auteur à la fin des années 1930 avec le physiologiste mexicain Arturo Rosenblueth (en collaboration avec les plus grands savants de la première moitié du XXe siècle), une histoire à chaud des origines de la cybernétique (l’ouvrage est rédigé en seulement trois mois durant l’année 1947) et un plaidoyer pour la recherche interdisciplinaire, solidement soutenu par une profonde réflexion collective sur la méthodologie scientifique de cette interdisciplinarité, alors activement expérimentée, pratiquée et théorisée par l’auteur (ses recherches ayant produit des résultats positifs et des résolutions de problèmes à la fois théoriques, techniques et pratiques). Une analyse comparative de l’astronomie et de la météorologie visant à mettre en évidence les différences entre la physique moderne et la physique contemporaine (celle du XXe siècle), entre la mécanique newtonienne et la mécanique statistique, entre la réversibilité du temps astronomique et l’irréversibilité du temps météorologique, fait l’objet de la première étude de l’ouvrage. Wiener y esquisse un schéma de corrélation historique entre science et technique, la technique étant le miroir réfléchissant de la pensée d’une époque, et la pensée technicienne, toujours productrice d’un analogon fonctionnel de l’organisme vivant (Golem, automate de Vaucanson, machine à vapeur, automate mécanique, automate électronique, servomécanisme, etc.). Or l’étude des automates sensibles indique selon Wiener que leurs mécanismes sont étroitement liés à un temps qui relève plus de la mécanique statistique que de la mécanique classique, amenuisant ainsi la différence entre mécanisme et vitalisme : autrement dit, entre temps des organismes vivants et temps des automates sensibles (chapitre 1 : « Temps newtonien et temps bergsonien »). Dès lors, Wiener enchaîne son propos sur la complémentarité entre la théorie de la mesure de Lebesgue et la mécanique statistique de Gibbs : on comprend ainsi comment le développement de la théorie ergodique a permis d’établir le fondement mathématique exact de la mécanique statistique (chapitre 2 : « Groupes et mécanique statistique »). Or il s’avère que le problème de la prédiction, que Wiener avait étudié durant la seconde guerre mondiale (pour élaborer un dispositif de tir anti-aérien) est lié à la statistique des séries temporelles (théorie des messages). C’est pourquoi le troisième chapitre («Séries temporelles, information et communication») est consacré à la mécanique statistique des séries temporelles : Wiener y présente d’une part la définition mathématique de la notion d’information, son explicitation ainsi que la technique de sa mesure ; d’autre part sa forme homogène dans le temps. Terminant ce troisième chapitre sur la mécanique quantique, Wiener montre ainsi comment la pénétration de l’étude des séries temporelles dans la physique du XXe siècle a induit son basculement progressif vers un paradigme probabiliste. Les problèmes d’ingénierie de la commande et de la communication s’étant révélés inséparables, les travaux menés avec Julian Bigelow conduisirent Wiener à puiser le schème de son dispositif de prédiction dans le paradigme des comportements téléologiques et des processus neurophysiologiques contrôlés par rétroaction. La théorie du fonctionnement d’un dispositif de rétroaction fait donc l’objet du chapitre 4 (« Rétroaction et oscillation ») ; celle du fonctionnement d’une machine à calculer, l’objet du chapitre 5 (« Machines à calculer et système nerveux ») dans la mesure où une telle machine présente une analogie opératoire avec le système nerveux (cas particulier de réalisation concrète d’une machine logique). La comparaison du fonctionnement d’un calculateur électronique avec celui d’un système nerveux devant selon Wiener – et tel est l’enjeu de ce cinquième chapitre – éclaircir la nature de la logique. Comme le rappelle l’auteur dans son introduction, c’est le contexte de la guerre qui le conduisit à usurper deux fonctions réalisées par un cerveau humain (opérer des calculs et rétroagir sur une conduite pour la diriger vers l’accomplissement d’un objectif) pour réaliser deux dispositifs électromécaniques (calculateur électronique et dispositif de tir anti-aérien). Dès lors c’est aux mécanismes de l’association des idées que Wiener s’attaque dans le chapitre 6 (« Gestalt et universaux ») en montrant qu’il est possible d’assigner des mécanismes neuronaux aux deux principes cardinaux s’association : la contiguïté et la ressemblance. L’enjeu de ce chapitre est le transcodage de l’information transmise par un sens (par exemple l’ouïe) à un sens déficient voire quasi détruit (par exemple la vue). Il ouvre ainsi à un problème de génie biomédical : celui de la fabrication de prothèses sensorielles. Les deux derniers chapitres traitent quant à eux respectivement du problème de l’apprentissage et de la reproduction chez les machines et les systèmes vivants (chapitre 9 : « Apprentissage et autoreproduction des machines ») et d’un système d’auto-organisation particulier : l’auto-organisation des ondes cérébrales (chapitre 10 : « Ondes cérébrales et auto-organisation »). La lecture de ce livre foisonnant d’idées novatrices nous fait constater que Wiener a exploré en pionnier nombre des grands pans de la recherche scientifique du XXIe siècle. – Présentation de l’édition française par Ronan Le Roux, pp. 11-54 ; Introduction de Norbert Wiener, pp. 55-96 ; Préface à la seconde édition de 1961 par Norbert Wiener, pp. 345-358 ; Index, pp. 359-370 ; Table des matières, p. 371.
F. F.