De la physique quantique aux fake news : le siècle qui a tout remis en question
👉 Sismique vit grâce à vos dons : https://linktr.ee/sismique. MERCI !!!
👉 Visitez le site de Cyberghost (ça m'aide) : https://www.cyberghostvpn.com/Sismique
👉 Pour aller plus loin, abonnez-vos à la newsletter
L'épisode 6 explore les développements majeurs de l'épistémologie au 20ème siècle, une période qui a profondément bouleversé notre compréhension de la connaissance et de la science. Cet épisode examine comment les révolutions scientifiques, les nouvelles approches philosophiques et les changements sociaux ont transformé notre façon de concevoir et de produire le savoir.
Structure
Introduction et contexte historique (guerres mondiales, révolutions technologiques)
Révolutions scientifiques (relativité, mécanique quantique)
Nouvelles approches en philosophie des sciences (Popper, Kuhn, Lakatos, Feyerabend)
Épistémologie naturalisée et cognitive
Dimensions sociales et politiques de la connaissance
Épistémologie féministe et postcoloniale
Information, pouvoir et réalité
Défis contemporains (crise de reproductibilité, science ouverte)
Conclusion et transition vers le 21ème siècle
Concepts clés introduits ou développés :
Relativité, mécanique quantique, falsificationnisme, paradigmes scientifiques, anarchisme épistémologique, biais cognitifs, standpoint theory, savoirs situés, société de l'information
Penseurs clés abordés
Einstein, Bohr, Heisenberg, Popper, Kuhn, Lakatos, Feyerabend, Quine, Bloor, Latour, Harding, Haraway, Chomsky, Arendt, Orwell, Castells, Longino
Citations importantes :
Einstein : "Dieu ne joue pas aux dés"
Kuhn : "Les paradigmes scientifiques sont incommensurables"
Feyerabend : "Tout est bon"
Haraway : "Les savoirs sont toujours situés"
Orwell : "La guerre, c'est la paix. La liberté, c'est l'esclavage. L'ignorance, c'est la force."
Tableau de progression des idées :
Période | Courant de pensée | Penseurs clés | Concepts principaux |
Début 20e | Révolutions scientifiques | Einstein, Bohr | Relativité, mécanique quantique |
Mi 20e | Philosophie des sciences | Popper, Kuhn, Lakatos | Falsificationnisme, paradigmes, programmes de recherche |
Fin 20e | Épistémologie sociale | Bloor, Latour | Construction sociale des faits scientifiques |
Fin 20e | Épistémologie féministe | Harding, Haraway | Standpoint theory, savoirs situés |
Fin 20e | Théorie critique de l'information | Chomsky, Arendt, Castells | Fabrication du consentement, société de l'information |
Transcript de l'épisode
Bienvenue dans ce sixième épisode de notre odyssée à travers l'histoire de l’épistémologie qui a pour ambition de nous fournir des clés de lecture et des références essentielles pour réfléchir à notre propre connaissance et à ses limites dans une période un peu confuse, c’est le moins qu’on puisse dire.
Après avoir exploré l'Antiquité et le moyen-age, navigué dans la Renaissance, et décortiqué la révolution scientifique, nous voici de plein pied dans le tumultueux 20ème siècle. On en a déjà dit quelques mots dans l’épisode précédent, mais on va développer et surtout prolonger.
Le 19ème siècle nous a légué un héritage riche en développements philosophiques et scientifiques. Kant a ébranlé notre compréhension de la connaissance, Hegel a introduit la dialectique, et le positivisme de Comte a promu une vision scientifique du monde. Pendant ce temps, Darwin bouleversait notre compréhension des règles du jeu de la vie, Freud nous disait que nous n’étions pas vraiment les maitres conscients de nous-mêmes et Marx remettait en question nos conceptions sociales et économiques. Evidemment, c'est là un résumé extrêmement succinct pour dire en gros que 2 ou 3 petites choses ont été chamboulées.
Mais le 20ème siècle s'apprête à ébranler encore davantage nos certitudes et les fondements mêmes de notre compréhension du monde.
C’est parti.
Deux guerres mondiales, des bouleversements technologiques sans précédent, l'émergence de nouvelles puissances, la menace nucléaire, la conquête spatiale... Autant d'événements qui ont profondément secoué nos certitudes et redéfini notre rapport au savoir. Le 20è, un siècle complètement fou, une accélération monstrueuse de l’histoire dont nous sommes les héritiers.
Dans ce contexte pour le moins tumultueux, de nouvelles questions ont émergé. Par exemple : Comment pouvons-nous être sûrs de quoi que ce soit dans un monde en perpétuel changement ? Quel rôle la science doit-elle jouer dans notre société où les récits sur vérité s’affrontent ? Comment naviguer dans un océan d'informations toujours plus vaste et complexe ?
Commençons notre exploration par l'impact des révolutions scientifiques sur notre conception de la connaissance. Et quelle meilleure façon de débuter qu'avec la théorie qui a redéfini notre compréhension de l'espace, du temps, et de l'univers lui-même : la théorie de la relativité d'Einstein. On en a dit quelques mots dans l’épisode précédent, mais ça vaut le coup d’y revenir un peu.
En 1905, à Bernes en Suisse, un jeune employé de bureau d’origine allemande du nom d'Albert Einstein publie quatre articles qui vont changer le cours de la physique. Parmi eux, un papier intitulé "Sur l'électrodynamique des corps en mouvement", qui pose les bases de la théorie de la relativité restreinte. Einstein y propose une idée troublante : le temps et l'espace ne sont pas des entités absolues et séparées, mais sont intimement liés dans un continuum espace-temps.
Imaginez que vous êtes dans un train en mouvement, et que vous lancez une balle en l'air. Pour vous, la balle monte et descend en ligne droite. Mais pour quelqu'un qui observe depuis le quai, la balle décrit une parabole. Qui a raison ? La réponse d'Einstein : les deux ! La trajectoire de la balle dépend du cadre de référence de l'observateur. Cette idée simple en apparence a des implications profondes. Elle signifie qu'il n'existe pas de point de vue privilégié, pas de "vérité" absolue sur le mouvement.
En 1915, Einstein pousse plus loin sa réflexion avec la théorie de la relativité générale, qui étend ces idées à la gravitation. Selon cette théorie, la gravité n'est pas une force comme les autres, mais une courbure de l'espace-temps causée par la présence de masse ou d'énergie. C'est comme si l'univers était une grande toile élastique, et que les objets massifs y créaient des creux, influençant le mouvement de tout ce qui passe à proximité. Ce qui nous intéresse ici, ce ne sont pas ces théories en elles-mêmes bien que ça vaudrait de le coup de s’y attarder, mais c’est l’impact profond qu’elles ont eu sur notre compréhension de l'univers, et sur notre conception de la connaissance elle-même. Elles nous montrent que des notions aussi fondamentales que l'espace et le temps, que nous pensions comprendre parfaitement, peuvent être remises en question. Elles nous rappellent l'importance de considérer différents points de vue, différents cadres de référence, pour appréhender la réalité. Et par ailleurs ce sont des théories contre-intuitives, étranges à priori et qui nous invitent une fois de plus à nous méfier de certaines apparences.
Très peu de temps après une autre découverte encore plus étrange allait bouleverser notre vision de l’univers et de ses règles : la mécanique quantique.
Dans les années 1920 des physiciens comme Max Planck, Niels Bohr, et Werner Heisenberg découvrent que le monde subatomique ne se comporte pas du tout comme notre monde macroscopique. Les particules peuvent être à plusieurs endroits à la fois, elles peuvent "s'enchevêtrer" instantanément sur de grandes distances, et leur comportement semble intrinsèquement probabiliste, c’est à dire non prévisible avec certitude, ce qui va complètement à l’encontre de tout ce que la science avait crue jusque là.
Le principe d'incertitude d'Heisenberg, par exemple, nous dit qu'il est impossible de connaître simultanément et avec précision la position et la vitesse d'une particule. Plus on connaît l'une, moins on connaît l'autre. Ce n'est pas une limitation de nos instruments de mesure, mais une propriété fondamentale de la réalité quantique.
Pour illustrer les étrangetés du monde quantique, prenons l'expérience de la double fente. Dans cette expérience, des particules (comme des électrons) sont envoyées une par une vers un écran avec deux fentes. Étonnamment, lorsqu'on ne les observe pas, ces particules semblent passer par les deux fentes à la fois, créant un motif d'interférence sur l'écran derrière. Mais dès qu'on tente de les observer pour déterminer par quelle fente elles passent, le motif d'interférence disparaît. C'est comme si l'acte même d'observation modifiait le comportement des particules.
Cette expérience soulève des questions profondes sur la nature de la réalité au niveau quantique et le rôle de la mesure dans la détermination des propriétés des systèmes quantiques.
Pour illustrer l'étrangeté de ce monde quantique , prenons l'exemple du fameux "chat de Schrödinger". Erwin Schrödinger, a imaginé une expérience de pensée où un chat est enfermé dans une boîte avec un dispositif qui pourrait le tuer en fonction d'un événement quantique aléatoire. Selon la mécanique quantique, tant qu'on n'observe pas l'intérieur de la boîte, le chat est dans un état de superposition : à la fois vivant et mort (comme les particules qui passent par les deux fentes à la fois). C'est seulement l'acte d'observation qui "effondre" cette superposition dans un état défini. C’est quand on ouvre la boite qu’on le chat devient mort ou vivant, et non plus les deux à la fois.
Cette expérience de pensée illustre de manière frappante comment la mécanique quantique remet en question nos notions de réalité et d'observation. Elle suggère que l'acte d'observation peut influencer ce qui est observé, remettant en question l'idée d'une réalité objective indépendante de l'observateur.
Mais attention, pour tous les adeptes du new-age qui nous écoutent, il est important de noter que ce n'est pas la conscience humaine ou l'observation par un être conscient qui cause le 'collapse' de la fonction d'onde comme on l'entend trop souvent dire, c'est simplement l'interaction entre le système quantique et l'appareil de mesure macroscopique.
En réalité, c'est l'interaction inévitable entre le monde quantique microscopique et le monde macroscopique de nos instruments de mesure qui provoque ce qu'on appelle la 'décohérence quantique'. Cette interaction fait passer le système d'un état de superposition quantique à un état classique défini. Désolé, ce n’est donc pas un regard humain, une conscience qui influe sur le monde quantique. La quantique est fascinante, et il y a tout plein de bizarerie contre-intuitives. Pour creuser je vous invite d’ailleurs à écouter l’épisde avec Julien Bobroff, spécialiste du sujet.
Ces découvertes ont conduit à des débats philosophiques intenses. Le plus célèbre est sans doute celui qui a opposé Einstein à Bohr. Einstein, mal à l'aise avec l'idée d'un univers fondamentalement aléatoire, affirmait que "Dieu ne joue pas aux dés". Bohr lui répondait : "Einstein, arrêtez de dire à Dieu ce qu'il doit faire !"
Ce débat illustre une tension fondamentale dans notre quête de connaissance. D'un côté, le désir d'un univers ordonné, prévisible, régi par des lois déterministes. De l'autre, l'acceptation d'un certain degré d'incertitude, de probabilité, voire de mystère dans la nature.
La physique quitte donc le déterminisme laplacien, cette idée qu'avec une connaissance parfaite des conditions initiales, on pourrait prédire avec certitude l'état futur de l'univers.
Mais les ruptures du 20ème siècle ne se limitent pas à la physique évidemment. Dans le domaine de l'information et de la communication par exemple, les travaux de Claude Shannon ont eu un impact tout aussi profond.
En 1948, Claude Shannon publie "Une théorie mathématique de la communication", un ouvrage important qui jette les bases de la théorie de l'information. L'approche de Shannon est novatrice car elle propose une définition mathématique de l'information, totalement indépendante de son contenu sémantique. Pour lui, l'information n'est pas une question de signification, mais de probabilité et d'incertitude. Imaginons une situation où vous devez deviner une lettre de l'alphabet. Si vous n'avez aucun indice, il y a 26 possibilités équiprobables. Mais si on vous dit que c'est une voyelle, l'incertitude est considérablement réduite. Cette réduction de l'incertitude, c'est ce que Shannon définit comme l'information. Pour comprendre concrètement l'impact de cette théorie, prenons l'exemple de la compression de données, quelque chose que nous utilisons tous les jours sans même y penser. Quand vous envoyez une photo par messagerie, votre téléphone utilise des algorithmes basés sur la théorie de l'information pour réduire la taille du fichier sans trop perdre en qualité. Comment ça marche ? Ces algorithmes identifient les redondances dans l'image. Par exemple, dans une photo de ciel bleu, au lieu de coder "pixel bleu, pixel bleu, pixel bleu" encore et encore, l'algorithme peut simplement dire "1000 pixels bleus". C'est une façon plus efficace d'encoder l'information, réduisant ainsi la quantité de données à transmettre. Cette approche a permis des avancées majeures dans le traitement et la transmission de l'information, pavant la voie à l’explosion du numérique. Sans elle, pas d'internet haut débit, pas de streaming vidéo, pas de téléchargement rapide d'applications sur nos smartphones. Mais au-delà de ces applications pratiques, la théorie de l'information a des implications philosophiques profondes. Elle nous invite à repenser ce qu'est l'information, et par extension, ce qu'est la connaissance. Est-ce simplement une question de bits et d'octets, comme le suggère la théorie de Shannon ? Ou y a-t-il quelque chose de plus dans la compréhension humaine, quelque chose qui échappe à cette définition purement mathématique ?
Tout ça amène pas mal de questions pour nos amis philosophes qui commencent déjà à nous manquer. Notamment sur la nature de la connaissance et ses limites. Et oui, puisque ce que ces découvertes nous ont montré c’est que nos théories les plus solides peuvent être remises en question, et que la réalité est parfois plus étrange et plus complexe que nous ne l'imaginons.
Karl Popper, né à Vienne en 1902, est l'un des premiers à proposer une nouvelle vision de la science en réponse à ces défis. Popper s'attaque à un problème fondamental : comment distinguer la science de la non-science ? Sa réponse, c'est le falsificationnisme.
Popper critique l'inductivisme, l'idée que la science procède en accumulant des observations pour en tirer des lois générales. Il argue que peu importe le nombre d'observations concordantes, on ne peut jamais être certain qu'une théorie est vraie. En revanche, une seule observation contradictoire suffit à prouver qu'une théorie est fausse.
C'est pourquoi Popper propose le critère de falsifiabilité : une théorie n'est scientifique que si elle peut être réfutée par l'expérience. Si vous ne pouvez pas imaginer une expérience qui pourrait prouver que votre théorie est fausse, alors ce n'est pas de la science.
Prenons l'exemple de la théorie de l'évolution de Darwin. Est-elle falsifiable ? Oui ! Si on trouvait des fossiles de lapins dans des couches géologiques datant du précambrien, cela remettrait sérieusement en question la théorie. Le fait qu'on n'en ait jamais trouvé renforce la théorie, mais ne la prouve pas définitivement.
Comme Popper l'a dit lui-même : "Le critère de la scientificité d'une théorie réside dans la possibilité de l'invalider, de la réfuter ou encore de la tester."
Pour Popper, la science avance par réfutations successives, pas par preuves définitives. Les théories scientifiques ne sont jamais prouvées, elles sont simplement "corroborées" jusqu'à ce qu'elles soient réfutées.
Cette approche a des implications pratiques importantes. Elle nous invite à être critiques envers nos théories, à chercher activement des preuves qui pourraient les réfuter plutôt que de nous contenter de preuves qui les confirment. Elle nous rappelle aussi que même nos théories scientifiques les plus solides sont toujours provisoires et sujettes à révision.
Mais le falsificationnisme de Popper a aussi ses limites. Il ne rend pas vraiment compte de la façon dont la science fonctionne en pratique. Les scientifiques ne rejettent pas une théorie à la première anomalie. Ils cherchent d'abord à l'ajuster, à l'améliorer.
C'est ce constat qui a conduit Thomas Kuhn à proposer une vision radicalement différente de l'évolution des sciences. Dans son livre "La Structure des révolutions scientifiques", Kuhn introduit le concept de paradigme scientifique. Un paradigme, selon Kuhn, c'est un ensemble de théories, de méthodes et de présupposés qui définissent la façon dont une communauté scientifique voit le monde à un moment donné. Imaginez-le comme une paire de lunettes conceptuelles que portent tous les scientifiques d'une époque. Décidément on n’échappte à ces lunettes. Kuhn argue que la science ne progresse pas de manière linéaire, mais par des ruptures. Pendant les périodes de "science normale", les scientifiques travaillent dans le cadre du paradigme dominant, résolvant des "puzzles" dans ce cadre. Mais quand trop d'anomalies s'accumulent, une crise peut survenir, conduisant éventuellement à un changement de paradigme. L'exemple classique est le passage du modèle géocentrique de Ptolémée au modèle héliocentrique de Copernic. Ce n'était pas une simple correction de détail, mais un changement complet de perspective sur notre place dans l'univers. C'est comme si on avait soudainement demandé aux scientifiques de regarder le ciel à l'envers ! Dans le système ptolémaïque, la Terre était au centre de l'univers, et les mouvements complexes des planètes étaient expliqués par un système élaboré d'épicycles. Ce modèle fonctionnait assez bien pour prédire les positions des planètes, mais il devenait de plus en plus complexe à mesure que les observations s'accumulaient. Copernic, en plaçant le Soleil au centre, a simplifié considérablement le système. Mais ce changement n'était pas qu'une question de simplicité mathématique. Il impliquait une transformation radicale de la vision du monde, remettant en question la place privilégiée de l'homme dans l'univers. Cette transition n'a pas été facile ni immédiate. Il a fallu les travaux de Kepler, Galilée et Newton pour que le paradigme héliocentrique s'impose complètement. Ce processus illustre parfaitement ce que Kuhn appelle une révolution scientifique. Cette vision a des implications importantes pour notre compréhension du progrès scientifique. Elle suggère que la science n'avance pas de manière linéaire et cumulative, mais par sauts et ruptures. Elle remet aussi en question l'idée d'une vérité scientifique objective et absolue, puisque ce qui est considéré comme "vrai" dépend du paradigme en vigueur.
Mais évidemment, la vision de Kuhn a aussi ses critiques, mais des critiques constructives et argumentées, on n’est pas au niveau du commentaire Youtube moyen, soyons clairs. Certains lui reprochent de rendre la science trop "irrationnelle", trop dépendante de facteurs subjectifs.
On va dire deux mots notamment sur Imre Lakatos, un logicien hongrois disciple de Popper, qui propose une approche intermédiaire avec sa méthodologie des programmes de recherche scientifiques. Pour Lakatos, la science progresse à travers des programmes de recherche concurrents, chacun avec un "noyau dur" d'hypothèses fondamentales et une "ceinture protectrice" d'hypothèses auxiliaires.
Pour être concret, Lkatos nous invite à reconnaître que les scientifiques ne jettent pas leurs théories à la première anomalie, comme le suggérerait une lecture stricte de Popper. Mais Lakatos ne va pas non plus jusqu'à dire que la science progresse par des révolutions brutales, comme pourrait le laisser penser Kuhn. C'est une sorte de voie médiane, qui nous dit : "Hé, la science, c'est compliqué ! Ce n'est ni une marche inexorable vers la vérité, ni une série de coups d'État théoriques. C'est plutôt comme une évolution darwinienne des idées, avec des mutations, des adaptations, et une sélection naturelle des théories les plus explicatives." Lakatos voit le progrès scientifique comme un processus plus organique et continu, il nous rappelle que la science est une entreprise profondément humaine, avec ses inerties, ses résistances au changement, mais aussi sa créativité et sa capacité d'adaptation.
Paul Karl Feyerabend, un autre élève de Popper, un peu plus jeune, et donc certainement plus téméraire pousse la réflexion plus loin, avec son "anarchisme épistémologique". Quelle bande de foufou ces philosophes.
Feyerabend affirme qu'il n'y a pas de méthode scientifique unique, et que c'est une bonne chose. Selon lui, les plus grandes avancées scientifiques se sont souvent faites en violant les règles méthodologiques en vigueur. Son slogan provocateur est "Tout est bon" : toutes les méthodes, même celles qui semblent irrationnelles ou non scientifiques, peuvent potentiellement contribuer au progrès de la connaissance.
Notre ami Polo,, c’était don petit nom, pour changer, prend l'exemple de Galilée. Quand Galilée a pointé sa lunette vers le ciel et a vu les lunes de Jupiter, il a ignoré les objections de ses contemporains qui affirmaient que les observations télescopiques n'étaient pas fiables. S'il avait suivi les règles méthodologiques de son époque, il n'aurait jamais fait sa découverte renversante.
Et surprise, cette approche soulève bien sûr des débats. Ne risque-t-on pas de tomber dans un relativisme total où toutes les idées se valent ?
Feyerabend répond que c'est précisément la prolifération des théories et des méthodes qui fait avancer la science. La confrontation entre des idées différentes, voire contradictoires, est selon lui le moteur du progrès scientifique.
Donc en gros l’anarchisme épistémologique de Feyerabend nous invite à être plus ouverts d'esprit, à ne pas rejeter d'emblée des approches qui semblent non scientifiques, du moment qu’il y a une argumentation qui tient la route. Il nous rappelle aussi que la science est une activité humaine, créative et imprévisible, qui ne peut être réduite à un ensemble de règles rigides.
Faison un rapide point d’étape : plus la science avance, plus nos connaissances s’affinent, plus on comprend tout ce qu’il nous reste à découvrir, ce qui nous invite à une forme d'humilité épistémique, reconnaissant les limites et la faillibilité de nos connaissances. Ca peut paraître paradoxal. On progresse, les découvertes scientifiques ont des applications concrètes, on fait des trucs qui marchent, et certaines théories ne sont pas mises à jours depuis des siècles, malgré les efforts de milliers de chercheurs pour trouver des failles. Mais en même temps, on doute, on se rend compte des limites humaines. Il y a des choses qu’on ne pourra jamais connaitre pleinement.
Ces débats en philosophie des sciences nous rappellent que la connaissance scientifique, aussi puissante soit-elle, n'est pas un dogme. C'est un processus dynamique, toujours ouvert à la révision et à la critique.
Mais ces réflexions sur la méthode ne sont qu'un aspect des transformations de notre compréhension de la connaissance au 20ème siècle. Une autre évolution majeure est l'émergence de ce qu'on appelle l'épistémologie naturalisée et cognitive.
Cette approche, dont Willard Van Orman Quine, un philosophe etats-unien, est l'un des principaux instigateurs, propose de traiter l'épistémologie comme une branche des sciences naturelles, et en particulier de la psychologie. Pour Quine, comprendre comment nous connaissons, c'est comprendre comment notre cerveau traite l'information.
Cette naturalisation de l'épistémologie a ouvert la voie à de nouvelles approches interdisciplinaires. Les sciences cognitives, combinant des insights de la psychologie, des neurosciences, de l'intelligence artificielle et de la philosophie, ont apporté de nouveaux éclairages sur nos processus de pensée et d'apprentissage.
Par exemple, les recherches en psychologie cognitive ont révélé l'existence de nombreux biais cognitifs qui influencent notre jugement et notre prise de décision. Le biais de confirmation, qui nous pousse à chercher des informations qui confirment nos croyances existantes, ou l'effet Dunning-Kruger, qui fait que les personnes les moins compétentes dans un domaine ont tendance à surestimer leurs capacités, sont autant d'exemples de ces distorsions systématiques dans notre pensée.
Ces découvertes ont des implications pratiques importantes. Elles nous rappellent que notre quête de connaissance n'est pas un processus purement rationnel, mais qu'elle est influencée par des facteurs psychologiques et cognitifs dont nous ne sommes pas toujours conscients. Elles nous invitent à une forme d'humilité épistémique, à une conscience accrue de nos propres limites et biais.
Mais comment pouvons-nous surmonter ces biais ? Une approche consiste à développer ce qu'on appelle la métacognition, c'est-à-dire la capacité à réfléchir sur nos propres processus de pensée. En prenant conscience de nos biais, en questionnant systématiquement nos hypothèses, nous pouvons espérer atteindre une compréhension plus juste et plus nuancée du monde.
Une autre question fondamentale qui a animé les débats épistémologiques au 20ème siècle est celle du réalisme scientifique. En d'autres termes, nos théories scientifiques décrivent-elles réellement le monde tel qu'il est, ou ne sont-elles que des outils utiles pour faire des prédictions ?
D'un côté, les réalistes scientifiques argumentent que le succès prédictif de nos meilleures théories serait un miracle s'il ne correspondait pas à une réalité sous-jacente. De l'autre, les anti-réalistes soulignent que l'histoire des sciences est pleine de théories qui fonctionnaient bien mais qui se sont révélées fausses.
Une position intermédiaire, le réalisme structural, propose que nos théories captent la structure des phénomènes, même si elles peuvent se tromper sur leur nature intrinsèque. C'est un peu comme si nos théories étaient des cartes : elles peuvent être utiles et précises sans pour autant être des répliques exactes du terrain. La carte ce n’est pas le territoire, c’est une projection simplifiée d’une réalité complexe, avec un but précis, celui de nous orienter ou de nous instruire sur tel ou tel aspect en particulier .
Ce débat a des implications pratiques importantes. Comment devons-nous interpréter les théories scientifiques ? Devons-nous les prendre au pied de la lettre ou les considérer comme des modèles utiles mais provisoires ? Ces questions sont particulièrement pertinentes quand il s'agit de théories contre-intuitives comme la mécanique quantique ou de domaines où les enjeux sont importants, comme le changement climatique.
Mais notre exploration de la connaissance au 20ème siècle serait incomplète si nous nous limitions aux aspects purement scientifiques et cognitifs.
Une autre évolution majeure de cette période est la prise de conscience croissante des dimensions sociales et politiques de la connaissance.
David Bloor et Barry Barnes, avec leur "programme fort" en sociologie des sciences, affirment que même le contenu des théories scientifiques est influencé par des facteurs sociaux. Ils proposent d'étudier la science avec les mêmes méthodes que l'on utiliserait pour étudier n'importe quelle autre activité sociale.
Bruno Latour, sociologue et anthropologue français, va encore plus loin dans cette direction, bouleversant notre conception traditionnelle de la science. Dans son ouvrage majeur "La vie de laboratoire", publié en 1979, Latour nous invite à regarder la science non pas comme une quête abstraite de vérité, mais comme une activité profondément humaine et sociale.
Pensez que vous êtes une mouche sur le mur d'un laboratoire scientifique. Que verriez-vous ? Selon Latour, vous observeriez un ballet complexe de chercheurs, d'instruments, de données et de discussions. La science, nous dit-il, est un processus de construction sociale, impliquant des négociations, des alliances, et même des luttes de pouvoir.
Pour Latour, les faits scientifiques ne sont pas simplement "découverts" comme on trouverait un trésor caché. Ils sont "fabriqués" à travers un processus d'interactions sociales et matérielles. C'est un peu comme si la vérité scientifique émergeait d'une recette complexe, où les ingrédients seraient non seulement les données expérimentales, mais aussi les discussions entre chercheurs, les contraintes de financement, les traditions disciplinaires, et même les particularités des instruments utilisés.
Prenons un exemple concret. Lorsqu'un scientifique publie un article sur une nouvelle découverte, nous avons tendance à voir cela comme le point final d'un processus linéaire. Mais Latour nous montre que c'est en réalité le résultat d'innombrables négociations : quelles données inclure ou exclure, comment interpréter les résultats ambigus, comment présenter les conclusions de manière convaincante pour les pairs et les financeurs.
Cette approche de Latour a des implications profondes. Elle remet en question l'image du scientifique comme un observateur neutre et détaché, révélant plutôt un acteur engagé dans un réseau complexe d'interactions sociales et matérielles. Elle nous invite à considérer la science non pas comme une tour d'ivoire isolée, mais comme une pratique profondément ancrée dans la société, avec tous les défis et les opportunités que cela implique.
Cependant, c’est important de noter que Latour ne cherche pas à discréditer la science ou à nier sa valeur. Au contraire, en montrant la complexité et la richesse du processus scientifique, il nous offre une compréhension plus nuancée et, pourrait-on arguer, plus réaliste de la façon dont la connaissance scientifique est produite.
Parallèlement, l'épistémologie féministe et postcoloniale a révélé les biais de genre et culturels profondément ancrés dans la production des connaissances.
Sandra Harding, avec sa "théorie du point de vue" (standpoint theory), avance une idée audacieuse : notre position sociale façonne fondamentalement notre perception et notre compréhension du monde. Plus qu'un simple biais, c'est une perspective unique qui peut enrichir notre compréhension collective. Harding suggère que les groupes marginalisés, de par leurs expériences singulières, peuvent offrir des éclairages précieux sur la réalité sociale, souvent invisibles aux yeux des groupes dominants. Pour illustrer ce concept, prenons l'exemple de la recherche médicale. Pendant des décennies, la majorité des essais cliniques étaient menés sur des hommes, leurs résultats étant ensuite appliqués aux femmes sans discernement. Cette pratique a engendré des lacunes critiques dans notre compréhension de la santé féminine, mettant parfois en danger la vie des femmes. L'intégration de perspectives féministes en médecine a non seulement mis en lumière ces biais, mais a aussi considérablement amélioré la qualité des soins pour tous, hommes et femmes confondus.
Donna Haraway, autre figure emblématique de l'épistémologie féministe, pousse la réflexion avec son concept de "savoirs situés". Pour Haraway, toute connaissance porte l'empreinte indélébile de son contexte de production. Elle nous met en garde contre l'illusion d'un point de vue neutre et universel - ce qu'elle appelle avec ironie le "trick god" ou le "tour de passe-passe divin". Au lieu de cela, Haraway nous exhorte à reconnaître et à expliciter notre position.
Loin de nous mener au relativisme, cette approche nous conduit à ce qu'elle nomme une "objectivité forte", une compréhension plus riche et nuancée qui intègre la multiplicité des perspectives.
Enfin, la célèbre assertion de Simone de Beauvoir, "On ne naît pas femme, on le devient", nous invite à une réflexion profonde sur la construction sociale de nos identités. Cette idée, d'une portée épistémologique considérable, suggère que même nos catégories les plus fondamentales - comme le genre - ne sont pas des données naturelles immuables, mais des constructions sociales complexes et dynamiques. Ces perspectives nous invitent à repenser radicalement notre approche de la connaissance, en reconnaissant la diversité des expériences humaines comme une source précieuse de savoir et de compréhension.
Dans un autre registre, dans la seconde moitié du 20ème siècle, plusieurs penseurs clés ont profondément transformé notre compréhension de la production et de la diffusion des connaissances dans la société moderne, mettant en lumière les liens complexes entre information, pouvoir et réalité.
Noam Chomsky, avec Edward Herman, a apporté une contribution révolutionnaire à ce domaine. Dans "La fabrication du consentement", ils décortiquent les mécanismes subtils par lesquels les médias de masse façonnent l'opinion publique. Leur analyse révèle comment les structures de propriété des médias, la dépendance à la publicité, et d'autres facteurs moins visibles influencent profondément la production de l'information. Loin d'être de simples observateurs neutres, argumentent-ils, les médias mainstream jouent souvent un rôle crucial dans la construction d'un consensus favorable aux intérêts des élites. Prenons l'exemple saisissant de la couverture médiatique des conflits internationaux. Chomsky démontre avec une précision chirurgicale comment le cadrage de ces événements peut varier radicalement en fonction des intérêts géopolitiques en jeu, modelant ainsi la compréhension publique de situations extrêmement complexes. On se doute bien que le traitement de l’information n’est pas le même à Kiev qu’à Moscou en ce moment par exemple, et donc que la perception du réel n’est pas du tout la même selon le camp où l’on se trouve.
Cette analyse percutante nous conduit naturellement à examiner le rôle fondamental de l'information et de la connaissance dans les systèmes politiques, en particulier dans le contexte des régimes totalitaires.
C'est ici que la pensée d'Hannah Arendt prend toute son importance. Dans son œuvre magistrale "Les Origines du totalitarisme", Arendt offre une réflexion profonde et troublante sur la manipulation de la vérité et de l'information dans ces régimes. Arendt va au-delà de la simple notion de propagande. Elle montre comment les régimes totalitaires ne se contentent pas de mentir ou de dissimuler la vérité, mais s'efforcent de créer une réalité alternative complète et cohérente. Dans son essai "Vérité et politique", elle écrit avec une lucidité glaçante : "Le résultat d'une substitution cohérente et totale de mensonges à la vérité de fait n'est pas que les mensonges seront maintenant acceptés comme vérité, ni que la vérité sera diffamée comme mensonge, mais que le sens par lequel nous nous orientons dans le monde réel - et la catégorie de vérité vs fausseté est parmi les moyens mentaux pour cette fin - est détruit."
Cette destruction du sens même de la réalité trouve une illustration saisissante dans le chef-d'œuvre dystopique de George Orwell, "1984". Le concept de "doublepensée" qu'Orwell y développe - la capacité à croire simultanément deux choses contradictoires - n'est pas qu'une invention littéraire, mais une réflexion profonde sur la façon dont la manipulation du langage et de l'information peut altérer fondamentalement notre capacité à penser et à connaître. Les slogans du Parti dans "1984" - "La guerre, c'est la paix. La liberté, c'est l'esclavage. L'ignorance, c'est la force." - illustrent de manière poignante comment le contrôle de l'information et du langage peut être utilisé pour façonner la réalité perçue par les citoyens, jusqu'à rendre impossible toute pensée dissidente.
Cette analyse d'Orwell sur la manipulation du langage trouve un écho fascinant dans les travaux du philosophe Ludwig Wittgenstein dont nous avons déjà parlé dans l’épisode précédent. Sa théorie des "jeux de langage" suggère que le sens des mots n'est pas fixe, mais dépend de leur usage dans des contextes spécifiques. Cette idée souligne l'importance cruciale du langage non seulement dans notre capacité à communiquer, mais aussi dans notre façon même de percevoir et de comprendre le monde.
Enfin à la fin du 20ème siècle, alors que les technologies de l'information et de la communication connaissent un essor sans précédent, le sociologue espagnol Manuel Castells apporte une perspective complémentaire avec son concept de "société de l'information" ou "société en réseaux". Castells argue que dans cette nouvelle ère, le pouvoir réside de plus en plus dans le contrôle des flux d'information plutôt que dans le contrôle des moyens de production traditionnels. Il écrit : "Dans la société en réseaux, le pouvoir est redéfini, mais il ne disparaît pas. Et il ne se dilue pas non plus dans un flux de signes et de symboles. Il se concrétise dans les nouveaux codes culturels, dans les revendications et les représentations, dans la bataille des images et des cadres, sources d'identité et de pouvoir." Cette analyse offre un cadre pour comprendre comment les dynamiques de pouvoir et de contrôle de l'information évoluent dans un monde de plus en plus interconnecté. L'apport de Castells nous permet de voir comment les préoccupations soulevées par Chomsky, Arendt et Orwell prennent une nouvelle dimension à l'ère numérique. Les questions de manipulation de l'information, de contrôle du discours et de construction de la réalité se posent désormais à l'échelle globale, dans un contexte où l'information circule à une vitesse et avec une portée sans précédent.
Ces réflexions sur le contrôle de l'information et la manipulation de la vérité ne sont pas que des exercices intellectuels. Elles nous rappellent avec force l'importance vitale de la liberté de pensée et d'expression pour la production et la diffusion de connaissances fiables. Elles nous mettent en garde contre les dangers potentiels d'une centralisation excessive du contrôle de l'information, un avertissement qui résonne avec une pertinence particulière à notre époque de médias sociaux omniprésents et d'algorithmes opaques. En fin de compte, ces penseurs nous invitent à une vigilance constante. Ils nous rappellent que la quête de la vérité et de la connaissance n'est pas qu'une entreprise intellectuelle, mais aussi un acte politique et éthique fondamental pour la préservation de sociétés libres et démocratiques.
Le 20ème siècle a également vu l'émergence de nouvelles formes de production et de diffusion du savoir. Le mouvement de la science ouverte, par exemple, promeut un accès libre et gratuit aux publications scientifiques et aux données de recherche. Cela a le potentiel de démocratiser l'accès à la connaissance, mais soulève aussi des questions sur la qualité et la fiabilité de l'information.
Helen Longino, philosophe américaine des sciences, souligne l'importance des dimensions sociales dans la production de connaissances scientifiques. Elle argumente que l'objectivité scientifique n'est pas tant une caractéristique des individus que le résultat d'un processus social de critique et de débat au sein de la communauté scientifique.
Un défi majeur pour la science contemporaine est la crise de reproductibilité. De nombreuses études, en particulier dans les domaines de la psychologie et de la médecine, se sont révélées difficiles ou impossibles à reproduire. Cela soulève des questions fondamentales sur la fiabilité de nos méthodes scientifiques et la solidité de nos connaissances.
Il est également important de noter l'impact profond des guerres mondiales sur la production et l'utilisation de la connaissance scientifique au 20ème siècle. Le projet Manhattan, qui a conduit au développement de la bombe atomique, est un exemple frappant de la façon dont la guerre peut accélérer le progrès scientifique tout en soulevant des questions éthiques cruciales.
J. Robert Oppenheimer, directeur scientifique du projet Manhattan, a exprimé les dilemmes éthiques auxquels les scientifiques ont été confrontés dans ce contexte. Après le test réussi de la première bombe atomique, il a cité un verset de la Bhagavad Gita : "Je suis devenu la Mort, le destructeur des mondes." Cette citation poignante illustre la prise de conscience des scientifiques quant aux implications potentiellement dévastatrices de leurs découvertes.
La guerre a également conduit à des avancées significatives dans des domaines tels que la médecine, les matériaux, et les technologies de communication. Cependant, elle a aussi montré comment la science peut être utilisée à des fins destructrices, soulevant des questions cruciales sur la responsabilité éthique des scientifiques. Questions qui vous en conviendrez sont plus que jamais d’actualité. “Science sans conscience n’est que ruine de l’âme” nous avertissait déjà Rabelas dans Gargantua au 16e siècle.
En conclusion, le 20ème siècle a profondément transformé notre compréhension de la nature de la connaissance et de la science. Des théories renversante comme la relativité et la mécanique quantique ont ébranlé nos certitudes sur la nature de la réalité. La philosophie des sciences a remis en question l'image d'une science purement objective et cumulative. L'épistémologie sociale et féministe a mis en lumière l'influence des facteurs sociaux et culturels sur la production de connaissances.
Ces développements nous invitent à adopter une approche plus nuancée et critique de la connaissance. Ils nous rappellent l'importance de l'humilité , de la diversité des perspectives, et de la vigilance face aux manipulations de l'information.
Alors que notre histoire entre dans le 21ème siècle, de nouveaux défis nous attendent. Comment naviguer dans un monde où l'information est omniprésente mais pas toujours fiable ? Comment concilier l'expertise scientifique et la participation citoyenne dans la prise de décision sur des enjeux complexes comme le changement climatique ? Comment préserver la quête de vérité dans un contexte de "post-vérité" ?
Ces questions, nous les explorerons dans notre prochain épisode.
D'ici là, je vous invite à réfléchir sur votre propre rapport à la connaissance. Comment les idées que nous avons explorées aujourd'hui résonnent-elles avec votre expérience ? Quelles sont vos sources d'information privilégiées et pourquoi ? Comment pourriez-vous diversifier vos perspectives ?
Merci de m'avoir écouté, si cet épisode vous a plu, n'hésitez pas à le partager et à me faire part de vos réflexions. Faites un don pour soutenir Sismique si vous le pouvez, j’ai quelques petits projets à financer, comme par exemple la refonte du site. Site sur leque vous trouverez toutes les notes et le transcript sont disponibles. C’est sismique.fr
Et à bientôt pour la suite de notre exploration de la connaissance.