Articles in academic journals
Typography
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times
Jos de Mul. De Homo erectus à Homo zapiens : le Cyber espace pour les Darwinistes. Sens [public] 7-8: L’Internet, entre savoirs, espaces publics et monopoles. (Septembre 2008), 127-144.

The role of the humanist is to cultivate a more than ordinary reverence for the past, for tradition, while exploring every present development for what it reveals about man which the past has not revealed.

Marshall McLuhan

  1. La technologie de l'information dans la perspective culturo-historique et évolutionniste

 Le mot “révolution” apparaît assez souvent dans les publications sur la technologie de l'information. Dans une branche où un constructeur proclame ld développement d'une nouvelle imprimante comme une révolution, une telle compétence devrait être considérée avec un certain scepticisme. Cependant, il est évident que dans un court laps de temps, l'ordinateur, l'information et les technologies de communication sur lesquelles ils sont basés ont radicalement changé l'aspect de notre monde. Cette affirmation ne fait pas uniquement référence aux millions d'ordinateurs qui ont colonisé nos bureaux, nos maisons ou même nos corps, mais aussi à la numérisation, rapide et de grande envergure de notre culture, la reconfiguration des relations de pouvoir et l'informatisation de notre image d'homme et notre vision du monde. L'impact de la révolution de l'information peut être comparé à celui de la révolution industrielle. Dans La Troisième vague, le futurologue américain Alvin Toffler va même jusqu'à affirmer que cela est la troisième grande révolution dans l'histoire de l'humanité, après la révolution industrielle au dix-neuvième siècle et la révolution agricole du néolithique, c'est-à-dire le “nouvel Age de pierre” (Toffler 1980). Il y a même des auteurs qui sont de l'opinion que la révolution de l'information est un évènement important dans l'évolution de la vie sur terre. Dans Artificial Life: The Quest for a New Creation, Steven Levy soutient, par exemple, que ce qui est unique à propos de l'humanité, ce sont les premières espèces dans l'évolution de la vie prédestinées à créer ses propres successeurs (Levy 1992).

Sommes-nous vraiment au seuil du tout nouvel Age de pierre dans lequel les formes de vie basées sur le silicium supplanteront la vie organique ? Ou sont-ce des revendications exagérées provenant de la tendance de l'homme à surestimer de façon éhontée l'importance de son propre temps ? Pendant les dernières décennies, la recherche dans le domaine de l'intelligence artificielle, qui a commencé dans de si grands espoirs, s'est montrée très décevante, et jusqu'à présent, la recherche sur la vie artificielle  a rencontré un modeste succès. Compte tenu de cela, il est raisonnable, du moins provisoirement, de considérer le raisonnement de Levy comme rien de plus qu'une hypothèse. Mais c'est certainement une hypothèse sur laquelle il est utile de réfléchir.

Dans mon article, je vais examiner l'hypothèse que la technologie de l'information est une étape importante dans l'histoire culturelle et l'évolution. Je vais le faire du point de vue du développement de la structure cognitive de l'humanité. J'entends par “structure cognitive”, pour employer une métaphore, le “système d'exploitation” de l'esprit : l'interaction complexe des fonctions de notre esprit, comme observer, penser, se souvenir, anticiper, imaginer et apprendre. Parce que l'évolution de la structure cognitive est une interaction complexe de facteurs biologiques, technologiques et culturels, la recherche dans ce domaine est liée aux découvertes dans diverses disciplines scientifiques allant de la paléontologie, la génétique, la neurophysiologie, la psychologie, et la recherche dans l'Intelligence Artificielle (IA) à l'archéologie, l'histoire de la technologie, de la culture et des médias.C'est sur ce fond que je vais parler du rôle que joue la technologie de l'information dans le développement culturo-historique et évolutionniste de la structure cognitive. Premièrement, je vais donner un aperçu de l'évolution de l'humanité, inspiré, entre autres choses, des Origines de l'esprit moderne de Merlin Donald, en m'intéressant à l'évolution cognitive. Sur la base du travail de synthèse de Walter Ong, représentant de l'école de Toronto, je vais ensuite regarder de plus près les transformations culturo-historiques étudiées par cette école – la transition de la culture orale à la culture écrite, et de la culture écrite à la culture multimédia. Bien que l'analyse de Ong explique un certain nombre de caractéristiques de l'hypermédia, elle n'explique pas suffisamment ce qui distingue ces médias des médias précédents. Se conformant à l'approche évolutionniste de Donald, je soutiendrai que l'hypermédia marque une nouvelle phare dans l'extériorisation du cerveau humain.

 

2 Le développement cognitif des hominidés

Selon les points de vue traditionnels actuels sur les sciences naturelles, l'univers a presque 15 milliards d'années. On estime l'âge de la terre à 4,5 milliards d'années. Les formes (unicellulaires) de vie sur terre les plus anciennes ont probablement été créées il y a environ 3,5 milliards d'années dans la soupe chimique primitive qu'étaient les mers à cette époque. Puis, cela a pris presque 3 milliards d'années avant que le premier animal vertébré apparaisse il y a environ 500 millions d'années. Les premiers primates, apparus il y a environ 65 millions d'années, trouvant leur place après les dinosaures, ont subitement disparus. Le développement des premiers primates en hominidés a pris environ 60 millions d'années.[1]

Selon les idées les plus récentes, la division des anthropoïdes et des hominidés s'est passée il y a au moins 7 millions d'années en Afrique.[2] Sur une période de plusieurs millions d'années, ces premiers hnminidés ont évolué et sont devenus des Australopithecus afarensis, dont l'exemple le plus connu est Lucy, âgée de 3,2 millions d'années et découverte en Ethiopie. La capacité crânienne de Lucy était de 500 cm³, elle marchait debout et utilisait probablement déjà des outils. Il y a environ 2 millions d'années, par l'outillage lithique Homo habilis, cet hominidé a ensuite évolué en Homo erectus. Cette espèce avait une capacité crânienne d'environ 1000 cm³, elle fabriquait des outils raffinés (on appelle cette technologie l' “Acheuléen”, d'après un site important de découvertes), vivait dans des tentes dans des villages selon la saison, et utilisait le feu. Il y a entre 300 000 et 100 000 ans, cette lignée évolua et devint l'Homo sapiens archaïque, avec une capacité crânienne de 1400 cm³, qui parlait des langues, fabriquait des outils extrêmement raffinés (la technologie moustérienne) et se protégeait la tête. Pendant ce temps, les espèces s'étaient répandues d'Afrique en Europe et en Asie. En fin de compte, der variantes qui descendirent de l'Homo Sapiens (comptant le Homo neanderthalensis), seul l'Homo sapiens sapiens, qui a fait son apparition il y a environ 100 000 ans, a survécu. C'est à cette espèce que nous appartenons. Mais cela ne veut pas dire que depuis ce temps, l'humanité n'a pas fait d'important développements. Environ 35 000 ans, deux développements culturels se sont passés qui ont eu des implications d'une portée considérable dans la suite de l'évolution de l'humanité. Premièrement, les peuples vivaient en petits groupes de chasseurs et de cueilleurs, mais vers cette époque, ils devinrent cultivateurs, c'est-à-dire qu'ils changèrent leur statut de nomade pour une demeure fixe. Des villages, et finalement des bourgs, furent créés, et, entre autres, à la suite d'une augmentation du partage du travail, la structure sociale devint beaucoup plus complexe. Deuxièmement, dorénavant, l'humanité est caractérisée par l'utilisation de symboles externes. Par le moyen du marquage sur les outils, les peintures dans les grottes, des pictogrammes et des idéogrammes. En l'an 900 avant J.-C., en Grèce, s'ensuit un alphabet phonétique qui est encore utilisé dans de grandes parties du monde. Bien qu'aucun changement anatomique ne se soit passé depuis l'émergence de l'Homo sapiens sapiens, le développement de l'écriture a mené à un développement crucial dans l'évolution de la structure cognitive de l'humanité.

Dans ses Origines de l'esprit moderne : trois étapes dans l'évolution de la culture et de la cognition, le neuropsychologue Merlin Donald montre une reconstruction fascinante de l'évolution cognitive chez les hominidés (Donald 1991).[3] En se basant, entre autres, sur la recherche neurophysiologique et paléontologique, Donald distingue trois stades dans cette évolution, respectivement caractérisés par une cognition mimétique, linguistique et symbolique externe. De son point de vue, les plus grands primates de qui l'homme descend ont eu une cognition épisodique, c'est-à-dire qu'elle a été non-réflechie, concrète et mise en situation, et qui s'est déroulée dans un présent continu. Cependant, au moins depuis l'Homo erectus, il y a la cognition mimétique, caractérisée par la production de représentations conscientes qu'il a lui-même entreprise, qui était intentionnelle mais pas (encore) linguistique. Selon Donald, cette évolution a eu d'importantes implications sociales. Non seulement la capacité mimétique a mené au développement des rituels de groupe qui ont caractérisé le comportement humain jusqu'à aujourd'hui, mais cela a été la conséquence d'une forte augmentation de la communication mutuelle, ainsi que d'un transfert et d'une conservation des connaissances. La cognition linguistique a fait son apparition avec  l'Homo sapiens. Au cours de l'évolution, cette aptitude à (re)combiner des actes basics (qui, entre autres, s'étaient développés dans le travail de la pierre) s'est transformée en produisant des sons et en rendant des langues articulées possibles. Contrairement à la communication mimétique, ce langage utilise des sxmboles arbitraires.

Le passage de la cognition linguistique à la cognition modifiée par des symboles est d'une importance particulière. L'invention de l'écriture a apporté au développement culturel un énorme dynamisme. Le pouvoir de la culture écrite, avec le respect de la culture orale qui a précédé, réside dans le fait qu'il n'est plus si difficile de retenir et de transmettre les connaissances vitales pour la survie, mais que de telles connaissances peuvent être notées, reproduites et consultées à un degré presque illimité. Deux caractéristiques de cette transition de l'oral à l'écrit font que ce soit une transformation cognitive fondamentale.

Premièrement, le passage à l'écriture a signifié que ce qui avait été la fonction la plus importante de la cognition (linguistique), la mémoire, a été transférée vers un véhicule non-biologique. La structure cognitive ne correspondait plus au corps biologique, mais incluait aussi ces extensions biologiques. Le transfert de la mémoire vers un véhicule externe explipue aussi pourquoi, contrairement aux transformations précédentes, cette importante transformation cognitive n'allait pas de pair avec une nouvelle augmentation du volume du cerveau.[4] L'aspect important de ce développement, c'est que la variation technologique prend le pouvoir sur le rôle de la variation naturelle dans la sélection naturelle. Depuis le tout début, l'Homo sapiens sapiens a en fait été un cyclamate, animal à la fois composé de matières organiques et de développements technologiques.

Deuxièmement, à cause de la grande plasticité du néocortex, le transfert de la mémoire a signifié que ce que les nouvelles fonctions sélectives et analytiques pouvaient développer étaient nécessaires à une transformation adéquate des connaissances stockées. Dégager le processus de pensée du contexte riche, mais chaotique, de la communication orale et narrative essentiellement, a aussi permis à ce processus de devenir plus précis et plus abstrait. Pour cette raison, Donald soutient que la culture écrite a aussi été tne culture théorique. C'est cette transition de la culture orale à la culture écrite en particulier qui a attiré l'attention de McLuhan et de l'école de Toronto.

 

3 Oralité, instruction et culture digitale

Au cours des dernières décennies, des auteurs comme Marshall McLuhan, Eric Havelock et Walter Ong ont exposé la transition de la culture orale à la culture écrite à une analyse approfondie.[5] A présent, je vais aller plus loin dans ce sens car leurs recherches peuvent aider à mieux nous faire comprendre la transition de la culture écrite à la culture hypermédia. Je me conforme ici au livre de Walter Ong, Orality and literacy: The technologizing of the Word, publié en 1982, dans lequel les idées principales de cette tradition de recherche sont résumées.

Ong soutient que le passage de l'oralité à l'instruction implique une transformation fondamentale, à la fois de la structure cognitive de l'homme et de sa vision du monde. Ceci devient clair lorsque l'on fait ressortir le contraste entre quelques caractéristiques fondamentales de la culture orale et celles de la culture écrite. Au début, le mot parlé est bref, et n'existe qu'au moment où il est prononcé : “Sans l'écriture, les mots en tant que tels n'ont aucune signification concevable, même lorsque les objets qu'ils représentent sont visuels. Ce sont des sons. On peut les “appeler” à nouveau, s'en “rappeler”. Mais on ne peut les “voir” nulle part. Ils n'ont aucun intérêt ni aucune trace (une métaphore visuelle montre une dépendance à l'écriture), ni même une trajectoire. Ce sont des occurrences, des événements.” (Ong 1982)

Par conséquent, les techniques de mémoire sont essentielles à la structure cognitive de l'homme verbal : “Dans une culture orale primaire, pour résoudre efficacement le problème de soigneusement conserver et de récupérer la pensée articulée, on doit penser avec des moyens mnémotechniques, déterminés pour une récurrence orale préparée. La pensée doit se concrétiser à travers des schémas lourdement rythmés et équilibrés, des répétitions ou des antithèses, des allitérations et des assonances, des expressions épithètes ou autres formulations, des cadres thématiques habituels (l'assemblée, le repas, le duel, l' « assistant » au héros, etc.), des proverbes que chacun entend constamment de façon à ce qu'ils viennent facilement à l'esprit et qui, eux-même, sont schématisés pour la mémoire et un rappel direct, ou d'autres formes mnémotechniques. Une pensée sérieuse est liée aux systèmes de la mémoire. Les besoins mnémotechniques déterminent même la syntaxe” (Ong 1982). Ces caractéristiques contribuent également au fait que la connaissance, indispensable à la survie dans la culture orale, était à l'origine organisée d'une manière narrative. En outre, le mot parlé a aussi un caractère situationnel fort dans le sens qu'il est étroitement lié à l'environnement immédiat. Donc, la culture orale était sociale par sa nature et invitait les gens à participer.

L'Odyssée d'Homer, qui avait, en toute probabilité, pris racines dans la culture orale, peut servir d'exdmple ici. Les versions écrites connues de cette histoire exposent beaucoup des caractéristiques mentionnées ci-dessus. Le rythme, le son, les formulations répétitives, les descriptions stéréotypées des personnages principaux et des décors, et sa construction spécifique ont aidé à permettre aux enthousiastes, ces chanteurs populaires qui voyageaient, de se rappeler plus aisément de l’œuvre (Parry et Parry 1971). Et dans la mesure où l'Odyssée fonctionnait comme une encyclopédie orale, cette connaissance était aussi organisée de façon narrative.

A cause du caractère éphémère du mot parlé, la culture orale, dans une mesure importante, est mise en scène dans des histoires qui existent et qui la préservent. Mais parce que ces histoires ne peuvent pas être fixées, elles risquent d'être sujettes à des transformations à chaque fois qu'elles sont répétées. On peut s'en apercevoir, par exemple, dans les nombreuses versions de la mythologie des cultures orales. On peut également s'en apercevoir dans la vision du monde de ces cultures. La réalité n'est généralement pas interprétée comme une collection d'entités immuables, mais comme un tout en continuelle transformation. Ceci est succinctement exprimé dans la mythologie grecque, dans laquelle plusieurs mythes sont des métamorphoses comme leur sujet.[6]

Dans la culture écrite, dans laquelle la connaissance essentielle doit être enregistrée, la structure cognitive est, dans une large mesure, soulagée de sa fonction de mémoire. La quantité de connaissances augmente exponentiellement – on peut clairement s'en apercevoir par le lexique, qui, dans la culture orale, ne contient que quelques milliers de mots, mais qui atteint rapidement, dans les cultures écrites, plus d'un million. Ceci veut dire que la sélection, ainsi que l'analyse, des connaissances valables est au cœur de la structure cognitive. En outre, quand le processus de la pensée est libéré du contexte riche, bien que chaotique, des expressions orales, une précision de la pensée, auparavant inconnue, devient possible. L'écrivain peut calmement construire son raisonnement, et enlever des irrégularités en faisant une analyse de fond (Ong 1982). La naissance de la philosophie et de la science dans la culture grecque ne peut pas être séparée de l'introduction de l'écriture phonétique. La structure complexe de l'écriture a été transférée dans l'esprit humain. Il y a eu aussi une abstraction et une mise à distance grandissantes. L'écriture a séparé le sujet de l'objet : “En séparant le connaisseur du connu, l'écriture finit par rendre possible l'introspectivité articulée, en ouvrant le psychisme comme jamais auparavant, non seulement vers un monde objectif externe assez distinct de lui-même, mais aussi vers un soi intérieur contre qui le monde objectif est mis en place.” (Ong 1982)

L'apparition de l'écriture touche radicalement aussi la vision du monde chez l'homme. La structure de l'écriture (alphanumérique) n'organise pas seulement la pensée, mais en même temps, est projetée sur la réalité en dehors de l'esprit. On peut clairelent s'en apercevoir dans la philosophie de Platon qui, selon Havelock, reflète la transformation de la culture orale à la culture écrite qui s'est passé dans la culture grecque à l'époque. Dans la philosophie de Platon, un monde d'idées éternelles et inchangées est posé comme postulat contre la réalité changeant d'un jour à l'autre. Dans la mesure où la métaphysique occidentale et son proche associé, le christianisme, sont caractérisés par une doctrine d'un monde double, la notion que celle-ci est partiellement un produit de l'écriture peut être soutenue.

Le fait que cette transformation de la culture orale à la culture écrite soit fondamentale ne veut pas dire que l'histoire montre une transition brusque de l'une à l'autre. Premièrement, une partie importante de notre culture reste orale, même après l'apparition de l'écriture – nous parlons toujours beaucoup. Deuxièmement, l'écriture, particulièrement à l'époque des manuscrits, a encore beaucoup en commun avec le mot parlé. Pendant longtemps, les textes écrits prenaient forme à partir de la communication orale. Par exemple, on ne le constate pas seulement dans la forme dialogique de la philosophie de Platon et dans le fait qu'après l'invention de l'imprimerie au quinzième siècle, les textes écrits étaient toujours lus à voix haute, mais aussi, dans le rôle rhétorique, enraciné dans la culture orale, qui continue de jouer dans la culture écrite jusqu'au mouvement Romantique. Le fait que les manuscrits n'eussent souvent pas encore la fermeture d'un livre imprimé, et que pas un seul manuscrit n'était identique à un autre, cela rappelait aussi la culture du mot parlé. Selon Ong, ce fut avec l'apparition de l'imprimerie que les propriétés caractéristiques de l'écriture ont d'abord éclipsé les caractéristiques orales encore présentes. Le livre imprimé a conduit à des formes plus fermées et plus linéaires de la narration et de l'argumentation.[7] Le texte est devenu un univers clos, un processus qui, au vingtième siècle, semble avoir trouvé son plus haut point dans la Nouvelle Critique et le centrisme du texte de Derrida.

Dans Orality and Literacy, Ong examine brièvement aussi la culture multimédia qui, depuis la Seconde Guerre Mondiale, a établi une position dominante dans la culture occidentale – bien que pas seulement en Occident. Ong soutient la thèse que cela concerne une oralité secondaire. Grâce à la radio, la télévision et les films, le mot parlé est à nouveau devenu un moyen important de communication et de transfert de la connaissance. “Cette nouvelle oralité a des ressemblances frappantes avec l'ancienne dans son aura de mystique direct, dans sa prise en charge d'un sens collectif, dans sa concentration sur le moment présent, et même dans son emploi de formules” (Ong 1982). En même temps, Ong insiste sur le fait que cette nouvelle oralité porte la marque de la culture écrite. Les textes qui sont lus à haute voix par les présentateurs des informations, les présentateurs télévisés ou les acteurs sont, dans la plupart des cas, des textes qui ont d'abord été écrits.

Lorsque Ong publie son livre en 1982, le PC venait juste de commencer à percer. Les formes de communication électroniques développées sur Internet depuis démontrent ce que Ong appelle “les caractéristiques de l'oralité secondaire” encore plus fortement que les médias classiques. L'e-mail, les groupes de discussions, et les messageries instantanées (une variante écrite du téléphone rose) offrent un curieux mélange de la communication écrite et parlée. Les auteurs sur les traces de Ong, comme Michael Heim (Heim 1987), Jay Bolter (Bolter 1991) et Paul Levinson (Levinson 1999) ont montré que cela s'applique aussi à l'hypermédia. Bien que les textes, les images et les sons que l'on trouve ici, tout comme les mots imprimés, soient stockés sur un support externe, et les utiliser présuppose des compétences analytiques, l'hypertexte partage une forme et un contenu non fixés et en constant changement avec la communication orale. Comme le monde des histoires orales, les connaissances stockées dans l'hypermédia n'ont `ucun début et aucune fin, sans bémol pour partager le centre et la marge, ni l'écrivain et le lecteur. Les utilisateurs du web ne déterminent pas seulement leur route à travers le réseau complexe des textes eux-mêmes, mais dans beaucoup de cas, ils peuvent ajouter leur propre expérience sous la forme de nouveaux documents ou liens entre les documents déjà existants.[8Bien que l'interprétation du multimédia assisté par ordinateur, dans la thèse de Ong sur l'oralité secondaire, éclaire un nombre de caractéristiques de ces médias, un “hégélianisme” inhérent de l'approche de Ong, qui est exprimé dans l'idée que la culture multimédia est une synthèse des cultures orales et écrites, nous empêche d'avoir une vision de ce qui distingue exactement l'hypermédia du parlé, tout comme le mot écrit. Afin de le comprendre, nous devons brièvement revenir sur l'approche évolutionniste.

 

4 Surcharge d'information dans le “Nouvel Age de pierre” et le “Tout Nouvel Age de pierre”

Un rapport sur l'évolution de la structure cognhtive soulève la question de savoir pourquoi l'écriture s'est développée à un moment précis. Au juste, les biologistes évolutionnistes sont toujours assez prudents sur ce type de question car il mène vite à une forme de téléologie ou à une autre. Cependant, selon la théorie évolutionniste, l'évolution n'a pas de telos ou de but, mais résulte d'une longue série de coïncidences. Mais nous faisons bien de nous demander pourquoi l'écriture, par je ne sais de quelle coïncidence elle émane, a connu un si grand succès dans son évolution. Cela soulève un principe de base connu dans la théorie évolutionniste : “les mutations hasardeuses proposent, mais la sélection naturelle décide” (cf. Cavalli-Sforza 1995). Une explication possible concernant le succès de l'écriture dans le processus de la sélection naturelle pourrait être que la société de l'Homo sapiens est devenue plus complexe à cause des développements technologiques et sociaux (l'agriculture et l'élevage, l'établissement de bourgs, le partage du travail, l'élaboration de lois – et de tabous – afin de contrôler la croissance de la population), et qu'il y avait une “surcharge d'informations néolithiques” qui pouvait seulement être résolue en les sortant de la mémoire. Si l'écriture est apparue sans que la capacité crânienne ne grossisse, qui, au prime abord, pourrait être une solution, cela peut être expliqué par le fait qu'à cause du pouvoir limité de support du squelette, les restrictions se trouvent dans la croissance du crâne humain (déjà mal équilibré).

J'ai déjà remarqué que l'invention de l'écriture a accéléré le développement culturel de l'humanité. Mais il a aussi pour résultat la quantité grandissante d'informations culturelles exponentiellement. Avec l'invention de l'imprimerie, l'augmentation graduelle de l'instruction parmi la population, et l'arrivée, au vingtième siècle, des nouveaux médias comme le cinéma, la radio et la télévision, la quantité d'information dans la vie humaine a atteint des proportions vertigineuses. Un journal moyen qui paraît le dimanche contient plus de mots qu'une personne très moyenne, vivant au dix-septième siècle, n'ait lus dans toute sa vie. Et ce développement continue très rapidement. Le directeur d'une entreprise moyenne a approximativement mille fois plus d'information à sa disposition qu'il n'en avait en 1980. On doit à peine discuter sur le fait que le développement d'Internet y a grandement participé. Quand on s'absente quelques jours, on trouve en rentrant des dizaines d'e-mails qui nous attendent et y répondre nous prévient en fait qu'on se met au travail (voir – pire encore – nous fait comprendre qu'une telle gestion de l'information est devenue notre véritable travail). En le voyant dans cette perspective, la solution néolothique (qu'est l'écriture) à la surcharge d'information préhistorique devient finalement pire que le problème. Les statistiques révèlent qu'ils sont de plus en plus soumis à un excès d'informations – dans beaucoup d'entreprises, le stress et la dépression sont souvent choses normales. Les demandes de ralentir apportent peu de réconfort car notre société est devenue si complexe que nous devons continuellement traiter un flot incessant d'informations pour survivre – en tant que société, et non nécessairement en tant qu'individu.C'est sur cette toile de fond que nous devons voir les développements spécifiques de la technologie de l'information. Une simple augmentation de la complexité sociale et technologique a mené la société néolithique à un développement fondamental de la mémoire, donc, à son tour, la croissance exponentielle, à l'époque des technologies de l'information et de la communication, a l'air d'encourager le développement fondamental dans la sélection et l'analyse de l'information valable. Et une fois de plus, il y a une information qualitative dans notre gestion cognitive de l'information. Je vais l'illustrer en citant quelques développements frappants dans la technologie de l'information.

 

5 Agents intelligents et systèmes experts

Dans un certain sens, l'ordinateur peut être simplement cnnsidéré comme la continuation de la mémoire du livre par d'autres moyens (numériques). Pour comparer avec le papier, la mémoire numérique de l'ordinateur (sous formes de mémoires mortes (ROM), disques durs, CD-ROMs, etc.) a une énorme capacité de stockage. Et lorsque ces derniers sont reliés tous ensemble par le biais d'un réseau hypermédia, un univers prodigieux d'information se crée. A l'époque de l'écriture, le web contient plus d'un milliard de pages d'information, et plusieurs milliers s'ajoutent chaque jour. Ceci est une source d'information incroyablement riche. Mais encore plus qu'un livre, l'ordinateur, en tant que mémoire externe, semble nous poser un énorme problème. Le fait qu'en 0.07 seconde, un moteur de recherche comme Google affiche les résultats d'une demande de recherche pour des pages qui contiennent les mots “surcharge d'information”, est bien sûr formidable, et le fait que dans ce très court espace de temps, Google n'ait pas trouvé moins de 22 300 000 pages, est très impressionnant, mais en même temps, c'est aussi un peu déprimant.

Cependant, l'ordinateur trouve des solutions “homéopathiques” à ce problème possible, en combattant les conséquences négatives de la technologie avec encore plus de technologie. Contrairement au livre, l'ordinateur n'est pas seulement une mémoire externe – il peut aussi simuler toutes sortes d'actions et de processus, y compris un comportement humain intelligent, comme la sélection de l'analyse de l'information. Tandis que le texte ne comprend que des produits statiques de la pensée humaine, l'ordinateur rend l'expansion du processus de pensée possible en soi. Dans un certain sens, ceci est déjà arrivé avec un moteur de recherche relativement simple comme Google. De toute façon, cela m'épargne une bien plus grosse déprime en me soulageant la tâche de passer au peigne fin un millier de pages pour chercher les 22 300 000 pages qui parlent de la surcharge d'information. Mais ce serait encore mieux, bien sûr, si sur ces 22 300 000 pages, le programme puisse sélectionner avec précision les pages qui contiennent l'information que je cherche. A cet égard, les moteurs de recherche d'aujourd'hui sont encore assez primitifs. Ils peuvent traiter la logique booléenne, et l'utilisateur, qui est adroit dans la combinaison des termes de sa recherche avec les opérateurs “et”, “ou” et “pas”, peut rapidement réduire le nombre de “points” et s'assurer qu'il ne reste que l'information recherchée. Des programmes de recherche “plus intelligents”, connus sous le nom de agents intelligents ou softbots, peuvent aussi apprendre, par exemple, en se souvenant de quelle information l'utilisateur garde finalement et en tenant compte de cela pour les recherches suivantes. Par exemple, un universitaire qui a auparavant cherché des informations qui étaient proposées par des collègues, va souvent marquer les pages dont l'adresse se termine par .edu, ce qui va permettre au moteur de recherche, lors de la prochaine recherche, de l'utiliser comme un critère de sélection. On peut rendre le programme de rdcherche encore plus utile en lui permettant de chercher automatiquement les mêmes entrées dans d'autres langues, ou, à l'aide du principe de la propagation d'activation, afin de chercher des concepts contigus. Dans ce cas, le programme de recherche se divise en une série de roaming assistants qui drague le web à l'aide de diverses entrées. Cela dépend de la réaction de l'utilisateur, s'il renforce ou combine ces différentes recherches, ou bien s'il les laisse “mourir” peu à peu. D'autres agents intelligents sont capables d'échanger mutuellement des informations, ou, par le biais d'un e-mail, d'informer l'utilisateur que de nouvelles informations pertinentes ont été trouvées. On trouve aussi des agents intelligents dans des programmes de messagerie électronique qui, par exemple, suppriment les spams de la boîte de réception et peuvent même faire des correspondances simples.

Les systèmes experts sont des programmes informatiques qui, comme un manuel, forment une base de données de connaissances disponibles dans un domaine spécifique. Cependant, ce qui les distingue d'un manuel, c'est qu'ils contiennent aussi un moteur d'inférence, un élément du programme qui tire des conclusions sur les fondements de l'information stockée dans la base de données et sur la saisie de l'utilisateur. Par exemple, un système expert médical aide le médecin (ou le non-spécialiste) à faire un diagnostic et à prescrire les médicaments qui conviennent le mieux. Dans ces cas-là, non seulement la fonction mémoire, la sélection et l'analyse sont reliées à un instrument externe, mais elles tirent également des conclusions sur ce principe.Que l'on appelle les applications mentionnées ci-dessus “agents intelligents” ou “systèmes experts”, cela ne dissimule naturellement pas le fait que de tels programmes ne puissent pas encore être déclarés comme vraiment intelligents. Pour être considérés comme intelligents, l'exigence minimale serait qu'ils ne suivent pas seulement des règles pré-programmées, mais qu'ils puissent aussi s'adapter indépendamment à ces règles pour changer le domaine de la recherche ou les besoins de leur utilisateur. La recherche dans des programmes analogues avec une capacité autonome à apprendre – la recherche dans le domaine des réseaux neuronaux ou des algorithmes génétiques, par exemple – n'a jusqu'ici rencontré qu'un modeste succès, mais il semble effectivement indiquer la direction dans laquelle l'intelligence artificielle se dirigera dans le futur.

 

6 Le web en tant que super-cerveau

Il serait naïf de penser que l'évolution structurelle finira avec l'Homo sapiens actuel. On peut se demander si le développement des agents intelligents et des systèmes experts marque peut-être le début de l'étape suivante dans l'évolution. De plus, la question de la recherche dans l'intelligence artificielle classique ou des programmes informatiques est de seconde importance. Simplement comme dans le cas du livre, ce qui nous intéresse ici n'est pas tant la création de quelque chose qui fonctionne complètement indépendamment des humains, mais plus le nouveau type de développement externe de la structure cognitive de l'Homo sapiens.

Sous cet angle, nous devons aussi examiner les théories qui soutiennent que l'Internet se développera en super-cerveau. A première vue, avec ses millions de pages connectées par des hyperliens, l'Internet a effectivement quelque chose en commun avec le gigantesque réseau neuronal du cerveau humain, dans lequel de nouveaux liens sont continuellement établis entre les neurones, avec d'autres qui meurent. Les algorithmes se sont également développés, ce qui – par analogie avec le cerveau humain – renforce les liens fréquemment utilisés et affaiblit ceux moins fréquemment utilisés. A l'aide du principe de la transitivité, la construction de nouveaux liens peut être automatisée. Rien de cela, bien sûr, signifie que le “super-cerveau” peut en fait penser indépendamment de ses utilisateurs. Dans The World Wide Web as Super-Brain: from metaphor to model (Heylighen et Bollen 1996), Francis Heylighen et Johan Bollen de l'Univerrité Libre de Bruxelles ont avancé des propositions intéressantes au sujet du développement du “super-cerveau” et ce qui lui permet d'apprendre, mais ils n'oublient pas de signaler que ce n'est pas le cerveau en soi qui pense, mais les utilisateurs du web. Cependant, le pouvoir du “super-cerveau” réside bien dans le lien entre le web et les utilisateurs.

Heylighen et Bollen parlent d'expériences avec des interfaces intelligentes dans lesquelles les opérations de recherche dont dirigées par les pensées de l'utilisateur. Un réseau neuronal reçoit les ondes du cerveau de l'utilisateur par le biais de détecteurs et apprend à les interpréter au moyen d'un processus d'expérience. A l'aide d' “interfaces neuronales” similaires, et au moyen d'agents intelligents perfectionnés, les pensées de l'utilisateur pouvaient être communiquées au réseau pour ensuite retourner dans l'esprit de son utilisateur sous une forme enrichie. Dans une bonne interface, la limite entre le cerveau interne et le cerveau externe serait à peine ressentie. Quand votre chien est malade et que vous, connecté à un super-cerveau, vous pensez aux symptômes, alors le cerveau collectif afficherait immédiatement les explications possibles à ce comportement à travers les “yeux de l'esprit”.

A première vue, les théories comme celles de Van Heylighen et Bollen semble, dans une large mesure, être de la science-fiction plutôt que de la science. Cependant, les auteurs ont correctement montré que le matériel et le logiciel informatiques nécessaires existent déjà, bien que certains sous une forme rudimentaire.[9] De plus, ils soutiennent que le “web pensant” n'est pas affecté par un énorme obstacle qui a contrarié le développement de l'IA : les connaissances journalières demandées pour les actions intelligentes qui peuvent à peine être établies par des règles explicites et formelles. Dans le super-cerveau, ces connaissances sont apportées par les utilisateurs. Comme je l'ai fait remarquer ci-dessus, nous ne sommes pas ici concernés par le fait que l'intelligence artificielle marche indépendamment l'esprit humain, mais avec un nouveau développement de la structure cognitive de l'homme. Tout comme l'outsourcing, la mémoire crée un espace pour le développement des capacités analytiques nécessaires à la culture théorique, alors l'externalisation de ces capacités vers les agents intelligents et les systèmes experts reliés au super-cerveau vont indubitablement mettre en marche le développement de nouvelles capacités cognitives de l'humanité, bien que ce soit tout aussi difficile pour nous de s'en faire une idée, comme cela l'a été pour l'Homo sapiens archaïque de se faire une idée des capacités analytiques qui ont permis à Platon d'écrire ses dialogues.

Néanmoins, si nous essayons de réfléchir à dans quelles directions les nouvelles propriétés cognitives pourraient se développer, alors le passage de la culture orale à la culture écrite, mentionné plus tôt, offre un point de départ. Nous avons vu que, dans une large mesure, les caractéristiques spécifiques de l'écriture ont imposé le développement des capacités analytiques. En développant un système discursif externe de symboles, le réseau neuronal de l'esprit humain a été stimulé à penser logiquement et en série. Quelque chose de semblable s'est mis en place – à un niveau d'organisation plus élevé – dans le développement de l'identité humaine sous l'influence de la narration, ou de l'émergence de la religion chrétienne sous l'influence de l'écriture. Par analogie, on peut s'attendre à ce que, lorsque les nouvelles capacités cognitives se développeront, elles soient guidées par l'organisation de l'hypermédia. Comme jusqu'à la fin du dix-huitième siècle, l'éducation dans la culture écrite était ciblée sur les capacités d'apprentissage demandées pour les obligations de l'écriture – la grammaire, la logique et la rhétorique – un élément important de l'éducation future sera donc ciblée sur l'apprentissage des capacités par association avec le “super-cerveau” de l'hypermédia.

Premièrement, contrairement à la culture écrite, le procdssus de pensée, qui se met en place en symbiose avec l'hypermédia, ne sera plus essentiellement ciblé sur la formulation d'arguments ou de récits linéaires, mais plutôt sur un niveau plus abstrait d'espace multilinéaire et logique qui contient un nombre de chaînes d'arguments ou de récits. On peut déjà voir cette tendance dans la conception de médias interactifs comme des histoires et des films multilinéaires. Des programmes informatiques comme Movie Makers Workspace, créé par l'institut de technologie du Massachusetts (MIT), entraîne les créateurs des films complexes “à plusieurs fins” dans le contrôle de la continuité spatiale et temporelle de ses divers récits possibles. Et, tout comme les roaming assistants sur le partage du web, cette complexité de pensée dans des espaces logiques semble donc demander le développement de la “conscience parallèle” prédite par le futuriste Marinetti.

Au niveau d'une utilisation journalière de l'ordinateur, on peut aussi voir la parallélisation exprimée dans le principe dt traitement multitâches. Tandis que la nature périodique de l'ordinateur (qui réalise ses calculs un par un) a aussi, au départ,  été manifesté au niveau de l'interface – et en considérant que l'utilisateur de l'ordinateur pouvait également réaliser des tâches une par une – l'utilisateur actuel d'un Macintosh ou d'un PC sous système opérant Windows peut démarrer différents programmes dans des fenêtres séparées en même temps. Pour les connaissances de l'employé d'aujourd'hui, ce n'est pas inhabituel d'avoir des dizaines de fenêtres ouvertes et, par exemple, en même temps, d'être occupé à écrire un rapport et de mettre à jour un état de la situation financière qui l'accompagnera, de répondre à des e-mails qui affluent, de noter des informations dans son agenda et sur la liste des “choses à faire”, de vérifier le cours des actions et peut-être aussi de démarrer un programme qui contient des exercices pour combattre les microtraumatismes répétés. Bien sûr, on effectue souvent plusieurs tâches en même temps sans nrdinateur. Par exemple, quand on conduit une voiture, on peut garder un oeil sur les mouvements des autres, écouter un bulletin d'informations à la radio, penser à l'ordre du jour pour une réunion à venir, et songer à un match de tennis que l'on doit faire le soir même. Et, de manière inaperçue, le cerveau contrôle aussi des dizaines de fonctions physiques. En comparaison avec le “vrai” ordinateur, notre cerveau est un ordinateur “lent”, mais il est de loin meilleur que les ordinateurs séquentiels car les milliards de cellules du cerveau effectuent leurs calculs en parallèle.[10] Cependant, au moyen du traitement multitâches – la simulation d'un ordinateur parallèle sur une machine périodique – l'ordinateur nous permet de réaliser un nombre beaucoup plus grand de tâches complexes en même temps.Deuxièmement, penser en espace logique complexe et multilinéaire semble aussi provoquer une représentation du processus de pensée. Tandis que le développement du langage discursif a particulièrement stimulé la pensée linéaire et logique (qui se passe dans la moitié gauche du cerveau), la complexité des mondes virtuels semble s'occuper tout particulièrement de la production d'images parallèles dynamiques (qui se passe dans la moitié droite du cerveau). Il y a quelques années, lors de l'ouverture de la bibliothèque Waleus à Leiden, aux Pays-Bas, j'ai assisté à la présentation dans laquelle le développement de la relation mutuelle d'un nombre de sciences était illustré d'une façon fascinante. Une sorte de carte était affichée, sur laquelle chaque domaine scientifique était représenté comme un pays. La taille des pays représentait le nombre de publications faites dans ces domaines et les pays étaient situés plus proche les uns des autres selon le nombre de références mutuelles qu'il y avaient entre les domaines. En montrant ce développement dans une animation par ordinateur dans laquelle, par exemple, des pays étaient rassemblés ou noyés parmi les autres, un ensemble de relations complexes et de transformations qui exigerait und longue explication était présenté en quelques secondes au spectateur (Lisman, Goris, et Soest 1996).

 

7 La nostalgie dans le cyber espace

Il y a ceux qui pensent qu'externaliser notre pensée logique et séquentielle vers les ordinateurs est dangereux et, en analyse finale, inhumain à cause du fait que ce qui est considéré comme typiquement humain – faire nos propres jugements logiques basés sur des informations reçues – est rendu aux machines. Ils craignent que cela mène à des troubles des capacités analytiques humaines à peu près comme la calculette a diminué nos capacités arithmétiques mentales. Dans ce contexte de notre dépendance épistémique aux machines, le fait que nous soyons de plus en plus dépendants aux agents intelligents et aux systèmes experts, va aussi mener à un débaBien que les dangers indiqués ne soient pas hypothétiques et les inconvénients formulés doivent donc être pris au sérieux, il me semble raisonnable de se rappeler que dans Phèdre, Platon a pratiquement utilisé les mêmes arguments contre l'écriture. Dans son dialogue, il critique l'écriture car en utilisant ce média, la mémoire, qui est véritablement le pouvoir humain dominant dans la culture orale, est transférée vers un média qui n'est pas humain. En outre, Platon exprime son inquiétude envers les effets inverses de l'écriture sur la mémoire. Cependant, l'ironie c'est que sans cette externalisation (outsourcing) de la fonction mémoire vers l'écriture, la culture théorique, dont Platon fut un des fondateurs, n'aurait pas pu se développer. J'ai fait remarquer ci-dessus que l'on peut s'attendre à ce que l'outsourcing de nos capacités analytiques soit compensé par le développement de nouvelles capacités cognitives. Comme avec tout développement évolutionniste, il y aura un prix à payer pour ce développement de la structure cognitive. Mais cela ne le rendra probablement pas moins inévitable.

 

Jos DeMulTraduction française :

Anne Mouyart

Références

Bolter, J.D., Writing space: The computer, Hypertext and the History of Writing, Lavrence Erlbaum Associates Inc, Hillsdale, 1991.

 

Brunet, Michel, et al., "A new hominid from the Upper Miocene of Chad, Central Africa", in Nature 418, 2002.

 

Cavalli-Sforza, L. L., et Francesco Cavalli-Sforza, The Great Human Diasporas: the History of Diversity and Evolution, Reading Mass.: Addison-Wesley, 1993.

              Version française : Qui sommes-nous ? Une histoire de la diversité humaine, Ed. Albin Michel (coll. Sciences d'aujourd'hui), Paris, 1994.

 

Donald, Merlin, "Précis of Origins of the Modern Mind: Three Stages in the Evolution of Culure and Cognition", in Behavioral and Brain Sciences 16:737-791, 1993.

              Version française : Les origines de l'esprit moderne : Trois étapes dans l'évolution de la culture et de la cognition, Ed. De Boeck Université (Coll. Neurosciences et cognition), Traduction : Christèle Emenegger, Francis Eustache, 1999.

 

Heim, M., Electric Language: A Philosophical Study of Word Processing, Yale University Press,  New Haven/London, 1987.

 

Heylighen F. & Bollen J. (1996) "The World-Wide Veb as a Super-Brain: from metaphor to model", in Cybernetics and Systems '96 R. Trappl (ed.), (Austrian Society for Cybernetics).p. 917-922. Format PDF : http://pespmc1.vub.ac.be/Papers/WWW-Super-Brain.pdf

 

Leakey, Richard E., The Origin of Humankind, Science Masters Series, New York: BasicBooks, 1994.

              Version française : L'Origine de l'humanité, Hachette Littérature (coll. Sciences), Paris, 1997.

 

Levinson, Paul, Digital McLuhan. A Guide to the Information Millennium, Routledge, New York, Londres, 1999.

 

Levy, S., Artificial Life: The Quest for a New Creation, Penguin, Londres, 1992.

 

Lisman, J.J.W., G. Goris, et J.G. van Soest, eds., Van kennis naar informatie: Van informatie naar kennis, Boerhave Commissie, Leiden, 1996.

 

Ong, W., Orality and Literacy: The Technologizing of the Word, Methuen, Londres, New York, 1982.

 

Parry, Milman, and Adam Parry, The Making of Homeric Verse: the Collected Papers of Milman Parry, Clarendon Press, Oxford, 1971.

 

Toffler, Alvin, The Third Wave, 1st ed, New York: Morrow, 1980. Version française : La Troisième vague, Gallimard, 1988.

 



Notes

 

[1] L'aperçu, ci-dessus, du développement de la famille des hominidés est extrait de L'Origine de l'humanité de Richard Leaky et de Qui sommes-nous ? Une histoire de la diversité humaine de Cavalli-Sforza. Mais en raison du manque de preuves physiques (selon Leaky, les découvertes paléontologiques cruciales pourraient être posées sur une grande table), retracer l'histoire des hominidés demande beaucoup d'interprétation. Les recherches des dernières décennies sur l'évolution anatomique de l'homme ont été complétées par les recherches stratigraphiques (pouvant dater l'âge des strates de la terre dans lesquelles les découvertes paléontologiques ont été faites), par le Carbone 14 pouvant dater les restes d'ossements, par les découvertes archéologiques et, entre autres, par la recherche en biologie moléculaire dans l'évolution génétique de l'homme, longue étude disponible dans le livre dd Cavalli-Sforza. Bien que les diverses informations des recherches ne concordent pas dans chaque détail, la convergence est remarquable. Cela augmente la plausibilité de la reconstruction et a mené à un large consensus concernant le cours global de l'évolution de l'homme.

 

[2] Au cours de l'été 2002, la revue Nature a annoncé la découverte, au nord du Tchad, du plus vieil hominidé jamais découvert. Cette espèce, baptisée Sahelanthropus tchadensis (Toumaï, officieusement), a été datée comme âgée de presque 7 millions d'années – proche de la division des anthropoïdes et des hominidés – et son crâne a une capacité de 380 cm³. (Brunet et al. 2002)

[3] L'étude la plus large de Donald sur l'évolution cognitive s'associe avec plusieurs des disciplines pertinentes mentionnées ci-dessus. Une telle approche éclectique apporte, bien sûr, toujours avec elle le danger d'un dilettantisme, qui est difficile de juger pour celui qui n'est pas spécialiste. Cependant, en considérant les éloges presque unanimes des dizaines de spéchalistes dans le domaine propre à Donald, dans la revue Behavioral and Brain Science (cf. Donald 1993), on peut conclure que ce livre est un guide exceptionnel dans le domaine de la recherche sur l'évolution cognitive.

[4] Pour être complet, il faudrait prendre en compte ici que le volume du cerveau seul ne détermine pas le degré de développement cognitif. Ce n'est pas seulement le nombre de neurones qui est pertinent, mais aussi le nombre de connections entre eux. De plus, la relation entre le volume du cerveau et la taille du corps joue également un rôle.

 

[5] Ces trois auteurs, venant tous des sciences classées Alpha, se sont largement limités aux conséquences de l'introduction de l'écriture alphabétique. Cependant, l'introduction de l'écriture numérique n'était pas moins radicale.

[6] Une des expressions les plus explicites de cette vision du monde transformée se trouve dans les Métamorphoses d'Ovid, en particulier dans le mythe du démon marin Protée, qui pouvait supposer toute forme concevable.

[7] Dans la mesurd où l'identité humaine est influencée par les histoires, ce développement vers la fermeture narrative a aussi rapport à l'identité de l'individu moderne.

[8] En outre, le multimédia assisté par ordinateur a contribué à la création d'une vision transformative du monde, qui fait penser à cette culture orale. Une indication frappante de cette culture populaire est le retour remarquable de la métamorphose, par exemple dans la technologie informatique, connue sous le nom de morphing, qui rend possible des métamorphoses visuelles spectaculaires telles que, par exemple, celles de Michael Jackson dans le clip de Black and White.

[9] Le raisonnement de Van Heyglighen et Bollen a maintenant une dizaine d'années. Depuis, aux Etats-Unis, des systèmes de fonctionnement ont été créés pour permettre aux systèmes paralysés de faire marcher un ordinateur, bien que d'une façon élémentaire, au moyen de leurs pensées – ou, pour être plus précis : par des stimuli envoyés au cerveau et lus par un électroencéphalogramme.

[10] D'ailleurs, un des candidats de la “5ème génération d'ordinateurs”, par exemple, l'ordinateur optique et l'ordinateur organique autonome, est l'ordinateur parallèle qui, comme un être humain, peut réaliser plusieurs tâches en même temps de façon coordonnée. Selon des chercheurs, ce serait l'ordinateur quantique qui, d'une manière possible, pourrait réaliser cela, dans lequel les qubits représenterait plusieurs états entre 0 et 1 à n'importe quel moment dans le temps.

Nieuws

Deze website wordt momenteel vernieuwd

Vanwege de transitie naar Joomla 5 en de JA Teline V Magazine template is deze website voorlopig onder constructie. De meer dan duizend items die betrekking hebben op mijn publicaties, lezingen en media-optredens zijn weliswaar nog steeds allemaal te raadplegen, maar bij een deel (veelal oudere) items moeten tekst, afbeeldingen en/of audiovisuele clips opnieuw of alsnog worden toegevoegd. Klik voor details over de opbouw van deze website en het gebruik van de nieuwe database annex zoekmachine de LEES MEER button.

Nieuwe druk Kunstmatig van Nature: juni 2024.

Vanaf de derde druk verschijnt Kunstmatig van nature. Onderweg naar Homo sapiens 3.0 bij Uitgeverij Boom. Delen van dit boek behoren tot de VWO eindexamenstof Filosofie  2024 t/m 2028, die de vraag naar de mens in relatie tot wetenschap en techniek als thema heeft.

Onlangs verschenen

Boek van de dag

Doorzoek deze website

Contactinformatie