L’intelligence du texte

François Lermigeaux

Décrié ou non, il est acquis par tous qu’Internet est devenu lieu d’édition. On n’avance néanmoins guère dans les débats qui se déroulent ici et là sur le sujet. Pointée comme  » technologique « , encadrée d’une bardée de sigles au premier rang desquels il faut placer le délicieux TIC, la publication électronique de documents ou de textes devient pour certains une sorte d’étendard, à défendre coûte que coûte. Elle est en revanche pour les autres un objet dont il faut savoir dédaigneusement prendre ses distances, en prenant la pose convenue de celui qui n’a pas, celui qui ne voit pas, celui qui en est resté à, tout en l’accompagnant d’un autre sourire lui aussi convenu.

Que se rejoue, une fois encore, le bal stérile des anciens et des modernes n’a de quoi étonner personne, surtout lorsqu’il est question d’édition dont l’enjeu en terme de pouvoir – et de conservation de ce pouvoir – est loin d’être anodin. Si nous voulons défendre l’édition électronique, nous voudrions dire ici à quel point nous le faisons dans la plus parfaite et la plus consciente des indifférences. En somme, c’est le parti pris de la chose, un parti pris sans gloire et sans enthousiasme : nous sommes de toute évidence face à un outil dont il serait vain d’ignorer l’intérêt et tout aussi vain de vouloir en faire l’occasion d’une révolution épistémologique ou commerciale. Nous voudrions simplement interroger l’usage que nous faisons d’œuvres numérisées : que nous proposent-elles ? Pourquoi ne les lisons-nous pas ?

Tordons d’abord le cou à une vieille méfiance, qui tend à disparaître, mais dans la douleur : oui, la recherche a droit de cité sur Internet. En effet, de manière justifiée, la plupart des reproches concernant l’édition électronique tournent autour de l’impossibilité d’en qualifier ou d’en juger le sérieux (1). Tout cela est vrai, mais repose sur une erreur qui consiste à mesurer la pertinence de  » l’édition électronique  » à l’aune de ce que l’on trouve sur  » Internet « . Or, Internet n’a jamais été l’édition électronique, et c’est un peu comme si l’on tentait de mesurer l’intérêt de la Bibliothèque de la Pléiade en réfléchissant à tout ce que l’on a pu un jour imprimer de coquilles sur du papier. Il serait inutile de chercher à nier le fait évident que ce réseau est le règne du tout et du n’importe quoi, mais le réseau dans son ensemble est aussi un non lieu que nous n’utilisons dans notre langage que par facilité, Internet, c’est le moyen d’accès, non le contenu. Si tout document, le pire comme le meilleur, peut se retrouver un jour ou l’autre sur Internet, cela n’invalide en rien l’édition électronique. Tout d’abord, évidemment, parce que l’on est en droit d’imaginer que la situation ne peut que s’améliorer et que les éditions actuelles des textes littéraires, souvent fautives, vont progressivement être remplacées par de nouvelles, créées par des groupes de recherche volontaires ou par des institutions patrimoniales. Mais en ayant dit cela, on n’a pas pointé l’essentiel.

Les mauvaises copies sont gênantes, non parce qu’elles existent mais parce qu’elles sont disponibles et téléchargeables de manière transparente, comme placées sur un pied d’égalité, une horizontalité sans hiérarchie qui engendre une confusion et une indifférence qualitative troublante. Cet état de fait est souvent mis en évidence à partir de l’exemple des moteurs de recherche. Leur mode d’analyse, qui consiste à indexer aveuglément des pages de sites Internet, doublé du fait que le langage HTML ne comporte aucune information sémantique qui permettrait de qualifier les contenus indexés, fait que n’importe quelle requête renvoie des résultats insignifiants et parfois trompeurs. Homonymes, grands et petits sites, tous sont alignés sur nos écrans, laissant à l’internaute la délicate tâche qui consiste à trier, à valider de sa souris la  » bonne  » source d’information.

Mais cet exemple des moteurs de recherche est aussi le plus magistral contre-exemple que l’on puisse fournir à qui pense qu’Internet place tous les objets sur le même plan. Ainsi, le moteur de recherche Google est devenu l’outil favori des internautes justement parce qu’il est capable de hiérarchiser les pages qu’il indexe. Plus un site est référencé par d’autres sites, plus il apparaîtra comme une source d’information fiable aux yeux du moteur. Cet algorithme, appelé page rank (2), est donc un formidable outil de structuration d’Internet et contribue à modeler la masse informe du réseau. Le site qui fournira les meilleures versions de textes numérisés sera tôt ou tard celui qui sera référencé le plus souvent et se trouvera par conséquent placé en tête par les moteurs de recherche (3).

Une grande partie des reproches que l’on a pu faire aux éditions électroniques de textes était donc fondée sur l’absence temporaire de structuration du réseau, elle-même perçue en raison de l’existence d’outils capables de fouiller jusqu’à l’insondable les données textuelles. En effet, sans moteurs de recherche généralistes, personne ne se serait soucié de cet état de fait et personne n’aurait pu en faire l’expérience. Mais cet  » effet d’optique  » est en train de disparaître, non seulement par l’apparition de modes de recherche perfectionnés (4), mais aussi, tout simplement, par l’émergence de références partagées par tout une communauté – une topographie naissante, mais réelle, faite de favoris, de pages d’accueil et de carnets de liens. On est loin de l’état du réseau à ses premiers jours, celui où Altavista (5) permettait de  » surfer  » dans le désordre. Ce ne fut qu’un état transitoire, et nous oublions tous la vague au profit d’un parcours raisonné et balisé, celui de notre espace électronique, que nous cartographions de jour en jour. Nous circulons de plus en plus dans un espace familier, laissant dans l’ombre des pans entiers du réseau qui n’ont pour nous qu’une faible pertinence.

La question de la qualité scientifique des publications électroniques n’est donc pas un obstacle réel à leur existence. Les avantages, quant à eux, sont suffisamment nombreux pour convaincre les plus réticents. On insiste souvent sur la facilité de la procédure et surtout sur le faible coût d’une publication numérique. Ces facteurs sont décisifs parce qu’ils ouvrent des perspectives nouvelles : des travaux pointus, destinés à un public confidentiel, peuvent dorénavant être mis à disposition de toute une communauté de chercheurs. Nous avons tous déjà fait l’expérience de cette nouvelle proximité d’avec les sources, telle thèse étrangère que nous avons citée, telle base de données qui nous a permis d’établir avec précision une intuition que nous n’aurions jamais eu la force de vérifier. Les études littéraires trouvent là l’outil qui vient pallier, avouons-le, nos paresses ou nos imprécisions. La publication électronique est donc avant tout un formidable outil d’investigation pour la recherche, et l’on est en droit d’en attendre des retombées importantes en terme d’accès aux données.

Étrangement, cela vaut surtout dans le domaine de la critique, car si le commentaire se trouve de plus en plus dans le prolongement direct de notre bureau, en revanche les œuvres demeurent sagement rangées dans nos rayonnages : elles s’y trouvent mieux, et nous-mêmes y trouvons plus facilement nos intuitions que devant leurs copies numériques (6). Cet état de fait n’est pas seulement dû à l’état médiocre des éditions d’œuvres littéraires. La cause est peut-être plus profonde et plus obscure en même temps.

En réalité, quel est le travail éditorial proposé pour les œuvres littéraires sur Internet ? Quel que soit le site auquel on se réfère, au mieux nous aurons le choix de télécharger le texte intégral en différents formats, du fichier ASCII au fichier HTML ou RTF. En ligne, nous disposerons d’un moteur de recherche permettant, comme dans le cas de l’ABU (7), d’obtenir une table générale des fréquences, ainsi que le résultat, en contexte immédiat, d’une recherche précise. En somme, ces outils sont une autre manière de feuilleter le texte, d’aller chercher une citation oubliée ou de construire des statistiques que seule l’informatique permet. Mais dans tout cela, rien ne vient faciliter l’acte de lecture  » classique « , et c’est donc tout naturellement que le livre reste l’outil préféré pour étudier, annoter ou tout simplement lire de bout en bout. L’écran, lui, semble ne pas nous inviter à une telle traversée et, si le texte numérisé s’ouvre à des pratiques différentes et nouvelles, il se refuse à être lu.

Qu’en est-il des œuvres qui font l’objet d’une publication plus soignée et plus sophistiquée ? Cette fois-ci, le texte se livre avec des outils perfectionnés : liens qui permettent de circuler à l’intérieur de l’œuvre, index, notes diverses qui viennent éclairer le texte, possibilité de commenter ce texte, parfois même une certaine profondeur chronologique comme c’est le cas des éditions hypertextuelles et génétiques. La surface du texte s’est vu adjoindre tout un appareillage de sens qui sont autant de portes d’entrée – ou de sortie – pour notre compréhension. Pourtant, l’édition, même hypertextuelle, n’est que rarement le lieu de la connaissance et du commentaire. Le chercheur vient ajouter sur le texte numérique une intuition née d’une lecture sagement faite dans son bureau. Plus qu’objet de lecture, le corpus numérisé tend à devenir somme encyclopédique, base de données concentrant et reliant ce qui a déjà été produit autour du texte. C’est le règne du commentaire alors qu’on pensait sacraliser le texte. Ainsi, le projet HyperNietzsche (8) s’articule autour d’une base de données très complexe, codant, grâce à cet outil, les relations qui existent entre les  » matériaux  » (les œuvres de Nietzsche) et les  » contributions  » qui sont les textes ayant été inspirés par les œuvres : de la traduction à l’analyse à la transcription des manuscrits. Cette structure permet à tout moment de connaître les contributions qui font référence au passage de l’œuvre consultée sur le site. L’HyperNietzsche se présente dès lors comme un espace rassemblant et reliant entre eux tous les commentaires sur l’œuvre du philosophe, mais probablement pas comme un espace de lecture. Le même constat est applicable au projet de l’édition des œuvres de Dante (9): le texte est littéralement submergé par les liens qui renvoient aux commentaires, aux notes philologiques, aux images et même aux lectures audio du texte.

Que codent ces ensembles très complexes de liens ? Ils ne sont guère différents, par nature, des marginalia, de nos notules, de nos coches ou de nos fiches. Ils n’en diffèrent que par leur rectitude et leur capacité à ne pas oublier. Ce n’est pas rien, mais ce n’est pas assez pour susciter de notre part la lecture que nous réservons à des pages imprimées. En d’autres termes, si les œuvres hypertextualisées deviennent des conservatoires de la recherche ou des entrepôts de données, c’est que le codage que nous avons adjoint au texte édité ne reflète que notre propre capacité à les commenter. Nous n’avons pas fait parler le texte, nous l’avons habillé de nos analyses et préparé de telle sorte qu’il puisse les intégrer et porter les traces de notre propre activité de commentateur.

L’appareillage critique de l’édition hypertextuelle nous invite alors à une navigation de commentateur et nous passons d’une contribution à une autre, d’une précision à une autre, les liens et les ancres sont des appels plus forts que les appels de notes : c’est un peu comme si l’on prenait le parti de lire d’un coup l’ensemble des notes en bas de page d’une édition papier. Notre circulation à l’intérieur de ce qui entoure le texte étant facilitée, nous voilà conduit à une lecture de la déconstruction moins sensible au maillage du texte qu’à celui de nos additions savantes. En ayant codé essentiellement les liens qui existent entre l’œuvre et ses commentaires, nous l’avons subordonnée, évacuant du même coup la possibilité d’une lecture simple, qui est justement celle dont nous avons besoin pour la commenter. En somme, le commentaire présenté comme périphérique – mais éminemment plus accessible – appelle le méta-commentaire, mais non le retour aux sources. Si cet enfermement n’est ni effrayant ni même surprenant, il est à nos yeux une manière d’expliquer pourquoi le livre reste ce lieu où nous élaborons nos hypothèses. Nous avons besoin de nous enfermer dans l’intelligence d’un texte linéaire et figé pour que notre lecture devienne réflexive.

Peut-il, malgré tout, y avoir une  » rencontre électronique  » entre le lecteur et l’œuvre ? Pour l’instant, les exemples manquent, mais il y a de la place pour d’autres projets d’éditions hypertextuelles dont la force consisterait à mettre le lecteur au centre du texte et à placer au contraire le commentaire au second plan. Car si la numérisation apporte des fonctions nouvelles et remarquables au critique, pourquoi ne pourrait-elle pas aussi permettre d’approfondir et d’enrichir l’expérience de la lecture ? Il faudrait pour cela établir un codage serré des contraintes que forme le texte lui-même, un codage né d’études sémantiques, narratologiques, stylistiques, et qui fasse apparaître à la surface les liens du texte avec lui-même, sa construction et, dans le même temps, ses forces de dissension.

Il faudrait aussi s’abstraire de la linéarité des liens pour permettre à un même élément de pointer selon la nature de la relation vers divers éléments : le prochain portrait, la prochaine apparition d’un personnage, le prochain passage comportant un lexique voisin ou la même situation narrative.

Ce travail revient en somme à coder le sens du texte et de son organisation ; il est une manière de rendre lisible numériquement ses arêtes, son découpage et le tissu d’échos et de résonances sur lequel toute œuvre s’appuie. Tout cela peut sembler vain, probablement parce qu’aucune édition sur papier ne s’est jamais donné un objectif semblable. L’édition électronique perdrait pourtant beaucoup si elle demeurait une simple archive de nos recherches. Dans ce domaine, tout reste à inventer, mais en codant la structure du texte, le lecteur trouverait une place nouvelle. Ce serait justice que les éditions numériques, après avoir archivé les commentaires, se mettent au service de l’intelligence du texte pour nous permettre de tourner les pages nouvelles d’œuvres anciennes.

NOTES

1. Andrew Oliver en a fait un état des lieux complet dans  » Us et abus de l’informatique et d’Internet en littérature « , Histoires littéraires, n° 7, 2001.

2. Voici la description qu’en donne le site Google :  » Le principe de PageRank est simple : tout lien pointant de la page A à la page B est considéré comme un vote de la page A en faveur de la page B. Toutefois, Google ne limite pas son évaluation au nombre de « votes » (liens) reçus par la page ; il procède également à une analyse de la page qui contient le lien. Les liens présents dans des pages jugées importantes par Google ont plus de « poids », et contribuent ainsi à « élire » d’autres pages. « 

3. Google n’est pas le seul concerné : les annuaires de liens, comme Yahoo, ont, eux aussi, pris l’habitude de ne plus enregistrer que des sites qui remplissent certains critères de  » sérieux  » (difficile maintenant d’y soumettre un site qui ne possède pas son propre nom de domaine).

4. Bien entendu aussi grâce à l’émergence de nouveaux standards de description de contenu, le plus souvent construits à partir du langage XML.

5.Altavista a été un des premiers moteurs de recherche sur Internet.

6.Exception faite, bien entendu, de recherches qui s’appuient massivement sur l’informatique, comme la lexicométrie.

7.Association des Bibliophiles Universels : http://abu.cnam.fr/

8.www.hypernietzsche.org/

9.The Princeton Dante Project : www.princeton.edu/dante/