Bavardages sur une lente révolution numérique


Jean-Pierre Depetris
, Le 26 décembre 2013


De la facilité de construire un site

La plus simple façon de construire un site consiste à ouvrir son traitement de texte, y faire un jeu de pages : accueil, liens, plan du site, etc, avec des liens internes et externes, exporter tout ça en HTML dans un dossier, puis de finaliser avec un éditeur de pages web. Il y a encore douze ans, il ne se passait pas un mois sans qu’on en trouve dans une revue informatique la méthode illustrée sur quatre ou six feuillets.

Quand on souhaite ajouter une page à son site, ou même un département entier, on fait la même chose : on édite sa ou ses pages dans son traitement de texte, on exporte, puis on finalise dans un éditeur. Si l’on est un perfectionniste, on apprend à corriger le code, sinon, on s’en contente. N’importe quel client FTP suffit alors pour exporter le site chez un hébergeur, dont les meilleurs offrent bien souvent leurs services gratuitement.

J’ai compté qu’il m’avait fallu vingt heures sans m’arrêter pour apprendre à faire mon premier site avec le manuel à côté de moi. C’était à peu près le temps d’un stage d’initiation sur une semaine. Vingt heures pour faire un petit site minable et mal codé, mais tout à fait opérationnel et bien utile. À partir de là, on peut prendre tout le temps qu’on souhaite pour perfectionner et apprendre davantage selon ses besoins, en pratiquant.

On peut rechercher la beauté, ou, comme moi, à réconcilier les exigences de la mise en page sur papier avec celle du web ; on peut choisir le plus simple sans fioritures, comme le font beaucoup de hackers ; on peut choisir de soigner le code, ou se contenter que ça marche ; les navigateurs sont laxistes. Dans tous les cas, faire un site est très simple et demande peu d’investissement de quelque sorte. C’est aussi dans la suite logique de tout ce qu’on peut faire avec un ordinateur, et qu’on a toujours quelques raisons de partager.

Il ne s’agit pas bien sûr de partager avec tout le monde sous prétexte qu’il n’y a plus un nombre fini d’exemplaires édités ; le monde entier ne passera certainement pas sur nos pages, et ceux qui y tomberont par hasard ne s’y attarderont pas. Ne passeront que ceux qui nous cherchent, ou cherchent autre chose de précis. Cela peut créer d’intéressantes rencontres, comme des retrouvailles ; mais on peut aussi réserver certaines pages à ceux-là seuls qui en recevront le mot-de-passe.

Mais à quoi sert-il de faire un site ? Il n’y a pas de réponse universelle ; les raisons sont variées et infinies. La première pourrait être au moins de ne pas surcharger ses courriels de pièces-jointes, et utiliser plutôt des liens. Tout ce qui peut être partagé se trouve beaucoup mieux en ligne.

D’une incompréhensible récession

À la fin du siècle dernier, n’importe qui paraissait capable de faire un site web. Tout le monde semblait savoir se servir d’un logiciel de courrier, et, au besoin, s’inscrire sur une liste. Je vois pourtant depuis dix ans des sites disparaître de l’internet, comme si des gens ne savaient plus les maintenir, ou n’en voyaient plus l’intérêt. Les listes de diffusion semblent aussi receler pour plus d’un de nouvelles et incompréhensibles difficultés pour s’y inscrire, et commencent à disparaître au profit des forums pourtant moins pratiques.

Il est surprenant que personne n’ait semblé percevoir la révolution qu’impliquait de telles possibilités, et que si peu de gens songent à s’en servir. Il est difficile de comprendre pourquoi tant de ceux qui s’en servaient semblent aujourd’hui y avoir renoncé. Je conçois qu’il soit aujourd’hui plus difficile de faire un site qu’il y a quinze ans. Il est apparu le HTML4, puis 5, et le transitionnel, et le XHTML, et les CSS, et le PHP, qui peuvent compliquer l’exportation et la finalisation dans un éditeur. On trouve moins de guides, et plus d’invitations à se tourner vers des solutions plus limitées de partage en ligne ou de blogues qui peuvent suffire à beaucoup ; mais il n’est pas plus difficile de maintenir son site et même d’en construire d’autres quand on en a déjà fait un. Il me semble même que, malgré ses limitations, entretenir et personnaliser un blogue soit bien moins commode.

Cette disparition de sites qui entraîne une obsolescence des liens est préoccupante, même s’il ne s’agit pas de reprocher à quiconque de faire disparaître ce qu’il a publié, si du moins il en est le réel responsable. Pour autant, l’assurance d’une certaine pérennité des contenus du web est un enjeu important, bien plus décisif en réalité que l’assurance de pouvoir supprimer des données qu’on regretterait d’avoir rendu publiques.

De l’auteur et de son autorité

J’ai commencé à pressentir la révolution qu’impliquaient ces nouveaux pouvoirs en songeant à la revue que je publiais, ATC. Inspiré par Roland Caignard et sa revue Co/incidence, j’ai eu l’idée de publier une revue sur disquette. C’était vraiment facile à gérer. Quand je recevais une commande, je glissais l’icône sur une disquette, je collais l’étiquette que j’avais imprimée, je glissais la disquette dans une enveloppe affranchie et je la déposais à la poste en même temps que le chèque reçu.

Il était plus simple encore d’éditer en ligne. C’était même si simple qu’il n’y avait plus aucune raison de demander un chèque en retour. À cette occasion j’ai d’ailleurs remarqué qu’on n’avait jamais payé un travail intellectuel en tant que tel, mais en proportion du coût de son support. Il est vrai que payer un homme de lettre, un artiste, un savant pour son travail laisserait entendre qu’on achèterait ce dernier pour s’en faire le propriétaire ; qu’on s’en approprierait en quelque sorte l’autorité. C’est justement à ce moment aussi que j’ai entendu parler du copyleft. Il m’est alors apparu évident que si l’auteur voulait garder une moindre chance de conserver son autorité et le contrôle sur son travail, la seule solution était le copyleft.

Ma réflexion ne s’est cependant pas arrêtée là. Presque tous ceux que je publiais avaient un site, et bien souvent, j’y avais lu ce que je republiais. Y avait-il alors encore beaucoup de sens à publier ce qui l’était déjà ? J’ai imaginé éditer un numéro spécial qui ne serait composé que de liens vers des ouvrages en ligne. J’ai abandonné cette idée car personne ne l’avait trouvée bonne. En réalité, elle l’était : publier périodiquement une sélection de liens, avec un éditorial et de courtes présentations.

À partir de là, on pourrait imaginer que tous ceux qui seraient ainsi publiés aient la même idée. À vrai dire, c’est l’idée du web elle-même. Je réinventais l’eau chaude. Je venais de réinventer le web, la bibliothèque Xanadu de Ted Nelson1, qui n’est pas, par certains côtés, sans rappeler la machine du Monde des de Van Vogt : machine dont les énigmes ne seraient alors que les arcanes de son usage ; et le monde auquel elle donnerait droit d’entrer, son usage lui-même.

Depuis, rien n’est plus fascinant que la profusion des techniques destinées à résister à ces possibles. Quasiment tout ce qu’on appelle nouveautés est le produit de ces résistances. Elles sont diverses, mais ne semblent avoir que ce point commun : la peur de perdre ses « protecteurs ».

De l’édition comme moment de l’écriture

Jusqu’alors, publier semblait obéir à une simple logique : mettre un ouvrage à la portée d’un nombre fini de lecteurs. Le nombre en est fini puisque l’impression n’est pas illimité. Cette mise à disposition a un coût parfaitement calculable, puisque le tirage est fixé, et l’on tente de le répartir par avance entre tous les lecteurs. La plus grosse partie de ce coût concernait la distribution, et il n’a cessé de grossir en proportion pendant que l’évolution des techniques faisant baisser le prix de l’édition et de l’impression. Avec l’édition en ligne, il n’y a soudain quasiment plus de coût.

On écrit directement avec un traitement de texte, qui se révèle un outil irremplaçable pour corriger, réécrire, organiser… Il est en même temps un outil d’édition. Un texte bien écrit et bien saisi peut partir directement chez un imprimeur. L’édition elle-même n’est pas un moment distinct de l’écriture. Il n’est qu’à voir combien des auteurs ont travaillé sur leurs épreuves (Proust), voire sur leurs éditions successives (Montaigne). Avec un traitement de texte, un tel travail peut être poursuivi indéfiniment en ayant toujours sous les yeux une édition impeccable.

Déjà à ce stade, le procès d’écriture est profondément changé. Il est possible encore d’exécuter un tel travail à plusieurs mains, et l’on peut toujours conserver les traces des modifications successives. Le procès d’écriture aboutit alors à un texte immédiatement édité. Non publié peut-être, mais édité, dont le fichier peut-être exporté tel quel pour être imprimé ou publié en ligne.

Il y aura peut-être encore un petit travail pour mettre en page le texte conformément au format du papier et au choix des polices, ou encore pour l’adapter à un site, mais si tout a été fait jusque-là dans les règles de l’art, ce sera un travail simple et rapide, à la portée de celui qui sera déjà arrivé à ce point. Dans tous les cas, on ne voit pas en quoi l’auteur aurait besoin de tiers pour y parvenir, aurait besoin d’un éditeur qui soit autre chose qu’un bon programme.

Tout ce qui précède est relativement facile à accomplir et s’apprend sans peine. Un peu de rigueur est nécessaire, mais pas plus que pour apprendre la conduite automobile et le code de la route. Il suffit d’en avoir l’usage et de pratiquer.

Ne pourrait-on pas préférer payer quelqu’un pour faire ce travail à notre place, quelqu’un, par exemple, pour saisir ce qu’on écrit à la plume ? Bien sûr, mais ce ne serait peut-être pas très avantageux, quand on sait combien un auteur corrige en recopiant, ou en saisissant directement au clavier. Ce serait perdre toutes les ressources qu’offre un bon traitement de texte. Ne pourrait-on pas se contenter alors de saisir comme un cochon pour laisser ensuite corriger le fichier par un autre ? Non plus, car si d’une part corriger un fichier mal composé peut-être plus coûteux que de le saisir à nouveau, ce serait surtout perdre toutes les ressources qu’un traitement de texte offre à l’écriture, la composition et la réécriture : seul un fichier bien édité rend possible le plein usage d’un traitement de texte.

De la nouvelle et paradoxale fonction des maisons d’édition

Cette nouvelle situation change la fonction du livre et de l’édition au moins autant que la photographie a changé la peinture. La photographie rendait vaine la capacité de reproduire un paysage réaliste ou d’exécuter un portrait ressemblant, mais elle rendait manifeste aussi que la fonction de la peinture ne s’y réduisait pas. Elle contribua incontestablement à émanciper les peintres de la figuration. Pour autant, elle ne rendit même pas vaine la peinture figurative, jusqu’à ce qu’avec l’image numérique, la frontière entre la peinture et la photographie se soit complètement brouillée.

L’édition en ligne ne rend pas plus caduque l’imprimé que la photographie ne rend inutile la peinture et le dessin. Elle en révèle au contraire une signification plus profonde en l’émancipant de cette utilité immédiate. L’imprimerie n’est plus le seul moyen de mettre du texte à la disposition de lecteurs, mais quelle est son utilité plus profonde ? Cette question trouble profondément les professionnels, les maisons d’éditions, les revues, la presse. Ils se cherchent des raisons-d’être, et comme tous ceux qui se sentent contraints de se justifier, ils en trouvent de mauvaises. Ils se trouvent d’autant plus embarrassés qu’ils se font aussi éditeurs d’ouvrages numériques.

Une maison d’édition ou une revue se découvrent alors des fonctions de « passeurs ». Ils offriraient, si l’on doit les croire, une sorte de garantie concernant les ouvrages qu’ils publient. Évidemment, n’importe qui peut publier n’importe quoi en ligne, et c’est une toute autre affaire que de convaincre un comité de lecture ou de rédaction. C’est vrai, et alors ? Bien peu parmi les meilleurs y étaient parvenus dans les siècles passés, et ils avaient dû s’éditer eux-mêmes, ou bien faire du compte d’auteur, si ce n’est créer leurs propres revues et leurs propres éditions. Et après ?

Or il semblerait qu’au moment-même ou n’importe qui peut s’éditer lui-même à moindre frais, tous se tournent plus que jamais vers des maisons d’édition, et plus encore, suprême absurdité, vers des maisons d’édition en ligne. Plus que jamais, contre toute logique, n’importe quel auteur, confirmé ou non, s’en remet aux maisons d’édition pour en attendre reconnaissance et légitimation. Comment expliquer cela ?

D’un changement de paradigmes

Tous les paradigmes de l’édition ont été changés imperceptiblement, et, pour l’instant, l’époque tend plutôt à se crisper sur les anciens pour ne pas y réfléchir. Aussi, plutôt que de repenser l’édition imprimée à la lumière de celle en ligne, on cherche à plier cette dernière aux paradigmes de la première.

Nous sommes au milieu du gué, où cette inversion est encore possible. La lecture et l’écriture à l’écran commencent à peine à devenir confortables, notamment avec les tablettes de la taille d’un livre qui peuvent être utilisées n’importe où en n’importe quelle situation. Pourtant de gros problèmes d’interopérabilité demeurent et même se compliquent. On aimerait pouvoir utiliser n’importe quel système sur n’importe quelle machine, choisir ses outils, et synchroniser aisément son travail, par exemple continuer d’annoter sa lecture en passant de sa tablette à son ordinateur de bureau.

Ces questions laissent augurer que les tâtonnements actuels n’ont pas beaucoup d’avenir. Nos machines semblent bien trop intelligentes pour les usages superficiels qu’elles inspirent, comme les publicités en font une critique aussi ironique qu’apparemment involontaire. On peut cependant percevoir vers quoi conduit inévitablement cette marche erratique. Nager contre le courant n’empêche pas que l’essentiel soit déjà en place.

Écrire, lire, éditer, publier, relire, réécrire, rééditer, republier… sont devenus des processus sans fin qui sont de plus en plus entraînés à se confondre dans un même mouvement. Ce mouvement est évidemment appelé à demeurer collaboratif. On a du moins toujours le même intérêt à être relu et corrigé par d’autres, à avoir des comités de lecture ; mais cette collaboration n’a plus aucune raison de demeurer spécialisée, le rôle de chacun, fixé. La réédition perpétuelle des fichiers invite implicitement chacun à se faire un correcteur ; à se faire ce qu’on appellerait un béta testeur pour un programme.

Ce mouvement, donc, est appelé à demeurer collaboratif, mais aussi très personnel. Si chacun se fait tour à tour auteur, correcteur, éditeur, critique, voire professeur et élève… de chacun, il importe plus encore que si les rôles étaient définitivement fixés, d’identifier sans peine ce qui est dû à chacun. Il s’agit là bien moins d’une question d’équité que d’intellection : comprendre qui dit quoi à qui. L’époque cherche à réduire une telle question à l’économie et au droit, alors que l’identification de qui parle, d’où et quand, est une part intégrante de l’information.

Il est clair que nul ne sait encore très bien jouer à ce jeu qui nous est offert, ou que nous nous offrons de façon plus collaborative qu’on veut souvent le croire, et que, faute de savoir déjà le jouer, notre premier réflexe est de nous raccrocher au connu. On est enclin à se raccrocher plus que jamais à « la maison d’édition qui sait découvrir de nouveaux talents » et gérer « son écurie », au prestige universitaire, à la critique de presse et autres « secteurs en crise ».

Nous cherchons à marcher dans les pas déjà tracés sans songer qu’il y a à peine vingt ans, nous ne disposions pas dans notre bureau, si ce n’est dans notre sac à dos, de la plus grande bibliothèque, de la plus grande librairie, de la plus grande imprimerie et du plus grand salon littéraire du monde.

De l’imprimerie

L’imprimerie a été à l’origine de l’Occident Moderne. Elle était pourtant apparue bien longtemps avant et plus progressivement en Orient, où elle avait eu des effets bien réels. Ses effets ont été cependant plus impressionnants en Europe où elle a surgi brusquement. L’imprimerie existe depuis plus de cinq-cents ans en Europe alors qu’elle était apparue sept-cents ans plus tôt en Chine ; elle y demeure donc une technique récente et elle n’a cessé d’évoluer rapidement depuis. La quantité de livres, et plus encore de titres, s’est perpétuellement démultipliée, avec parfois des bonds soudains, généralement alimentés par les révolutions politiques ; et à partir de l’Europe, cette frénésie a entraîné le monde entier. Je ne m’encombrerai pas ici de chiffres, car ils ne doivent pas être très difficiles à trouver.2

Même sans l’internet, les publications imprimées de toute sorte allaient inévitablement vers un seuil qualitatif : un point où ce qu’avait été le livre et plus généralement l’écrit depuis bien avant l’invention de l’imprimerie et même du papier, allait devenir une chose qualitativement différente. Les livres, revues, journaux, mais aussi brochures techniques, catalogues, et toutes les formes imaginables d’impressions, aboutissaient à une profusion aux limites imprécises, proprement incontrôlable. La photocopie de qualité à bon marché est venu couronner cette évolution à la fin des années soixante-dix. À la même époque la publication assistée par ordinateur a fait chuter le prix de l’édition permettant de financer de toujours plus petits tirages, jusqu’au seuil du tirage à l’unité.

Ce phénomène est contemporain de celui de l’internet, les deux bénéficiant d’ailleurs des mêmes techniques numériques, mais ce serait une erreur de les confondre. Même sans l’internet l’imprimerie allait vers une implosion. Elle y allait aussi sous les effets de l’enregistrement du son et de la production cinématographique. D’un texte, on savait faire un film ; et d’enregistrements sonores, un livre, et cela même avec des techniques analogiques.

L’internet est apparu sur ce seuil qualitatif, mais il ne l’a pas provoqué, ni même profondément changé. Il lui apporte sans-doute des solutions, mais si l’on ne commence pas par le prendre pour le problème. Le monde de Gutenberg explosait de toute façon.

Face à cette catastrophe de l’imprimerie (au sens thomien), le numérique favorise plutôt la longue durée, le rythme de l’histoire des lettres et de la vie de l’esprit. Il est aisé de mettre la main sur des travaux en ligne, récents ou anciens, quand leurs impressions sont devenues inaccessibles, et cela arrive très vite avec les stratégies actuelles de l’édition, des librairies, et même des bibliothèques qui ne s’embarrassent pas de ce qui tarde à trouver des lecteurs. À l’inverse, les productions qui surviennent depuis cette « catastrophe » sont soumises à l’obsolescence de « l’industrie culturelle » et de « l’économie numérique ».

Des lettres comme réseau

Tout bibliothécaire connaît bien cette maxime qui est la première règle de la profession : « un livre mal classé est un livre perdu ».

Un livre fonctionne avec les autres livres, et l’on doit d’abord le trouver parmi les autres. On doit même pouvoir y trouver ce que l’on y cherche, références et citations. Bien avant l’internet, les livres ont toujours fondé un réseau, un net, un web : chaque livre communique avec d’autres.

Tout ce qui touche au livre implique classement et référencement. Jusqu’à quel point la profusion de publications peut se concilier avec la nécessité de classement et de référencement ? Il n’y a pas de réponse définitive à cette question qui ne dépende de l’ingéniosité des méthodes de classement. Aujourd’hui les moteurs de recherche de l’internet font des merveilles, quand bien même le web a toutes les apparences d’un incroyable foutoir. J’y ai plusieurs fois trouvé ce qui, imprimé, aurait été une aiguille dans une meule de foin, voire dans les meules d’une plaine entière.

Il me semble que même sans l’apparition de l’internet la diversité et le nombre des publications avaient atteint à la fin du siècle dernier un point où la profusion confinait à la disparition, selon le principe qu’un livre mal classé est un livre perdu.

Un problème de classement

On sait l’importance du classement des espèces. Rien n’était moins évident que de diviser le règne animal entre vertébrés et invertébrés. Les diviser entre gros et petits, ou entre sauvages et domestiques, aurait été moins riche d’enseignement pour l’évolution des espèces. Diviser les livres entre cartonnés et brochés n’est pas non plus très pertinent, pour clair que soit le critère. Les diviser entre littérature et essais est plus utile, malgré des limites moins nettes ; et ces limites deviennent plus problématiques en subdivisant encore.

Va-t-on ranger la Gradiva de Freud dans la critique littéraire ou la médecine mentale ? Ou la Part maudite de Bataille dans la littérature, l’économie, la religion, le marxisme, l’ethnologie ? Naturellement, ces problèmes insolubles pour ce qui est de choisir la place sur les étagères d’une librairie, peuvent donner cours à des techniques de classement plus fines, plus multidimensionnelles, mais jusqu’où ? La difficulté de classement conduit toujours à une limite : l’écrémage ; c’est-à-dire que la possibilité de trouver ce qu’on cherche en vient à se contenter de chercher ce qu’on sait où trouver.

Au sujet de l’écrémage

Face à une profusion dans laquelle on ne peut plus espérer s’y retrouver, que fait-on ? On choisit entre plusieurs stratégies : On va peut-être chercher ce qui semble surnager. On va peut-être aussi se fier à des tiers qui feront de premières sélections. Voilà justement la fonction que se donnent aujourd’hui les comités de lecture des éditions et des revues, les libraires, les critiques, successivement ; et voilà donc la raison qui fait que tout auteur se tourne désespérément vers eux à la recherche de reconnaissance et de légitimité, au moment même où ils entrent en crise et perdent leur raison d’être.

On peut encore limiter ses champs d’intérêt ; on se spécialise faute de pouvoir se donner une vue plus générale, que l’on lise pour se distraire ou pour faire de la recherche. On peut panacher les trois, ou en trouver encore d’autres. Dans tous les cas, on va vers ce que j’appelle un écrémage : tous les choix se concentrent sur quelques spécimens, qu’on dira « dominer les marché » dans le contexte commercial de la chose. On peut résumer le principe par « le gagnant prend tout », et observer comment il se retourne contre celui du web, revenant de l’interarchie à la plus stricte hiérarchie. Il draine vers un centre la gravitation qu’exercent une infinité de points, ramenant en quelque sorte un système newtonien à un système ptoléméen. (Je reviens sur ces questions dans les Six poignées de main et la surveillance globale.)

Il est tentant d’analyser comment à partir de là se crée une pensée dominante, une idéologie unidimensionnelle. Ce n’est pas ici mon souci. L’observation qui me frappe avec le plus d’évidence est que nous perdons alors tous les avantages que promettait la profusion. Alors que nous disposons virtuellement d’une quantité pratiquement sans limite de données, d’informations, de connaissances, nous nous condamnons à ne pouvoir que butiner à sa surface. J’observe aussi que l’internet qui nous permet de plonger réellement dans cette profusion pour en exploiter toutes les possibilités sans que nous soyons condamnés à nous y perdre, est artificiellement détourné par des procédés certes contournables, qui nous engluent sur une part de sa surface, et qui donnent au « tissage » (web) les propriétés adhésives d’une véritable toile d’araignée.

Essai d’une classification

Il existe d’autres façons pertinentes de classer les espèces vivantes qu’entre vertébrés et invertébrés. On peut les diviser aussi entre épineuriens (système nerveux au-dessus du système digestif) hyponeuriens (système nerveux au-dessous du système digestif) et quelques épithélioneuriens (principalement les échinodermes, oursins ou étoiles de mer, qui n’ont ni dessus ni dessous). Ce classement n’est pas très différent, car tous les vertébrés sont épineuriens, mais quelques épineuriens ne sont pas vertébrés. De là, on soupçonne que les vertébrés descendraient des épineuriens invertébrés. Plus qu’un seul ordre, le croisement entre plusieurs est intéressant, et c’est ce que favorisent les données numériques.

Le numérique et l’internet favorisent, non pas une meilleure hiérarchie, ni non plus une anarchie, mais plutôt une interarchie.

Si je devais faire dans les lettres des divisions aussi nettes qu’on en a faites dans le règne animal, je distinguerais d’abord deux formes de textes : ceux qu’on lit d’une traite sans annotations, et ceux qu’on ne sait lire que crayon en main. Je pourrais aussi faire une autre division qui recouperait largement la première : ceux qui s’écoulent d’une traite du début à la fin et dont les chapitres tiennent lieu de ponctuation plutôt que de construction ; et ceux qui sont accompagnés d’une table des matières et de notes, voire d’index. Ces deux divisions se recoupent largement, mais pas entièrement.

La seconde est objective et la première subjective : rien ne nous interdit d’annoter un roman, ni de lire un ouvrage technique du début à la fin, comme un roman à suspense. Rien même n’interdit de publier, ni même d’écrire un roman à suspense avec notes, index et dossier critique, mais dans ce cas, la distinction n’est plus subjective.

De la classification offerte par le numérique

Le numérique nous offre, lui, une classification toute-faite à travers les formats d’encodage et les types de programmes qui leur correspondent. Il ne s’agit plus alors d’un classement des textes, des contenus, des « œuvres de l’esprit, mais de leurs supports numériques (car il s’agit bien de support). Il en est trois principaux : le XML, le HTML et le PDF, et deux accessoires, TEX et EPUB.

1. Tous les traitements de texte utilisent aujourd’hui un code à base de XML, l’ODT (open document format) est quasiment adopté par tous. Microsoft Word, seul, utilise un format maison, mais comme il domine largement le marché, tous les autres traitements de textes doivent être capables de le prendre en charge, et il n’y a dont pas un format universel pour le traitement de texte. D’autre part, ce n’est pas parce que deux logiciels utilisent l’ODT qu’ils seront capables de prendre en charge tous les enrichissements. En attendant, l’ODT, et accessoirement DOC ou DOCX, sont les seuls formats qui permettent d’écrire, de lire, de corriger, d’éditer, d’exporter en toute commodité, par un seul utilisateur ou en groupe.3

2. Le HTML est le format standard du web, qui convient parfaitement à la lecture en ligne ou en local sur un navigateur, mais de ce fait, il ne permet pas de souligner, annoter ou marquer de quelque façon du texte. Le XHTML est une sorte de synthèse de XML et de HTML qui s’évertue à rendre les pages web plus interactives.

3. Le PDF est un format opaque et propriétaire, mais largement ouvert, conçu plutôt pour l’impression. Même sans l’imprimer il permet un usage similaire à la copie papier : marquer et d’annoter le texte, mais pas de le modifier.

(TEX ou LATEX auraient pu être une alternative pour les traitements de texte, permettant un meilleur accès au code source, mais les programmes qui le prennent en charge n’offrent pas un choix suffisant d’outils linguistiques. L’EPUB ne répond qu’à des objectifs d’éditions commerciales.)

On peut donc s’en tenir à trois types de formats qui correspondent à trois types de programmes : traitements de textes ; éditeurs de textes et navigateurs ; lecteurs de documents PDF et pilotes d’impression. Ils correspondent également à trois types d’usages, ou à trois états du texte : le texte éditable, le texte affichable, le texte imprimable.

Le texte éditable, affichable et imprimable

Pour exister, tout texte doit passer par la forme d’un fichier éditable, un fichier ODT. Il permet dans un même mouvement de lire, écrire, relire, réécrire, éditer, corriger, exporter, importer, seul ou en groupe. Il est peu adapté à la publication, d’abord à cause des incertitudes concernant la façon dont les différents traitements de texte prennent en charge les enrichissements, ou encore les polices et les jeux de caractères, mais surtout par la facilité de le modifier, même involontairement. Même publié en ligne, un texte dans ce format demeure destiné à la relecture et à la correction.

Une fois édité, le texte doit pouvoir être affiché et navigué sur tout support de données numériques dans les meilleures conditions et sans que rien ne gêne sa lecture. Il est cependant toujours possible de récupérer du HTML sur un traitement de texte, ou de l’exporter en PDF. Il est en cela le format le plus souple et le plus ouvert.

Le texte imprimable est destiné à être imprimé et doit donc être formaté selon une taille de papier. Il peut cependant être lu à l’écran aussi, et permettre les mêmes usages que nous avons du papier : notes marginales, marques-pages, soulignés, etc. Il est cependant mal-commode de le corriger.

On constatera que ces formats correspondent à des formes de lectures qui ne sont pas si nouvelles : le travail personnel ou collaboratif sur le texte ; la lecture d’une traite, mais avec la facilité de copier des citations et de renvoyer à des sources ; la lecture plume en main. Le numérique permet aujourd’hui des allers-retours plus ou moins commodes d’un état à l’autre : très commodes dans le sens traitement de texte, page web et format imprimable ; très incommode dans celui imprimable, traitement de texte, page web ; et relativement commode de page web à traitement de texte et imprimable.

Tout dépendra finalement de la qualité et de la propreté du code et des buts que l’on se donne. Si l’on parvient à récupérer en ODT les feuilles de style d’un texte en HTML, le HTML peut tenir lieu du format le plus universel pour échanger du texte. On sera capable de mettre en page sans beaucoup de peine un livre entier, avec table et notes, à partir de pages récupérées en ligne, mais ce ne sera pas toujours si simple. Il est par exemple, souvent problématique de récupérer les caractères insécables de la langue française dans un traitement de texte.

Pour autant, toutes les limites de chacun de ces formats ne sont pas toujours de mauvaises choses, car elles correspondent à des besoins contradictoires. Il importe dans certains cas que rien ne puisse être modifié dans un document, notamment quand on le propose à l’impression. La police doit y être incorporés, même si le poids du fichier s’en ressent, mais il n’importe pas qu’un sous-titre soit codé comme titre de niveau deux ou trois. Dans d’autres cas, c’est le contraire, quand il s’agit par exemple de rééditer un texte pour l’imprimer dans un autre format de papier.

On peut avoir aussi de bonnes raisons de chercher à concilier tous ces besoins contradictoires, comme avec Wikipedia, qui cherche, avec un même code, à offrir un bureau de travail aux équipes des encyclopédistes ouvertes au premier venu, tout en permettant l’usage traditionnel d’une encyclopédie. Il n’en demeure pas moins que le texte donne lieu à des usages qui entrent en conflit, et cela, même sans penser aux DRM qui viennent bien inutilement tout compliquer encore.

Il est irritant de voir l’importance donnée à la gestion de droits en dépit des moyens pratiques d’écrire, de lire, d’éditer et de publier (en ligne ou non, car ce sont de toute façon des fichiers numériques qu’on imprime) si insatisfaisants et sous utilisés.

De l’ambiguïté des outils numériques

La puissance qu’offre à chacun le numérique se révèle finalement plutôt difficile à utiliser, voilà ce qu’on pourrait déduire de ce qui précède, en contradiction avec ce qui était posé au début. Elle est offerte à tous, car tous les équipements, ordinateurs, boîtiers de connexion, imprimantes… tiennent sur un meuble et ne sont pas très chers, connexion et hébergement compris. Pour autant, un usage autre que ludique, fût-il basique, est devenu complexe.

Supposons que je souhaite reprendre sur ma tablette la lecture interrompue sur mon ordinateur au point où j’en étais avec mes notes et mes marques-pages à jour. Cela supposerait que j’emploie le même programme, et donc probablement le même système. Même dans ce cas, y parvenir n’est pas si simple, et si l’on réussit, on reste alors captif de son programme, de son système et même peut-être de la marque de sa machine, au risque de perdre toutes ses notes, voire sa bibliothèque entière.

On a l’habitude d’opposer l’utilisateur de base à l’expert, or cette distinction est loin d’être évidente, comme l’exemple précédent le montre. Rien en effet n’est plus basique que lire un texte à l’écran. Mon exemple suppose bien pourtant des utilisateurs avertis, et la chose peut même se révéler impossible entre certaines configurations.

Écrire avec un traitement de texte est aussi une utilisation de base, pourtant se doter d’outils linguistiques corrects (correcteurs orthographiques et grammaticaux, dictionnaire de synonymes, etc.), récupérer dans une citation copiée en ligne les espaces insécables du français, voire les caractères spéciaux, exporter correctement, etc, est souvent bien loin d’être un jeu d’enfant. On se demande alors ce que peut être une utilisation de base si ce n’est « liker » sur Facebook, regarder des vidéos sur Youtube et chercher sur Google. À partir de là, il est bien difficile de comprendre ce que peut être un utilisateur expert.

Les outils dont nous disposons après cette première décennie du siècle nous demandent tout à la fois un effort supplémentaire envers le langage, nous en offrent les moyens et en même temps nous en privent pour des raisons essentiellement commerciales, et l’étrange prétexte de nous épargner cet effort nécessaire.

De l’automatisme

L’invention du numérique nous place devant un nécessaire effort à accomplir. Il nous contraint à une attention supérieure envers le langage. En même temps, il nous y aide fortement, et réduit notamment les efforts nécessaires à employer les langues naturelles. Un traitement de texte avec tous ses outils linguistiques nous aide à écrire mieux. Il nous rappelle constamment la grammaire, l’orthographe et la ponctuation, il attire notre attention sur cette ponctuation et la mise en page. Il nous aide surtout en faisant sauter les barrières entre écrire, lire, éditer, comme l’écriture nous avait aidés en remédiant à la fugacité de la parole et en nous permettant de naviguer dans le fil des énoncés.

L’échec des programmes de synthèse vocale, qui pouvaient virtuellement nous permettre de dicter ce que notre traitement de texte devait écrire, est riche d’enseignements à cet égard. Contre toute attente ces programmes ne nous intéressent pas, car d’abord ils nous ralentissent quand ils devaient nous éviter la saisie, tant ils demandent de corriger et de reformuler, non pas même ce que nous aurons dicté, mais les fautes qu’ils auront commises. Ils nous font perdre les ressources de l’écriture. À l’inverse, la possibilité de faire prononcer le texte écrit nous apporte bien plus. Nous découvrons que notre style est plus pur, plus souple et plus spontané quand nous le travaillons au clavier, plutôt que si nous tentons de passer directement par la parole.

Il est intéressant de remarquer que le passage par les médiations du clavier et du programme favorise finalement une plus grande spontanéité que la parole enregistrée ; c’est-à-dire qu’en passant à une médiation plus complexe encore que celle de la plume et de la feuille, c’est comme si nous raccourcissions le chemin de l’intuition à l’énonciation.

Ceci suppose un certain automatisme, du moins une certaine virtuosité acquise par l’entraînement et la répétition, exactement comme le pianiste établit une relation directe entre son esprit et la musique (l’ébranlement de l’air), en ne songeant pas plus aux mouvements de ses doigts qu’aux marteaux qui frappent les cordes. On pourrait prendre aussi bien l’image du barreur, du cavalier, du motard, du surfeur, etc.

Attention, l’automatisme dont il s’agit ici doit se trouver entre la chaise et le clavier, et non pas dans le soft ou le hard sur lesquels il doit justement s’exercer. Il n’est pas pour autant si difficile à acquérir à travers un usage qu’on pourrait bien qualifier de « basique », si tant est qu’on soit assez « expert » pour s’en donner l’accès.

Pour conclure

Le numérique est assurément un tournant décisif, plus comparable à l’invention de l’écriture qu’à celle de l’imprimerie. L’écriture avait émancipé la pensée de la suite linéaire de la parole, en permettant de remonter son cours et de la reprendre en tous points. Le numérique permet la reformulation perpétuelle en faisant sauter les barrières entre écrire, lire, éditer, et même publier.

De même que le plein emploi de l’écriture impliquait d’y retrouver toutes les ressources qui étaient déjà celles de la parole ; de la faire évoluer pour la rendre capable de noter les subtilités de l’oralité, et de transformer dans l’autre sens la langue orale pour la rapprocher de l’écrit ; de même, le numérique doit conserver toutes les ressources de la parole comme de l’écriture, et même les affiner. C’est un enjeu important dont les possibilités virtuelles sont encore loin d’être aisément accessibles.

L’autre enjeu d’importance consiste à se donner les meilleurs moyens pour naviguer dans ce qui est publié en ligne. Le web ne peut pas demeurer un foutoir artificiellement hiérarchique où chacun joue des coudes pour être indexé devant les autres et où, à force de pouvoir tout trouver on ne trouve plus rien ; où prolifèrent publicités et répétitions ad nauseam de même contenus recopiés à la faute d’orthographe près, où tout et n’importe quoi est perpétuellement publié et effacé, etc. Bien évidemment, il ne s’agit pas de réguler le web (et par qui ?), bien au contraire. La structure même du net a des facultés auto-organisatrices, et les possibilités qu’il offre de s’y retrouver dans ce chaos restent effectives de toute façon.

L’internet est cependant devenu un service public ; il est même devenu le service public par excellence du futur. À ce titre, il n’est ni national, ni proprement international, ni commercial, même de dimension multinationale, alors que, par la force des choses, il repose très largement, pour ce qui est du câblage, des satellites, de l’hébergement, de la fourniture d’accès, des moteurs de recherche… sur des états nationaux et des entreprises nationales et multinationales. Il y a là une contradiction inhérente à l’époque, et à terme inconciliable avec la nature profonde du net.

La nature de l’internet est interarchique, et c’est évidemment une conséquence de son caractère numérique. Les deux sont intimement couplés ; un tel ordre, un ordre interarchique, n’est possible qu’avec des données numériques et leur capacité à brasser rapidement de très grands nombres. C’est la seule condition pour que chaque point du réseau puisse à chaque instant en devenir un centre, avec autour de lui autant de centres dont les rayonnements de chacun diffèrent de tous les autres.

Tous ces moyens nous étant virtuellement offerts, on peut comprendre que nous tournions longtemps autour avant d’apprendre à nous en servir, mais nous ne pourrons indéfiniment nous en détourner.




1 Site du projet Xanadu : http://xanadu.com/.

2 En fait, ce sont les chiffres-d’affaire que l’on trouve aisément, ce qui n’est pas la même chose. On trouve aussi aisément des l’information sur les techniques d’impression sur le long terme. Le nombre d’exemplaires imprimés, le nombre de titres, et même le nombre de bouquins pilonnés (à peu près un sur trois de nos jours) sont très difficiles à trouver sur la longue durée. Ces chiffres sont pourtant importants car ils finissent par marquer des changements qualitatifs de ce qu’ils mesurent. On se contentera de savoir qu’ils doublent plus d’une fois par siècle depuis le début.

3 Le Centre Informatique National de l’Enseignement Supérieur ne reconnaît que les successives versions de l’ODT (1.0, 1.1, 1.2) comme format convenant pour le texte. Voir : http://facile.cines.fr/



© Jean-Pierre Depétris, 26 décembre 2013

Copyleft : cette œuvre est libre, vous pouvez la redistribuer et/ou la modifier selon les termes de la Licence Art Libre. Vous trouverez un exemplaire de cette Licence sur le site CopyleftAttitude http://www.artlibre.org ainsi que sur d'autres sites.

Adresse de l'original : http://jdepetris.free.fr/load/bavardages.html