HENRI TCHENG, Managing Director, Bearing Point
Cette tribune a été écrite par Henri Tcheng et Jean-Michel Huet, de BearingPoint
Le Web 2.0 peut-il permettre la réalisation d'un fantasme politique
ancien, celui de l'Utopie ? L'utopie est un lieu qui n'est dans aucun
lieu, un espace hors de l'espace (L'Utopie de More, La cité du soleil
de Campanella, Nouvelle Atlantide de Bacon).
Pour More,
l'Utopie est une société communautaire dans laquelle les droits et les
devoirs des individus doivent être également partagés. La ville se
transforme tout entière en livre car sur toutes les enceintes est
inscrite la somme de toutes les connaissances acquises par ses
habitants au cours des siècles.
Les blogs, Second life,
Wikipédia peuvent s'inscrire dans cette logique et sont les dignes
successeurs des premiers newsgroups dans lesquels les courants
libertaires nord-américains des années 1992/1997 voyaient une première
forme de cette nouvelle agora autour de la cyberculture (la Nouvelle
Cohorte, Bad Subject, ....). A l'époque les contre-utopies sont vite
apparues : la dystopie où la technologie tue l'utopie ; la rétro-utopie
dans laquelle l'electronic agora se fonde avec l'electronic market
place. Le Web 2.0 peut-il s'inscrire dans cette logique ?
Les critiques sont nombreuses en fait vis-à-vis des déviances du Web 2.0. A l'automne 2007, les "jardins de pédophiles" dans Second Life ont été dénoncés comme l'exemple du détournement du Web 2.0. Au-delà du sensationnel il faut s'interroger sur les forces et faiblesses réelles du Web 2.0 pour les citoyens qui résident non dans le Web 2.0 comme concept ou technologie mais dans l'usage qui en est fait. Hélas, ces enjeux sont rarement bien perçus. Le cas de Wikipédia est assez illustratif de ce décalage.
Le discours commun sur Wikipédia oscille entre d'une part louer la
réussite de cette fondation basée sur la technologie Wiki et d'autre
part, dénoncer la qualité toute relative du contenu proposé. Wikipédia
permet la mise à disposition de 7,5 millions d'articles en 253 langues
dont 650.000 notices en français à comparer aux 27.000 de
l'encyclopédie Universalis et même aux 72.000 de l'Encyclopédie de
Diderot et d'Alembert. Avec plus de 1.000 modifications par heure sur
le Wikipédia français la force de l'oeuvre collective et collaborative
est indéniable.
Réciproquement il est de bon ton d'en montrer
les limites en contestant la validité de la fiche de Philippe Pétain
modifiée par 400 internautes. Cette critique, la plus commune et la
plus facile, peut être relativisée à la fois par les 150
administrateurs qui veillent sur le site mais aussi par le label
"article de qualité" créé dès 2003. Surtout cette critique "de base"
cache les véritables limites du projet qui ne sont pas lié à la
technologie ni aux fonctionnalités du site mais bien à l'usage en soi
de Wikipédia.
Trois limites essentielles sont aujourd'hui avérées :
• La construction des articles
: l'accumulation chronologique (base des articles historiques de
Wikipédia par exemple) est incontestablement une facilité mais ne
permet pas de mettre en relief la richesse de certains faits ainsi
décrits. Depuis des décennies, l'historiographie ne se contente plus de
vision chronologique. Or Wikipédia propose essentiellement ce type de
construction. La volonté de neutralité ne permet pas non plus une mise
en perspective des faits importants par rapport au détail.
Pour
l'anecdote, les 4 premiers paragraphes de la notice de Charles De
Gaulle sont consacrés à l'étymologie de son nom ; celle de François
Mitterrand est une succession de "bullet points" et ses discours clés
sont au même niveau que ses ... surnoms ; la première note de
complément sur Jacques Chirac concerne le fait qu'il est le plus grand
président de la république française par sa taille ...
• L'utilisation des sources
: le succès de Wikipédia est l'une de ses limites lorsque ses
utilisateurs négligent deux dimensions. D'une part, Wikipédia ne peut
être l'unique source ; si le Web 2.0 se nourrit des échanges, c'est
aussi dans la variété des sources, distinguant les sources primaires
des sources secondaires. D'autre part, le projet de Wikipédia s'inscrit
dans une volonté affichée de neutralité ce qui justifie la modération
mais renforce aussi la nécessité d'aller chercher d'autres sources,
surtout quand la notice consultée ne concerne pas une science exacte ce
qui est le cas de la majorité des notices.
• L'absence de médiation
: l'existence de modérateur n'entraîne pas médiation. La médiation fait
défaut au sens où l'accumulation de données anecdotiques ne fait pas
une pensée construite, hiérarchisée. Il manque le travail de
professionnels (journaliste, historien, scientifique, linguiste ou tout
type de médiateur) permettant de synthétiser, de hiérarchiser et de
guider la réflexion des lecteurs des différentes pages proposées. Il
manque cette couche de vernis qui permet d'aller au-delà de données
grosso modo brutes afin de proposer une véritable mise en perspective.
Ces limites ne sont pas des critiques de Wikipédia mais montrent
juste ce que Wikipédia n'est pas. Le risque réside donc bien dans
l'usage qui en est fait et non de Wikipédia en soit.
Le Web
2.0 peut donc faciliter le développement d'une nouvelle fracture
numérique non basée sur l'accès aux outils et à leur maîtrise (même si
cette fracture est encore majoritaire en France) mais sur la
distanciation que peuvent prendre les utilisateurs par rapport à ces
outils.
C'est ici que réside l'enjeu majeur pour le Web 2.0 :
formidable support aux échanges, les outils tel que le wiki doivent
s'accompagner d'une pédagogie d'usage et de comportement pour être bien
utilisé tant par les internautes que par les entreprises.
Tant qu'il n'y aura pas de maturité "critique" par rapport à ces "données 2.0", Wikipédia et consors ne pourront pas être l'île de l'utopie !
Lu sur le Journal du Net