Sur Wikipédia, une discrète guerre des bots a fait rage pendant dix ans

Sur Wikipédia, le contenu d’une page est parfois un enjeu commercial ou politique. Il peut donner lieu à des guerres d’éditions entre utilisateurs, qui ne cessent de modifier une page en

raison de leurs désaccords. L’un des exemples les plus connus en France: la page sur le réacteur nucléaire EPR, modifiée une cinquantaine de fois après le débat présidentiel de 2007 entre Ségolène Royal et Nicolas Sarkozy, qui s’étaient écharpés pour savoir si l’EPR était un réacteur de troisième ou quatrième génération.

En revanche, on n’imaginait pas que les bots – ces programmes automatisés qui traquent les erreurs et les modifications indues pour aider des éditeurs de Wikipédia débordés – pouvaient eux-aussi se livrer à des guerres d’édition entre machines. C’est ce qu’affirme une étude de l’université d’Oxford publiée la semaine dernière, qui a analysé le comportement des bots entre 2001 et 2010 sur des pages Wikipédia en treize langues (dont le Français).

0,1% des contributeurs, 15% des modifications

S’ils représentent moins de 0,1% des contributeurs de Wikipedia, les bots étaient responsables de 15% des modifications effectuées sur des pages de l’encyclopédie (toutes langues confondues) en 2014. D’après les chercheurs, les bots sont à la fois moins sévères et plus consensuels que les véritables éditeurs: ils contestent moins souvent une modification que ne le font les humains et leurs propres modifications sont moins souvent contestées.

Mais c’est lorsque les bots interagissent entre eux que les choses peuvent se gâter. “En général les bots se corrigent beaucoup entre eux”, expliquent les auteurs de l’étude. Ainsi, sur la période de dix ans étudiée, chaque bot sur le Wikipédia anglophone a en moyenne annulé les modifications d’un autre bot 105 fois. En comparaison, chaque humain a annulé en moyenne trois fois les modifications d’un autre contributeur.

Les bots se “vengent” plus souvent que les humains

Contrairement à ce que l’on pourrait penser, les humains adoptent moins souvent l’attitude peu constructive consistant à annuler les modifications effectués par quelqu’un qui avait lui-même annulé celles qu’on avait proposées, comme lors du débat présidentiel de 2007. La plupart des humains annulent des modifications concernant un contenu auquel ils n’ont pas contribué, contrairement aux bots, qui se lancent bien plus souvent dans des guerres d’édition avec un autre bot.

Autre phénomène intéressant: les conflits entre deux bots, qui annulent chacun leur tour les modifications de l’autre, peuvent durer des années. Car contrairement aux humains, qui laissent souvent passer moins de 24 heures entre deux retours en arrière, les bots mettent en moyenne un mois à réagir (en raison de la manière dont ils sont paramétrés).

Aussi imprévisibles et inefficaces que les humains

Ces problèmes font arriver l’étude à la conclusion que “les bots sur Wikipedia se comportent et interagissent de manière aussi imprévisible et inefficace que les humains.” C’est probablement dû au caractère décentralisé de l’encyclopédie: des éditeurs créent leurs propres bots chacun dans leur coin, sans aucun méchanisme de coordination. Comme il ne sont jamais programmés de la même manière, ils ne possèdent pas tous les mêmes instructions et peuvent réagir différemment à une même modification. Ces conflits peuvent aussi être le résultat de différences culturelles entre les créateurs de chaque bot, car “tout comme les humains, les bots peuvent se comporter différemment dans différents environnements culturels”, explique l’étude d’Oxford.

En raison d’un changement technique survenu en 2013 dans les liens entre les différentes versions linguistiques d’une même page, dont provenaient la plupart des conflits entre bots, les chercheurs estiment que le problème a disparu aujourd’hui.

Mais pour eux, l’exemple de Wikipédia illustre les problèmes vers lesquels nous allons à mesure que les agents logiciels gagnent en importance et sophistication sur Internet. Les interactions entre bots, voulues ou non, seront inévitables. Les conflits aussi. “Il est crucial de comprendre ce qui peut affecter les relations entre bots afin de concevoir des bots coopératifs qui peuvent gérer les désaccords, éviter les conflits improductifs et remplir leurs missions d’une manière socialement et éthiquement acceptable.”