Archives du mot-clé Bot

Loi des séries

Il y a des jours où l’on se dit qu’il vaut mieux se coucher tôt. La journée d’hier a été particulièrement active en France, sur Wikipédia et même sur le flux RSS Wikimedia.

Aux Champs-Elysées

Photographie de l'avenue
Les Champs-Élysées, théâtre de l’attentat.

Hier, un individu armé a tiré sur des policiers, en tuant un et en blessant d’autres. Cette attaque, qui a eu lieu à quelques jours des élections présidentielle, a permit une récupération politique assez malsaine (comme d’habitude).

Ayons une pensée pour les victimes de cet attentat et n’oublions pas de saluer le courage de ces forces de l’ordre qui n’hésitent pas à mettre leur vie en jeu pour nous protéger.

L’article correspondant a été créer sur Wikipédia assez rapidement, vérifiant ainsi ce billet pour les anciens attentats.

Sur Wikipédia

Cependant sur Wikipédia, les administrateurs et contributeurs rencontraient un autre problème inédit : la création de comptes en masse.

En effet, depuis hier après-midi, de très nombreux comptes ayant des noms pseudo-aléatoire plus ou moins construit sont créer à la chaîne (plusieurs par minute).

Wikipédia a donc été victime de ce qui semble être un botnet. Un botnet est un réseau de bot installés sur des machines zombies à travers le monde et qui effectuent des activités diverse et variés (spam, attaques DDoS, création en séries de comptes).

Afin de contrer cela, un filtre anti-abus a été mis en place afin d’arrêter cette vague. Cependant l’ampleur de l’action a étét tellement importante que le filtre lui-même a disjoncté automatiquement (trop d’activations en peu de temps, est un garde-fou en temps normal pour éviter des dégâts trop importants sur des filtres mal codés), nécessitant la mise en place d’un second filtre pour répartir les tâches.

Aujourd’hui à 11h32 (UTC+2), le premier filtre a 807 détections et le second 188 détections.

Je tiens à féliciter le travail (à la chaîne) des administrateurs et stewards qui bloquent ces comptes en séries afin d’éviter un éventuel merdier dans quelques jours, une fois qu’ils auront le statut d’auto-confirmed qui autorise l’édition des pages semi-protégées.

Une RCU  a également été effectué pour tenter de découvrir les origines de l’attaque. Il en ressort qu’il s’agit bien d’une attaque internationale vue la présence d’IPs venant des Philippine, Russie, Japon Corée …  Chaque comptes contribuant via une IP différentes, la thèse d’une faille de sécurité permettant un contournement du capchat (ce truc illisible qu’il faut déchiffrer) est donc écarté.

Il s’avère que le « pirate » s’adapte a la situation et modifie son pattern (avec des noms de comptes plus élaboré).

Il est important que la WMF prenne au sérieux cette attaque qui a mené à ses limites les outils de Wikipédia (filtres anti-abus surchargés, au niveau des RCU, un vérificateur à déclaré que « pour une telle quantité mes outils sont complètement inadaptés »).

RSS

Le flux RSS regroupant les principaux blog sur Wikipédia a fait l’objet d’une désorganisation suite au piratage probable du blog de Linterweb qui fait désormais de la pub pour des médicaments :/

Le blog en question est un blog concernant Wikiwix (un moteur de recherche spécialisé) et Linterweb « est une entreprise qui fait un certain nombre de trucs en rapport avec les projets Wikimédia ».

Image : CC-BY 2.0 - Sam Greenhalgh - source

Sources :
* PU de Linterweb
* Le bistro du 21/04/2017
* RCU
* BA
Publicités

Humains vs Bot, quand Wikidata relance la guerre

L’un des marronniers de Wikipédia est la place que prend les bots dans la rédaction de cette dernière. Pour rappel, un bot est un compte utilisant des logiciels automatiques ou semi-automatiques permettant de faciliter la vie des contributeurs en effectuant des tâches répétitives ou régulières.

Il est également possible d’utiliser des bots sachant écrire des articles (enfin un squelette avec les principales données) 1. Un différent eu alors lieu entres contributeurs : vaut-il mieux privilégier la quantité (créations en chaine par des bots) ou la qualité (créations moins nombreuse mais de meilleure qualités et rédigées par les humains) ?

Depuis un certain temps (ou un temps certain), les contributeurs s’étaient lassés de cette thématique pour celles — bien plus intéressantes — des pages à supprimer et des débats d’admissibilité.

Cependant c’était sans compter sur Wikidata (base de données participatives) qui propose désormais de « centraliser » les listes. Le fonctionnement est simple : on rédige puis réactualise/corrige la liste sur Wikidata et les modifications sont automatiquement répercutées sur les Wikipédias via un bot (ici ListeriaBot).

Mais alors, quel est le problème ? N’est-ce pas bien d’avoir des listes centralisés ? La réponse est « peut-être », chacun étant libre de se faire une opinion.

Le vrai problème réside dans cet avertissement affiché à l’entête du tableau :

Cette liste est mise à jour périodiquement par un bot avec les données de Wikidata. Les changements manuels à la liste seront retirés lors de la prochaine mise à jour !

En effet, la deuxième phrase ne passe pas. Si un contributeur tente de corriger une erreur, de rajouter une information intéressante… Il peut, mais son travail sera réduit à néant par le bot qui « écrasera » son travail, transformant les articles en « lecture seule » pour ceux qui ne souhaitent pas contribuer sur Wikidata ou qui veulent faire des « bidouillages » avec le Wikicode impossible à faire sur Wikidata.

Le modèle permettant de faire fonctionner le bot — {{Wikidata list}} — est actuellement proposé à la suppression.
Ce modèle crée une liste automatique basée sur Wikidata. Il doit être « fermé » par le modèle {{Wikidata list end}}. Le texte entre ces deux modèles sera périodiquement remplacé par la liste automatique. Pour le moment, une seule liste par page est possible.2

Toujours en rapport avec Wikidata, le compte LuaBot subit actuellement une demande d’arrêt car il « introduit de multiples imprécisions contenues dans wikidata » via l’infobox Biographie2. Un consensus semble se former pour l’arrêt du bot.

1 Par exemple, en 2005, DasBot créait des ébauches automatiquement sur les communes française.
2 Documentation du modèle (publiée sous la licence CC-BY-SA 3.0 (Source|auteurs).

Escarbot

Aujourd’hui, nous allons nous intéresser à un (ex ?) bot : Escarbot

Vous allez me dire qu’il vous est totalement inconnu ? C’est normal, c’est parce que vous êtes incultes ne connaissez que les principaux comme OrlodrimBot, HerculeBot, HAL, Loveless, Salebot, GratusBot

Pourquoi alors parler de ce bot ? Vous allez voir …

Ce bot a pour but de renommer des catégories. Or il a eu le malheur de faire des modifications non consensuel et là tout s’emballe !

Actualité

 

 

Pywikibot

En parcourant Wikipédia, j’étais tombé sur plusieurs pages concernant Pywikibot. À l’époque, j’avais téléchargé le programme puis je l’avais supprimé car je ne réussissais même pas à l’ouvrir. Cependant, vendredi dernier, alors que j’avais du temps à perdre,  je me suis dit « Allons dompter cette bête, ainsi, je pourrai compléter les compétences de mon bot ».

  • Chapitre 1 : L’installation

En fin d’après-midi, j’ai décidé d’installer le bot. J’ai donc suivi les consignes de la page d’aide mais, surprise, ça ne fonctionnait pas ! En effet, j’avais oublié de décompresser le dossier, ensuite le problème venait du fait que je [comprenez l’ordinateur] ne supportait pas le dossier, provoquant ainsi des heures de « bidouillages ». Je doit remercier les membres de l’IRC #pywikibot sans lesquels je ne pourrai toujours pas utiliser l’engin. Bref, après des heures de téléchargements, décompressions, tests, essais divers,  Pywikibot était fonctionnel à … 1h du matin !!

  • Chapitre 2 : L’utilisation

Une fois que Pywikibot était en état de marche, il fallait comprendre comment l’utiliser. En effet, j’ai bien pris 2 heures avant de réussir à faire faire une modification à mon bot (pour l’anecdote, cette modification était une erreur). Ensuite j’ai enfin réussi à l’utiliser pour des tâches simples.

Voici à quoi ressemble Pywikibot en fonctionnement. Cliquez sur l’image pour lire le descriptif.

 

 

PàS groupée

Qu’est ce qu’une PàS groupée ?

Non, ce n’est pas des contributeurs qui se réunissent pour faire supprimer un article ! Il s’agit en réalité d’une « factorisation » : une seule sous-page /suppression est créer  pour faire supprimer (ou non) plusieurs pages. Cette méthode est utile lorsqu’on veut faire supprimer toutes les pages d’une catégorie par exemple.

L’horreur !

Quel horreur pour un simple clôturant de devoir retirer les bandeaux {{suppression}} des 71 pages concernés par la procédure et clôturé en conservation. Il y a alors 4 méthodes :

  • Les retirer manuellement (déconseillé)
  • Se rappeler qu’on possède des logiciels semi-automatique ou automatique qui peuvent nous sauver la vie :
    • AWB : logiciel nécessitant au préalable une « autorisation » avant de faire une mise à jour obligatoire suivi d’un crash lorsqu’on a besoin de lui.
    • WPCleaner : logiciel moins complexe mais moins maniable (notamment dans les commentaires de diff). Il a l’avantage de pouvoir être utilisé sans autorisation préalable y compris sur son compte principal (permettant ainsi de « pourrir » les listes de suivi, mal nécessaire, amha, lorsqu’il s’agit de clôturer des articles).
  • Se rappeler que d’autres possèdent les outils cités plus haut ; il suffit alors de faire une requête aux bot.

Avertissement : Les outils automatiques ou semi-automatique sont utilisés sous votre entière responsabilité. Vous êtes donc dans l’obligation de réparer les dégâts si votre logiciel détruit des articles, catégories, etc. Pour en savoir sur les bot, vous pouvez lire Wikipédia:Bot.