Inclusion exclue : le code est un contrat léonin

Varia
Enquête sur la valeur technique et juridique du protocole robots.txt
Par Guillaume Sire
Français

Internet repose sur un écheveau de protocoles. Après avoir expliqué pourquoi les sciences sociales ont selon nous intérêt à s’intéresser au code informatique, qui est la matière première de ces protocoles, nous analysons la controverse dont a fait l’objet le protocole d’exclusion « robots.txt » censé permettre à un éditeur de réguler le passage sur ses documents des agents logiciels utilisés par les moteurs de recherche. Nous expliquons pourquoi seul le concepteur des agents a le pouvoir de donner une valeur juridique et une fonction technique aux commandes du protocole qui, sans son action, seraient inopérantes. En revenant sur un cas où les éditeurs ont tenté de redéfinir la syntaxe du robots.txt sans passer par les instances de standardisation, nous montrons pourquoi la relation des éditeurs et des intermédiaires sur le web est caractéristique d’un consensus léonin en faveur de ces derniers.

Voir l'article sur Cairn.info