Chronique de la « Place de la Toile » du 12 octobre 2013 : « Droit et numérique »
Le W3C trahit-il son esprit d’origine ? [soundcloud url="https://api.soundcloud.com/tracks/116078088" width="100%" height="166" iframe="true" /]
Voir la discussion sur le sujet sur Seen This et notamment la contribution (de l’intérieur) de Robin.
Au départ de cette question, une proposition du collectif technique qu’est le W3C, sur les extensions de médias chiffrés (EME), comprendre : la lecture de contenus protégés en ligne, le visionnage de vidéos copyrightées. Proposition qui a de bonnes chances d’accompagner la prochaine révision du standard HTML5 – comprendre la version la plus récente du langage dans lequel les pages web sont écrites. (cf. le joli schéma fléché à multiples strates ci-dessous). Je prends un cas pratique.
Si je veux télécharger une vidéo Youtube ou disons un son depuis le site de france culture... A première vue, je ne peux pas, car l’adresse, l’URL finale, est formée par des calculs en javascript ou en php avec des codes secrets. Je peux bien regarder la vidéo en streaming sur youtube ou souscrire au podcast de telle émission sur franceculture.fr mais télécharger directement le contenu, non. Mais en fait, si. Plusieurs méthodes pour ce faire. Avec Firefox, un module qui s’appelle « Download Helper » permet d’extraire le contenu de certains sites comme youtube. Je peux aussi entrer directement dans le code HTML de la page, avec un autre module, qui s’appelle « Firebug ». Sous Chrome, pour entrer dans le HTML, je clique droit sur la page et je choisis l’option « inspecter l’élément ». Et là, en fouinant un peu, je trouve en général le fichier audio ou vidéo qui m’intéresse. Je dis « en général », car certains sites sont plus retors : Deezer ou Arte envoient par exemple des bouts de fichiers découpés bout à bout... impossible de récupérer un fichier intégral dans ce cas ; d’autres enfin, obligent à télécharger des programmes tout pourris comme flash ou silverlight. Me reste plus qu’une option dans ces cas là : enregistrer directement, en temps réel, le son avec la carte son, l’image avec une capture d’écran, ou la vidéo avec un logiciel de screencasting. Bon, cette méthode n’est pas idéale, mais elle a moins le mérite d’illustrer ce principe : « tout ce qui est à un moment lisible en clair sur un écran est d’une façon ou d’une autre, copiable »... et donc partageable.
Ce principe, le texte discuté au W3C ne revient pas dessus, mais il prévoit de rendre le HTML de la page web directement compatible avec les contenus protégés. Qu’est-ce que ça veut dire ? Ca veut dire qu’en lisant la page web d’Arte par exemple, le navigateur constatera directement qu’elle contient un contenu protégé et il empêchera de s’enfoncer dans le code (quand bien même ce serait pour constater que la vidéo est tronçonnée et que je ne peux pas la récupérer...). Le problème, c’est que ce n’est plus moi qui contrôle mon navigateur et ce qu’il me permet de voir, mais c’est lui qui contrôle a priori ce que je peux voir ou non.
Donc, au W3C, il y a d’un côté les pragmatiques, qui disent en gros : de toute façon les verrous existent, et les fournisseurs de contenus (Netflix, Deezer, etc.) ne vont pas les abandonner. Autant éviter que pullulent sur le web des petits programmes pourris, et faire en sorte que le langage HTML (ouvert) de la page comprenne d’office [via une interface de programmation standardisée] qu’il a affaire à des contenus fermés, en se débarrassant des intermédiaires pourris et de l’opacité qu’ils introduisent. Et puis il y a ceux qui, comme l’Electronic Frontier Foundation, reprochent au W3C et à Tim Berners Lee, qu’on a connu plus militants, d’adapter les standards de la technologie à la défense de la propriété intellectuelle [d’introduire le loup des DRM dans la bergerie des standards ouverts du web].
Le brouillon du W3C deviendra peut-être in fine une « recommandation » du consortium, à laquelle se plieront ensuite les différents acteurs du web (mais certainement pas tous, ni d’un seul coup ; sans oublier un revirement possible, ça s’est déjà produit – avec le XHTML). S’il ne prévoit pas à strictement parler de « verrouiller » un web qui l’est déjà pas mal, le W3C témoigne par ce texte sinon d’une trahison de son esprit d’origine, au moins d’une évolution des rapports de force en son sein, et plutôt à l’avantage des ayants trop de droits que de ceux qui voudraient en jouir.