Droit d’auteur : la fin d’une ère

Le droit d’auteur est un monument qui régit la création et la diffusion de la culture depuis déjà pas mal d’années. Il semble avoir été toujours là, mais comparé à la culture, il est encore tout jeune ; le droit d’auteur tel que nous le connaissons est une notion dont les bases se trouvent il y a environ deux siècles. À l’ère d’Internet et du libre partage, cette notion appartient à présent au passé, car l’équilibre entre l’auteur et le public a changé ; une ère s’achève pour le droit d’auteur, une autre arrive.

Le droit d’auteur aujourd’hui

Petite mise au point sur le droit d’auteur tel qu’il est construit de nos jours. Le droit d’auteur tel qu’on le connaît à présent trouve ses origines au XVIIIe siècle, ce qui est, comparé à la culture qui a plusieurs millénaires d’âge, très jeune. Avant cette période (même si des velléités apparaissent dès la Renaissance), il n’y avait pas de droit d’auteur du fait que les productions culturelles étaient souvent anonymes et que les procédés de copie que l’on connaît maintenant n’existaient pas, réduisant très fortement le risque de contrefaçon. Par ailleurs, la culture n’était pas considéré comme un bien marchand de la manière dont certains aimerait bien la voir de nos jours. La culture était avant tout une production artisanale et était le fruit du talent de leur auteur qui ne pouvait que très rarement être copié, ce qui n’impliquait pas de protections particulières.

L’apparition et la démocratisation de l’imprimerie commence à remettre en cause ce modèle plus ou moins idéal pour les auteurs, notamment dans le milieu littéraire. Ainsi, au cours des XVIIe et XVIIIe, des revendications apparaissent (la plupart émanent des philosophes des Lumières eux-mêmes) pour permettre une protection sur les œuvres littéraires. Considérant que les intérêts des auteurs et des éditeurs sont communs, l’Angleterre créé la notion de copyright au XVIIe siècle qui inspire ensuite les américains lorsqu’ils insèrent leur propre copyright dans leur constitution en 1787. Du côté français, c’est la Révolution française qui met en place des protections pour les œuvres dans les années 1791 – 1793, afin de remplacer les privilèges abolis en 1789. Au fil des deux siècles suivants, le droit d’auteur se construit, notamment autour de la Convention de Berne, pour donner celui que nous connaissons d’aujourd’hui.

Graphique montrant l'évolution de la durée du droit d'auteur (jaune et bleu) et de l'espérance de vie (rouge) en France de 1791 à 2007

La grande aberration du droit d’auteur élargi au descendant : une impossibilité d’accès libre à une œuvre pendant au moins un siècle (Psychoslave, licence Art libre).

Qu’est-ce que le droit d’auteur ? Ce sont des prérogatives exclusives qui sont accordées à l’auteur. Il est divisé entre le droit moral (inaliénable), qui permet de reconnaître la paternité de l’auteur sur son œuvre et vise le respect de l’intégrité de l’œuvre, et le droit patrimonial qui lui confère un monopole sur l’exploitation de son œuvre ; ce dernier est souvent cédé par contrat à ceux qui produisent l’auteur et exploitent et promotionnent son œuvre. Il est assez amusant de voir que l’auteur a tellement de prérogatives sur ses œuvres qu’il est plus ou moins un monarque absolu (ce qui est le comble pour une création des Lumières) sur ses créations, décidant de leur destiné comme bon lui semble, sans qu’il n’ait de comptes à rendre. La législation actuelle est tellement rigide et accorde tellement de prérogatives à l’auteur qu’en réalité, nous violons tous inconsciemment le droit d’auteur (voir le blog de Désert de sel en lien en fin d’essai). Par ailleurs, ce droit d’auteur empêche tellement de choses qu’il est en réalité une arme contre la diffusion de la culture qui reste aux mains des élites qui ont à la fois la culture et les droits d’auteurs et qui n’accordent que ce qu’ils souhaitent aux citoyens, qui en sont dépourvus, avec les conditions qu’ils choisissent eux-mêmes (et à leur avantage). La grande absurdité est aussi la règle du maintien des droits sur les œuvres plusieurs décennies après la mort de l’auteur ; en effet, les héritiers touchent une rente quasiment à vie sur des productions qu’ils n’ont pas réalisés : ils vivent sur le talent (qu’ils n’ont pas souvent) de leurs parents et ce, sans faire le moindre effort. Par ailleurs, ils bloquent l’accès libre à des œuvres pour plusieurs décennies (voir graphique ci-dessus).

La culture libre

La culture qui a dominé les deux derniers siècles est ce que j’appellerai une culture fermée, refusant les échanges (sauf contrepartie) et où l’auteur et le public sont séparés par une barrière invisible. Par ailleurs, cette culture n’hésite pas à faire usage de répression violente envers ceux qui ne sont pas de son côté (les peines lourdes encourues en cas de violation des droits d’auteur et les procès). En parallèle de la culture fermée, s’est développée à partir des années 70-80 la culture libre, basée sur les principes de collaboration, de libre partage et d’échanges. Contrairement à la culture fermée, il s’agit d’une culture citoyenne, ouverte à tous dans des règles à la fois peu contraignantes, mais qui imposent le respect et la moralité des liens entre les acteurs. Les piliers de cette culture sont bien entendu les licences libres qui sont une complémentarité au droit d’auteur.

Logo du projet GNU

La licence GNU permet la transparence, le libre partage et la libre modification (Aurelio A. Heckert, GFDL 1.3)

Les licences libres permettent le libre partage et la libre modification des créations tant que les droits moraux de l’auteur sont respectés, notamment la paternité. Ces licences permettent à des projets ouverts de grande envergure, comme Wikipédia ou OpenStreetMap, d’exister où les citoyens crééent et améliorent leurs propres outils. Mais au-delà, cela permet aussi une meilleure transparence sur des sujets sensibles liés à l’informatique grâce aux projets open source. Les licences libres permettent au final des choses que l’on ne soupçonnerai pas de prime abord : la transparence et la citoyenneté, et par combinaison, la démocratie.
Il existe aussi les licences de libre diffusion qui ont un peu plus de restrictions que les licences libres, mais accordent au public les droits fondamentaux qui lui manquent avec le droit d’auteur actuel, notamment le libre partage. Cependant, certaines (je pense notamment à la CC-BY-NC-ND) ne sont pas des licences qui représentent l’équilibre entre l’auteur et le public que doit être le droit d’auteur. Dans des cas plus libres, ces licences sont surtout une protection à l’encontre d’organisations qui sont bien tentées d’exploiter les œuvres sous licence libre comme elles l’entendent (même sans respecter la licence).
Licences libres et licences de libre diffusion sont l’aperçu des conditions du futur droit d’auteur.

Internet : nouvelle interaction entre les auteurs et le public

Les législations sont toutes d’accords sur ce point : le droit d’auteur est un équilibre entre les auteurs et le public. Cependant, le droit d’auteur actuel accorde tellement de privilèges à l’auteur et/ou aux autres ayant-droits que cet équilibre est rompu ; il y a actuellement un déséquilibre en faveur de ces derniers. Internet permet aujourd’hui un échange d’informations dans des proportions jusque-là jamais atteintes avec deux principes fondamentaux : la liberté et l’égalité. Que permet Internet vis-à-vis du droit d’auteur ? Tout simplement de remettre les pendules à l’heure. En effet, Internet permet des échanges et une implication plus directe des communautés de fans dans la conception des œuvres, ce qui influe fortement sur leur évolution. Du temps des comics-strip des années 70, l’évolution de l’histoire dépendait de l’inspiration de l’auteur, mais aussi des résultats économiques des œuvres ; si jamais une œuvre voyait ses ventes diminuer, le héros mourrait, mais pouvait ressusciter si jamais l’intérêt du public se faisait de nouveau sentir. Dans ces affaires, le public était une simple variable, mais n’était pas un acteur déterminant.

Carte représentant les différents conditions d'application du droit d'auteur dans le monde

Le droit d’auteur est en déséquilibre, trop à l’avantage des auteurs et des ayants droit (Balfour Smith, Canuckguy & Badseed, CC-BY 3.0)

Avec Internet, les choses changent ; le public peut directement échanger à propos de l’œuvre et de son évolution. Il peut aussi être le défenseur des droits moraux de certains auteurs qui voient leurs œuvres remixées, mais peut aussi être le défenseur de l’essence originelle d’une œuvre qui dérive trop (voir le billet de Calimaq, lien en fin d’essai). Hier juste spectateur, le public devient acteur dans la création des œuvres. Dans les projets libres, cette tendance se remarque encore plus où le public est acteur et spectateur de l’œuvre, il échange d’égal à égal avec le ou les auteurs qui, eux, font de même ; l’un des exemples les plus probants de ce phénomène est celui des sagas MP3 où les auteurs peuvent compter sur une large communauté composite pour créer et améliorer leur œuvre, tout en faisant de même avec d’autres auteurs, et peuvent aussi compter sur une communauté de fans qui donnent des avis et participent de fait, à la conception de l’œuvre. D’autres exemples, comme des films financés par des dons de particulier, montrent que la place du public change dans la conception des œuvres et est en train de faire de lui un collaborateur de l’auteur, ce qui pourrait lui donner certains droits.

La résistance des conservateurs et des économistes

Tout changement dans une organisation entraîne une acquisition d’avantages pour une partie de la population au détriment d’une autre, c’est un équilibre humain. Ainsi, le nouveau droit d’auteur qui apparaît est bien entendu défavorable aux auteurs par rapport au précédent ; mais le précédent était défavorable au public, tandis que le nouveau lui sera. En réalité, le changement s’amorce d’un déséquilibre vers un équilibre, le trop-plein de privilèges accordés aux auteurs reviendront au public, tandis que ces derniers garderont leurs droits fondamentaux qui leur permettront de rester égal-à-égal avec le public. Malgré cela, il existe toujours une caste qui refusera la perte de ses privilèges et préférera partir en croisade et se poser en martyr plutôt que ne rien faire. Nous assistons ainsi à des attaques frontales de la part de conservateurs et de professionnels qui voient leur activité menacée par un processus logique et irréversible contre de nombreux aspect de ce processus. Pour cela, ils n’hésitent pas à mettre en avant les difficultés financières, la soi-disant illégalité de certaines productions ou actions ou encore leur soi-disant immoralité.

Bannière anti-SOPA du site de LibreOffice

SOPA, PIPA, ACTA, Hadopi… autant de mesures pour tenter de freiner vainement un processus déjà en marche et irréversible (The Document Foundation d’après le code de Zachary Johnson, CC-BY-SA 3.0)

Une autre grande catégorie des gens partant en croisade contre ce processus sont les intérêts financiers de la culture fermée. Ces structures qui se font des millions sur le dos des auteurs et du public ne peuvent en effet penser qu’elles puissent perdre un jour leurs mines d’or. C’est dans cette logique que des projets de loi comme SOPA, PIPA ou ACTA, présentés comme des lois anti-piratage pour soi-disant protéger les auteurs qui périclitent forcement à cause du piratage massif. Il y a aussi derrière un appui fort de l’élite conservatrice qui ne veut pas perdre son monopole de contrôle sur la culture et n’hésite pas à se lancer dans du copyfraud (le fait de s’attribuer des droits sur une œuvre sur laquelle nous n’en possédons pas). Le but de ces manœuvres est de criminaliser encore plus des pratiques qui sont le fruit d’une mutation sociétale et de lancer une vaste campagne de répression pour conserver le contrôle sur la culture et tout ce que cela implique, avec au passage le début d’un contrôle de l’Internet.

Le futur droit d’auteur

Logo mélangeant le logo du domaine public et le logo du copyright

Le futur droit d’auteur devra permettre un passage plus rapide vers le domaine public (Diti d’après Boris23, DP)

Contrairement à ce que les fanatiques de la culture fermée tentent de faire croire, les licences libres ne sont pas des opérations vicieuses de démantèlement du droit d’auteur. Elles sont les prémices du nouveau droit d’auteur qui, certes, mettra à bas le droit d’auteur tel que nous le connaissons encore, mais qui ne remettra pas en cause le droit d’auteur dans son essence même. Bien au contraire, il sera le droit d’auteur des origines voulu par Le Chapelier, à l’origine de la première loi sur le droit d’auteur en France en 1791 :

« La plus sacrée, la plus légitime, la plus inattaquable, et, si je puis parler ainsi, la plus personnelle de toutes les propriétés, est l’ouvrage fruit de la pensée d’un écrivain ; c’est une propriété d’un genre tout différent des autres propriétés. Lorsqu’un auteur fait imprimer un ouvrage ou représenter une pièce, il les livre au public, qui s’en empare quand ils sont bons, qui les lit, qui les apprend, qui les répète, qui s’en pénètre et qui en fait sa propriété. » – Le Chapelier, 1791 (Source : La Quadrature du Net)

Le droit d’auteur actuel ne lit que la première partie de la citation, le droit d’auteur qui arrive la prendra en compte dans son intégralité. La conception des œuvres ne pourra pas toujours être le fruit d’une personne seule qui s’appuiera sur une communauté de fans autour de lui qui l’aideront et qui auront de fait quelques droits sur l’œuvre finale. L’auteur verra ses droits moraux respectés et le public pourra réutiliser l’œuvre dans des conditions de partage et d’échanges, tout en respectant et en soutenant l’auteur dans ses créations. Enfin, le droit d’auteur ne sera pas au service d’intérêts financiers, impliquant la mise en demeure automatique dans le domaine public à partir de la mort de l’auteur, mais au service de l’auteur et du public. Au-delà de revenir à l’essence même du droit d’auteur, la culture deviendra ce qu’elle devait toujours être : la propriété de l’Humanité.

Aller plus loin

Licence Creative Commons
Cet essai de Juraastro est mis à disposition selon les termes de la licence Creative Commons Attribution – Partage dans les Mêmes Conditions 3.0 non transposé.

Publicités

Contributeurs de Wikipédia : arrivées et départs (2)

De nouveaux contributeurs arrivent sur Wikipédia, c’est plutôt logique, mais il y a aussi dans le même temps des contributeurs qui cessent leur participation et qui quittent la communauté. Car contrairement à ce que l’on pourrait penser, les contributeurs de Wikipédia ne passent pas tous des journées entières sur l’encyclopédie et n’y restent pas indéfiniment ; il faut se souvenir que la participation à Wikipédia est avant tout une démarche personnelle qui n’a d’autre impératif que notre propre emploi du temps et notre motivation. Pourquoi certains contributeurs quittent Wikipédia ? Voici quelques éléments de réponse.

Manque de temps et de motivation

Participer à Wikipédia est une action bénévole et ne souffre d’aucun impératif temporel et un acte de présence obligatoire n’est pas exigé. Cela reste avant tout un loisir qui peut devenir à long terme une passion ou non. Si les wikipédiens sont des internautes avec leur identité propre, il ne faut pas oublier qu’ils vivent selon l’emploi du temps de leur être vivant dans ce que l’on nomme communément le monde réel ou IRL en langage geek. La présence de l’internaute dépend du temps où son être miroir décide de se projeter dans la dimension Internet ; ainsi, les wikipédiens ne sont pas en permanence sur l’encyclopédie. Mais certains impératifs ou ennuis IRL peuvent forcer le wikipédien à cesser sa participation à l’encyclopédie en raison d’un manque de temps que l’on peut y consacrer, mais il peut aussi s’agir de difficultés avec les relations de son entourage qui perçoit la participation à Wikipédia d’un œil soit méfiant, soit moqueur, mais dans les deux cas, blessants pour le contributeur.

Il peut aussi s’agir tout simplement d’un manque de motivation de vouloir continuer. Ce manque est souvent caractérisé par l’absence d’envie ou le découragement. Ce dernier point est la plupart du temps le fruit de règles trop rigides et exigeantes pour les nouveaux qui pensaient que participer à Wikipédia était simple, alors que le fonctionnement et les exigences sont plus importantes (et parfois bureaucratiques) que prévu. Le wikicode est aussi un facteur qui rebute plus d’un contributeur et freine vite certaines ardeurs (même si ce point devrait théoriquement s’atténuer avec le déploiement de l’éditeur visuel). Le découragement peut aussi atteindre des contributeurs plus anciens ; il est souvent le fait de frictions entre lui et un ou plusieurs contributeurs. Dans les conflits qui opposent certains contributeurs, il semble qu’il y ait chez certains une tendance à vouloir éjecter de la communauté celui qui a été désigné comme ennemi, en utilisant n’importe quel moyen qui pourront permettre à la communauté de le sortir ou qui feront en sorte de le décourager pour qu’il parte de lui-même. Cette forme de harcèlement peut aussi bien se passer dans les articles que dans les pages communautaires ou même les réseaux sociaux.

Non-respect des règles et des principes

Le cas le plus classique du contributeur ne respectant pas les règles est celui du vandale qui vient dans l’unique but de dégrader l’encyclopédie par simple divertissement. Ce type de contributeur (encore qu’il serait bien osé de considérer qu’il contribue à Wikipédia) est généralement très vite bloqué par un administrateur. Si certains se tiennent à carreaux après ce blocage, d’autres essayent de faire croire que ce n’est pas leur faute (le coup du petit frère est un grand classique du genre) ou bien que c’est la dernière fois qu’ils agissaient comme ça et qu’à présent ils feront dans les règles ; des excuses tellement classiques qu’elles ne trouvent aucun écho.

Il existe un certain nombre de contributeurs qui arrivent sur Wikipédia avec des a-priori sur la nature et les objectifs du projet qui sont erronés. Si la plupart arrive à comprendre que leur vision de Wikipédia est légèrement tronquée, d’autres restent convaincus avoir la vraie vision de l’encyclopédie et commencent à vouloir imposer leurs vues sur l’encyclopédie en adoptant des comportements non collaboratifs et en effectuant des actions souvent plus destructrices que constructives. La sanction pour ce genre d’abus est assez rapide, le blocage de durée plus ou moins longue, voire indéfini. Nous sommes dans un cas particulier où ce sont les contributeurs qui se sont fait éjectés par la communauté et qui n’ont pas décidés de partir de leur plein gré. Mais ce qui est plus intéressant, c’est la manière dont réagissent ces contributeurs après cet événement.

Actions après le bannissement

Il existe deux formes de réaction, mais le but est le même pour les deux cas : nuire à l’encyclopédie et à sa communauté, par n’importe quel moyen, même les plus pervers. La première forme de réaction sont ceux que l’on surnomme les pénibles de longue durée, il s’agit de contributeurs qui reviennent pour saccager l’encyclopédie et harceler les contributeurs en créant des nouveaux comptes ou en agissant sous IP ; certains utilisent des IPs conventionnelles, mais la tendance pour ces personnes est d’agir à partir de proxys ouverts ou de VPN. Il faut remarquer que certains de ces pénibles de longue durée agissent ainsi uniquement parce que leur intention de départ est de se divertir en dégradant l’encyclopédie, il ne s’agit pas systématiquement d’une forme de vengeance.

La seconde forme est le combat idéologique par le biais de blogs ou d’autres médias en crachant et en déversant des propos diffamatoires à l’encontre de la communauté ou de certains contributeurs visés en particulier. Il est par ailleurs intéressant de noter dans cette population une grande hypocrisie dans leur discours et leurs actions ; en effet, ils s’appuient souvent sur les critiques récurrentes faîtes par les élites à l’encontre de Wikipédia, mais utilisent les mêmes pratiques qu’ils critiquent, comme l’usage de l’anonymat. Le discours est systématiquement le même d’une personne à une autre : Wikipédia est dirigée par une cabale d’administrateurs tyranniques, les contributeurs sont juste de simples copieurs qui participent à une opération de pompage à grande échelle du savoir… On trouve généralement des propos paranoïaques et démesurés qu’une simple contradiction logique peut démolir comme un petit vent démolirait un château de cartes, mais ces personnes sont tellement enfermées dans leurs dogmes, qu’elles en deviennent au bout du compte fanatiques et se croient investies d’une mission divine qui est celle de mettre fin à Wikipédia et à ses contributeurs.

Augmentez la protection de votre navigation avec HTTPS Everywhere

Représentation du protocole HTTPS dans une url

HTTPS, le protocole à utiliser autant que possible pour crypter vos données et préserver votre vie privée (Fabio Lanari, CC0)

À l’heure où les activités des internautes sont surveillées par des programmes à la limite de la légalité par des agences de renseignement de nombreux pays (démocratiques comme dictatoriaux), il devient nécessaire de préserver notre vie privée sur Internet. Les différents sites sur lesquels nous naviguons permettent à des personnes tierces de connaître notre personnalité dès qu’elles interceptent les informations que nous transmettons sur le réseau. Pour empêcher ce type d’interception extérieure, il est nécessaire d’utiliser autant que possible le protocole HTTPS.

HTTP et HTTPS : quelle différence ?

Le HTTP (HyperText Transfer Protocol) est le protocole de communication utilisé pour le web (et non pour Internet qui est un ensemble de d’applications, gérées par des protocoles différents comme IRC pour le tchat). C’est grâce à ce protocole, dit client-serveur, que vous pouvez vous connecter et échanger des informations sur le web, à l’aide d’un client HTTP qui n’est autre que votre navigateur web (Firefox, Chrome, Opera…) et qui transmet des requêtes à des serveurs HTTP et reçoit les réponses de ces derniers. C’est par ce processus que vous accédez à des pages de sites web. Le HTTPS (HyperText Transfer Protocol Secure) est la version sécurisée du protocole HTTP ; elle combine le protocole HTTP à une couche de chiffrement, comme SSL. Le HTTPS vous permet par rapport au HTTP de vérifier l’identité du site web auquel vous accédez par le biais d’un certificat d’authentification délivré par une organisation tierce et fiable, et vous permet également d’assurer la confidentialité des données que votre client transmet au serveur HTTP.

Quel intérêt me diriez-vous à chiffrer les données de notre navigation à partir du moment où l’on a rien à cacher ? Tout simplement à préserver vos données privées de toute organisation honnête comme malhonnête. Avec le protocole HTTP, vous transférez vos données en clair, cela signifie qu’elles peuvent être interceptées et lues par n’importe quelle personne présente sur le réseau ; le protocole HTTPS crypte ces données et empêche ces interceptions. Vous utilisez déjà HTTPS lorsque vous effectuez des achats en ligne ou quand vous faîtes des opérations sur vos comptes sur le site web de votre banque. Sans HTTPS pour ces opérations, n’importe qui pourrait intercepter vos données et récupérer le code et le numéro de votre carte bleue, ou encore votre adresse postale ou pire, accéder et vider vos comptes en banque. Votre navigation sur le web permet de connaître vos goûts et par extension votre personnalité ; l’historique d’une navigation web en dit plus long sur vous que n’importe quelle biographie que l’on pourrait rédiger à votre sujet. Si des personnes ont le pouvoir de savoir ce que vous aimez et ce que vous pensez, elles ont le pouvoir de vous contrôler et de vous surveiller. Le protocole HTTPS permet de crypter votre navigation et donc d’empêcher ces personnes de voir ce que vous faîtes sur le réseau.

Renforcer le chiffrement avec HTTPS Everywhere

La plupart des sites majeurs, comme Google, ont activé par défaut la connexion par le protocole HTTPS. Cependant, ces connexions cryptées ne sont pas parfaites (certaines pages en HTTPS contiennent des liens vers des pages du même site en HTTP) et la majorité des sites web sont encore en HTTP. Pour renforcer le chiffrement et permettre une navigation sécurisée au sein d’un même site web, quel que soit le lien sur lequel vous cliquez, l’usage du plugin HTTPS Everywhere est recommandée. Fruit d’une collaboration entre l’Electronic Frontier Foundation (EFF) et le projet Tor, cette extension pour les navigateurs Firefox et Chrome permet de réécrire les requêtes HTTP faîtes vers certaines pages des sites majeurs où le protocole HTTPS est activé en HTTPS. Ainsi, si à la base vous deviez accéder en clair vers une page, vous y accéderez de manière cryptée. Une nouvelle icône apparaîtra dans la barre de tâches de votre navigateur où le plugin vous indiquera les différents domaines présents sur la page où vous vous trouvez (le site et les services inclus) sur lesquels la connexion chiffrée s’applique.

Par ailleurs, le plugin inclus également une fonctionnalité vous permettant d’envoyer les certificats d’authentification des sites que vous visitez à l’observatoire SSL de l’EFF. Cela permet à la fois d’améliorer la sécurité globale d’Internet en leur permettant de voir les attaques faîtes à l’encontre de HTTPS (certaines organisations ou pays n’ont aucun intérêt à voir les internautes crypter leurs données de navigation) et aussi de leur permettre de mieux vous renseigner à propos des connexions non sécurisées et des attaques éventuelles qui peuvent être menées sur votre navigateur. La confidentialité du certificat permettra à l’observatoire de savoir que quelqu’un a visité un site web, mais n’indiquera pas qui a visité ce site et quelles pages de ce site ont été visitées par l’internaute en question.

Les limites du chiffrement et du plugin

Bien entendu, HTTPS Everywhere ne va pas vous chiffrer toutes vos connexions et régler tous les problèmes liés aux connexions non sécurisées. La chose primordiale à savoir est que HTTPS Everywhere ne fonctionne que sur les sites où HTTPS est activé (sans qu’il soit forcement activé par défaut). Lorsque vous installez le plugin, une liste des différents domaines où le logiciel peut s’activer vous est présentée ; vous pouvez choisir d’activer ou de désactiver le plugin pour tel ou tel domaine. Par ailleurs, la connexion en HTTPS empêche une personne tierce de consulter vos données de navigation, mais cela n’empêche pas le site où vous vous trouvez de récupérer des informations à votre sujet. Ainsi, lorsque vous êtes connecté aux services de Google, une personne extérieure ne peut pas savoir ce que vous faîtes sur ces services, mais Google le sait par le biais de ses cookies et continuera à vous proposer des pubs en fonction de ce que vous consultez par le biais de ses services. Par ailleurs, il existe certains pays comme la Chine ou l’Iran où le protocole HTTPS est bloqué, ce qui empêche son utilisation et oblige d’utiliser le protocole HTTP.

En conclusion, HTTPS Everywhere n’est pas le produit miracle qui sécurise à 100 % votre navigation, mais il vous permet d’augmenter cette sécurisation et permet plus de transparence quant à la confiance à accorder au niveau des différents services de connexion sécurisée qui vous sont proposés.

Liens utiles

Licence Creative Commons
Cette œuvre de Juraastro est mise à disposition selon les termes de la licence Creative Commons Attribution – Partage dans les Mêmes Conditions 3.0 non transposé.

Diffusion des sagas MP3 : quelles licences et quelles méthodes ?

Si la saga MP3 avait un but, que serait-il ? Être diffusé au plus grand nombre de personnes et connaître la notoriété ; cela dépend d’un facteur très important qui est celui de la licence qui permettra ou non aux utilisateurs de diffuser l’œuvre. Quels sont les meilleurs choix pour atteindre cet objectif, tout en permettant une réutilisation équitable pour l’auteur ?

Un choix décisif

Diffuser une œuvre sous tel ou tel type de licence dépend bien entendu de l’auteur. Quelles que soient leurs conditions, les licences sont toutes un contrat passé entre l’auteur et l’utilisateur de l’œuvre où l’auteur impose des conditions pour accéder et partager l’œuvre à l’utilisateur. L’importance du choix de la licence est primordial, car c’est lui qui permettra à l’auteur de décider de la méthode de diffusion de sa saga. En effet, si les licences peu restrictives pourront permettre une diffusion à large échelle, elles peuvent aussi engendrer une consommation pure de la saga via des médias tel que Youtube où l’auteur n’est pas connu et considéré. En contrepartie, des conditions de partage très restrictives peuvent permettre à l’auteur de créer une véritable communauté de fans autour de lui, mais cela peut engendrer une diffusion moindre ou moins rapide de la saga. La méthode de diffusion idéale pour l’auteur est bien sûr le passage par son site web et ce n’est pas la plus désavantageuse pour l’auditeur, loin de là.

Quelles licences ?

Il serait assez dur d’affirmer qu’il existe une licence idéale pour la publication et la diffusion des sagas MP3, étant donné que leur visibilité et leur réputation sont les facteurs primordiaux pour permettre une plus large diffusion, sans que le facteur licence puisse être une contrainte qui puisse s’exercer sur les deux autres facteurs. En effet, ce qui permet l’essor des sagas MP3, c’est la notion de libre accès que les auteurs accordent aux auditeurs, et les éventuelles contraintes qui peuvent exister en aval ont une incidence très relative sur cet essor.
La plupart des sagas MP3 n’ont pas de licences clairement définies, ce qui fait qu’on peut les considérer de facto comme étant placées sous le régime général du droit d’auteur ; cela interdit toute reproduction ou copie de l’œuvre sans le consentement de l’auteur. Ces conditions très restrictives peuvent freiner la diffusion de l’œuvre, mais elles obligent les futurs auditeurs à passer par le site de l’auteur de la saga et d’ainsi découvrir ce qu’il fait à côté. Le grand avantage du régime général du droit d’auteur est qu’il empêche la consommation des œuvres artistiques que sont les sagas MP3 (voir section suivante).

Nombreuses sont les sagas qui sont diffusées sous licence Creative Commons, dans lesquelles il faut distinguer les licences de libre diffusion (avec les conditions NC et/ou ND) et les licences libres. Les licences de libre diffusion sont pour les auteurs avantageuses, car elles permettent une diffusion de l’œuvre via d’autres médias que leur propre site web (avantage pour l’auteur qui veut une large diffusion), mais elles permettent aussi de respecter les auteurs des musiques qui sont utilisées par les auteurs en interdisant l’utilisation commerciale. Cette même interdiction empêche aussi que des commerciaux sans scrupules puissent réutiliser les œuvres des auteurs pour uniquement faire des profits. Les licences libres quant à elles sont très avantageuses pour les auditeurs et réutilisateurs, mais l’auteur prend des risques de copies sans respect de la licence et surtout de consommation de son œuvre sans qu’il en retire les bénéfices.
Cependant, l’utilisation de certaines licences est imposé par la licence des musiques utilisées dans les sagas (lorsqu’elles sont sous licence de libre diffusion ou sous licence libre).

Autres vecteurs de diffusion

L’un des marronniers sur le Netophonix est la création d’un compte Youtube pour diffuser les sagas via ce média. Si cela peut donner l’avantage d’une diffusion au plus grand monde, nous risquons surtout de tomber dans le vice de la consommation. La plupart des auditeurs des sagas MP3 sont un public adolescent ou de jeunes adultes ; cette classe de population est très consommatrice de tout ce qu’elle trouve à portée. Outre les problèmes de compression liés aux imports sur Youtube qui dégraderaient la qualité sonore, nous arriverions à une consommation pure des sagas par les auditeurs de Youtube qui consommeraient les sagas comme ils consommeraient un vulgaire soda. Cela se voit déjà avec les youtubeurs qui crééent des comptes uniquement pour centraliser un maximum de sagas dans le but d’avoir un maximum de vues sur leur compte et aussi pour donner aux autres la paresse intellectuelle de ne pas rechercher les sites des auteurs. Au final, c’est l’auteur qui est perdant, car non seulement personne ne sait qui sont les différents auteurs des sagas et le travail de ces auteurs n’est pas reconnu et évalué à sa juste valeur.

Le meilleur moyen de diffuser une saga MP3 est de faire en sorte qu’elle ne soit pas consommée, ce qui passe par restreindre quelque peu les modes de diffusion tout en respectant les contraintes de droit d’auteur qu’il peut y avoir en amont et en permettant une diffusion équitable pour l’auteur et l’auditeur (à ce titre, la licence de libre diffusion CC-BY-NC-SA est la meilleure option). Pour qu’un auteur puisse voir son travail estimé à sa juste valeur et qu’il regroupe autour de lui des gens vraiment intéressés par son travail et non pas avoir une simple bande de consommateurs anonymes (et accessoirement crétins), il doit permettre une interaction et maximiser le passage par son site web. Un travail qui est aussi fastidieux, mais nécessaire, est de faire la chasse aux petits malins qui font des imports massifs et sauvages sur des médias comme Youtube, souvent sans respecter la licence de la saga.

Sourcer ses informations sur Wikipédia : un nouveau principe fondateur ?

L’énième coup de gueule d’un contributeur sur le bistro d’hier à propos des procédures de PàS (pages à supprimer) a mis en lumière une tendance chez certains contributeurs à exiger des sources sur tous les articles et sur toute information. Mais il est également intéressant de constater que ces mêmes contributeurs, qui se veulent être des rigoristes en matière de sources en en exigeant à chaque phrase, sont en revanche peu rigoureux au niveau de la qualité des sources qu’ils veulent. Sourcer ses informations sur Wikipédia, bientôt le nouveau principe fondateur ?

Colonnes du Lincoln Memorial à Washington D.C.

Wikipédia a actuellement 5 principes fondateurs, bientôt un 6e ? (azucaro, licence publique générale limitée GNU 2.1)

De la nécessité de relier les informations à des sources

Les articles de toutes les encyclopédies du monde disposent d’une bibliographie qui sont à la fois des ouvrages utilisés comme sources par les auteurs et des ouvrages qui permettent d’aller plus loin dans le sujet traité (n’oublions pas qu’un article d’encyclopédie est là pour synthétiser le savoir et le rendre accessible à tous). La grande nuance qui est reconnue sur Wikipédia est la nécessité de relier précisément les informations à des références, quand sur les encyclopédies classiques il existe une simple liste bibliographique. Pourquoi cette différence ? Parce que dans la majorité des cas de ces dernières, les articles sont rédigés par des experts reconnus dans leur domaine et que leurs écrits ne devraient (théoriquement) pas être remis en cause. Du côté de Wikipédia, n’importe qui peut insérer des informations dans les articles et les relier précisément à des références valables permet aux lecteurs de voir si l’auteur ne raconte pas de bêtises.

Dessin vectoriel d'un globe terrestre et de livres

La construction d’une encyclopédie nécessite de permettre aux lecteurs d’aller plus loin (AlphaZeta, CC0)

Cette nécessité doit-elle s’appliquer partout ? Le respect des principes fondateurs 1 et 2 (pertinence encyclopédique et neutralité de point de vue) est régit par la règle de la vérifiabilité des informations. En tant que règle, elle doit être suivie par l’ensemble des rédacteurs ; si une part d’interprétation personnelle est tolérée, elle ne doit pas devenir un motif pour la contourner ou la déformer dans son objectif, dans le seul but d’imposer son point de vue personnel. Que nous dit cette règle ? Que les lecteurs doivent pouvoir vérifier les informations contestables ou susceptibles de l’être, ce qui implique qu’elles doivent être reliées à des sources fiables et vérifiables et que c’est à la personne qui souhaite insérer ce type d’information qu’il revient la nécessité de présenter la source qui peut la confirmer, et non à ses détracteurs. La règle explique par ailleurs que les assertions les plus communes n’ont pas d’obligation à être sourcées, bien que cette notion soit subjective (voir partie suivante).

Qu’est-ce qui peut être sourcé ou pas ?

BD Zéa expliquant la nécessité de citer ses sources sur Wikipédia

Pourquoi devoir citer ses sources sur Wikipédia ? Réponses avec Zéa (cliquez sur l’image pour avoir la BD en grandeur lisible) (Rama, CC-BY-SA 2.0)

La règle de la vérifiabilité est appuyée par la recommandation de citer ses sources qui explicite plus en détails les points à respecter pour suivre cette règle. L’un des points les plus importants est de croiser les différentes sources sur un même sujet afin de respecter la neutralité de point de vue et de vérifier quelles sont les sources les plus pertinentes. Ensuite, la règle de la vérifiabilité indique que les informations contestables ou susceptibles de l’être doivent être reliées à des sources ; mais en plus de ce type d’informations, d’autres doivent l’être. C’est le cas des sujets peu connus du grand public (fractales, matière noire…) ou soumis à de grandes controverses (OGM, théorie des cordes…) ; des données variables dans le temps (population, PIB…), bien que ce point commence à être remplacé par Wikidata ; des paragraphes qu’un auteur n’achève pas, mais qui pourrait être repris par d’autres par la suite… En résumé, relier une information à une source est à la fois un moyen pour le lecteur de vérifier si l’information est exacte et si elle est émise par des personnes ou entités valables et une aide pour les contributeurs qui reprendraient le travail d’autres contributeurs ayant arrêtés en cours de route.

La règle de la vérifiabilité indique également que les assertions les plus communes n’ont pas à être obligatoirement sourcées. S’il est absurde pour n’importe qui de sourcer des choses comme 2 + 2 = 4, le fait de contribuer sur des articles touchant à notre métier ou discipline d’étude nous fait parfois oublier que ce qui est évident pour nous, ne l’est pas pour les néophytes. Le contenu d’une encyclopédie devant être accessibles à tous, le vocabulaire utilisé doit être vulgarisé autant que possible (éviter le jargon ou alors l’expliquer via des notes ou des liens inter-wikis quand ce n’est pas possible) et les informations, même les plus basiques pour une discipline un peu spécialisée, doivent être reliées à des sources.
Pour illustrer cette nécessité, je vais reprendre un petit conflit d’édition que j’ai eu avec Ludo29 l’an dernier sur l’article Contrôle non destructif. Suite à l’ajout d’une information par un contributeur sur cet article, je demande une référence plus fiable que celle indiquée. Ludo me réplique que ma demande est erronée, car cette information est triviale selon lui, car il s’agit d’une notion que l’on trouverait dans n’importe quel cours de licence (entre Bac + 1 et Bac + 3) sur le sujet. Le problème est que si l’information est triviale pour les personnes spécialisées dans ce domaine, elle ne l’est pas pour les néophytes comme moi qui n’ont pas suivies un tel cursus. Par conséquent, pour respecter la règle de la vérifiabilité, relier l’information à une source était nécessaire ; car bien qu’elle soit triviale pour un spécialiste, elle ne l’est pas pour un néophyte. Tout cela pour dire que l’on a toujours un point de vue subjectif sur la trivialité d’une information et que la question à se poser n’est pas « Est-ce que cette information est triviale pour moi ou pour le domaine du sujet ? », mais « Est-ce que l’information est triviale pour les néophytes ? » À ce titre, il vaut mieux toujours mettre une source lorsque la réponse n’est pas claire ou s’adresser à des gens qui ne sont pas spécialisés dans le domaine pour leur demander si le ton de l’article est accessible à tous ou non.

Une évidence qui n’en est pas une pour tout le monde

Pour les contributeurs réguliers, relier une information à une source est une évidence dans la rédaction d’un article. Mais on a souvent tendance à oublier que cette nécessité n’est pas une évidence pour un nouvel arrivant qui arrive souvent avec la connaissance du simple principe que l’on peut participer à partir du moment où l’on peut apporter sa pierre à l’édifice avec ses propres connaissances. Bien que le projet d’aide et d’accueil ait fait de formidables efforts d’accessibilité et de pédagogie vis-à-vis des principes de bases de rédaction pour les nouveaux, nous ne devons pas oublier de faire preuve d’indulgence à leur égard. En effet, la rédaction d’un article de Wikipédia comme nous le faisons est un travail de recherche que l’on fait dans certains cours à l’université avec une rigueur et une logique scientifique ; or, nous ne devons pas oublier qu’au-delà de la méconnaissance des règles et des principes, tous les nouveaux contributeurs ne sont pas issus de cursus universitaires ou n’ont pas la même culture scientifique que la plupart d’entre nous.

Bibliothèque de l'abbaye de Saint-Gall (Suisse)

Avoir une bibliothèque avant de participer à Wikipédia, nouvelle exigence d’entrée ? (Stiftsbibliothek St. Gallen, CC-BY-SA 3.0)

Le problème est cependant là aujourd’hui : un certain nombre de contributeurs veut que tout article soit sourcé, que le contributeur soit nouveau ou ancien. Pour ce même groupe, la qualité de la source est secondaire pour accepter un article, leur présence est suffisante à partir du moment où elles sont en nombre suffisant pour démontrer une admissibilité (c’est notamment le cas pour les articles d’actualité). Pour ces mêmes personnes, la plupart des procédures de pages à supprimer seraient évitées si les sources étaient présentes dès le départ. Sachant que la plupart des articles qui passent par ces procédures sont rédigés par des nouveaux contributeurs peu au fait des principes de rédaction de Wikipédia, cela reviendrait à exiger à un nouveau de savoir rédiger un article dès qu’il arrive ; un peu comme si on exigeait à un nouveau joueur d’un jeu vidéo de devoir réussir du premier coup le mode expert lors de sa toute première partie. En gros, certains se plaisent à vouloir faire de la recommandation Citez vos sources un nouveau principe fondateur pour derrière justifier l’insertion de certains articles à la pertinence encyclopédique plus que contestable, tout en s’asseyant sur le principe de pertinence des différentes sources et sans penser aux conséquences qu’une telle exigence pourrait avoir sur des nouveaux qui ne connaissent pas le fonctionnement de l’encyclopédie.