Dormez braves gens… – Partie 2 : Internet, ça fonctionne comment ?

Câble EthernetLors du précédent article nous avons vu les origines d’Internet puis nous avons constaté quelles étaient les différences entre la philosophie qui à conduit à sa création et l’usage d’aujourd’hui. J’aimerais développer les questions politiques et philosophiques, celles qui sont intéressante à mes yeux, mais je me rend compte qu’il est impossible de traiter de ces questions correctement sans un minimum de connaissances techniques basiques sur le fonctionnement d’Internet. Nous allons donc parler maintenant de choses que vous trouverez probablement ennuyeuses mais indispensable à une bonne compréhension des enjeux du monde numérique qui se dessine aujourd’hui. Pour cette partie technique je me suis très vachement beaucoup inspiré d’une excellente conférence de Benjamin Bayart, grand maître du sujet en France.

Internet est un réseau à commutation de paquets : c’est le premier élément important à comprendre. L’immense majorité des réseaux, avant Internet – parce qu’il y a eu des tas de réseaux avant Internet, même si on a tendance à les oublier – sont des réseaux à commutation de circuits. C’est structurant comme différence. Pour ceux d’entre vous qui sont assez vieux pour avoir connu le Minitel, ou pour les plus brillants le BBS, tout cela fonctionnait sur des systèmes à commutation de circuit. Ça veut dire que vous vous connectiez sur « 36 15 machin », puis vous vous déconnectiez, et ensuite vous vous connectiez à « 36 15 bidule », puis vous vous déconnectiez et ensuite vous vous connectiez à autre chose.

Internet est un réseau à commutation de paquets, ce qui veux dire que quand votre ordinateur est connecté à Internet, il peux sans se déconnecter et se reconnecter, à la fois aller voir une page sur un site A et une page sur un site B. Vous pouvez simultanément, et sur le même ordinateur, faire fonctionner plusieurs protocoles de communication qui n’ont rien à voir.

Minitel 1Sur les réseaux téléinformatiques précédents, typiquement sur le Minitel, vous pouviez établir une connexion Minitel ou une connexion autre chose sur n’importe quel autre réseau téléinformatique, mais pas les deux simultanément. Vous faisiez ou bien du Minitel, ou bien autre chose, mais pas les deux.

Avec Internet, avec les réseaux à commutation de paquets, quand vous êtes connecté au réseau, vous êtes potentiellement connecté à la totalité des services. Donc, non seulement vous pouvez faire du Web, mais vous pouvez en même temps faire du téléchargement. Pendant que votre téléchargement tourne, vous pouvez continuer à surfer. Ça va moins vite mais ça fonctionne. Vous pouvez utiliser quelque chose dont vous avez l’impression que ce n’est pas Internet, en allumant le grand téléviseur dans le salon et en mettant TF1 pour regarder une émission : ça va pomper la bande passante sur votre ligne ADSL pour afficher l’émission mais ça ne vous empêche pas de surfer à coté. C’est parce que c’est de la commutation de paquets. Si on fait de la commutation de circuits, ça ne fonctionne pas.

C’est un réseau qui est essentiellement passif. Ça aussi c’est très différent de tout les réseaux précédents. Dans tous les réseaux précédents, le réseau était tenu de manière plus où moins centrale par une entreprise. C’est assez facile à reconnaître : il y a un directeur du réseau qui a une carte du réseau dans son bureau. En général, quand c’est en France, il a une carte de France avec dessiné tous les grands axes du réseau – c’est super jolie. Le directeur du réseau se sent un peu le maître du monde de son réseau. Vous allez voir le directeur réseau de la SNCF, ou de réseau ferré de France, il a une carte de toutes les lignes de chemins de fer dans son bureau, c’est une évidence. Ce sont des réseaux à l’ancienne, où on cherche à mettre l’intelligence dans le réseau. Par exemple, dans le téléphone, si vous voulez ajouter un nouveau service, comme le signal d’appel, on ne change pas les téléphones, on change les centraux téléphoniques. Il faut mettre à jour tous les centraux téléphoniques pour que quand un nouvel appel se présente sur votre ligne déjà occupé, où donc le circuit est déjà pris, où donc on ne peut pas commuter sur un autre circuit, le central émette un bipe sur une conversation en cours, que vous détectiez le bipe, qu’en l’entendant vous appuyiez sur un bouton de votre téléphone, et qu’à ce moment là le central commute les deux circuits pour que vous puissiez changer de ligne. C’est un modèle où le réseau est intelligent : quand on veux ajouter un nouveau service, on modifie le réseau.

Internet est un système où le réseau est bête : le réseau commute des paquets et les transporte et c’est tout. S’il n’y a pas la place, c’est-à-dire que vous demandez trop de débit, ça ne passe pas, simplement. Il y a des paquets qui se perdent, il y en a qui n’arrivent qu’a moitié à destination mais ce n’est pas le boulot du réseau de régler ce problème. C’est un réseau essentiellement passif qui ne comprend pas ce qu’il transporte. Le routeur ne sait pas si le flux qui est en train de passer c’est de la vidéo, c’est de la voix, ce sont des fichiers, ce sont des images, c’est du porno, ce n’est pas du porno : il ne sait pas et il n’a pas à savoir.

PatchworkTroisième élément, c’est un réseau a-centré. Cela veut dire que vous avez 40 000 réseaux distincts qui fonctionnent tous avec le même protocole très simple et qui sont interconnectés entres eux. Si vous avez l’image d’une immense dorsale internationale tenu par la « Internet Corporation », probablement située aux États-Unis, auquel se raccroche de petits opérateurs locaux ou régionaux, comme Orange ou Tetaneutral.net, cette image est fausse. L’image, la bonne, est beaucoup plus voisine du patchwork. Chacun a fabriqué, avec du fil et une aiguille, son petit bout personnel d’Internet. Tetaneutral a fait un petit bout, Orange a fait un bout moins petit et les deux sont interconnectés, soit de manière directe, soit de manière indirecte. Exactement comme les morceaux de votre patchwork qui sont cousus entre eux, ou bien en se touchant directement, ou bien sans se toucher, mais ils forment un tout cohérent, un tissu. C’est extrêmement important à comprendre car cela veut dire qu’il y a 40 000 directeurs technique d’Internet, qui ont tous une carte de leur réseau punaisée dans leur bureau. Et ils sont vachement fiers d’être les maîtres du monde de leur réseau dans leur bureau. Ce qu’ils font sur leur réseau, ne regarde quasiment qu’eux. Certains font des choses propres, ils ont un réseau qui transporte les données des abonnés, un point c’est tout. D’autres font des choses sales, c’est-à-dire qu’ils utilisent leur réseau de manière bizarre, pour filtrer des contenus, pour enlever tout ce qui ne leur plaît pas, enlever toutes les trames IP dans lesquels il y a le mot « Tian’anmen » qui traîne. Chaque directeur réseau fait ce qu’il veut et Internet c’est la somme de ces interconnexions de réseaux.

Pour l’immense majorité des utilisateurs de ce réseau, vous êtes incapables de dire quelles opérateurs réseaux sont traversés par vos paquets IP à chaque fois que vous cliquez sur quelque chose. Un mauvais ingénieur réseau sait le faire, avec deux ou trois commandes magiques il est capable de dire quels réseaux vous allez traverser. Mais l’immense majorité des gens n’en a pas conscience. Vous voyez un outils continu, alors que quand vous affichez une page web, il y a des morceaux qui viennent du site que vous avez demandé et il y a plein de morceaux qui viennent d’ailleurs. Les pubs viennent du site de l’annonceur, le « like » de Facebook, vient de chez Facebook, le « +1 » de Google, vient de chez Google, la petite icône Twitter vient de chez Twitter. Chacun de ces morceaux à suivit un chemin différent sur le réseau. Ça c’est impossible à faire dans un réseau à commutation de circuit. Le seul moyen serait de négocier des branchements un par un. Si on veut qu’un petit bidule de Twitter apparaisse sur la page de Facebook dans un système à commutation de circuit, il faut établir une connexion directe entre Twitter et Facebook. Dans un réseau à commutation de paquet, ce n’est pas la peine. C’est parce que tous ces réseaux sont interconnectés entre eux, qu’il se trouvera bien un chemin pour allez de chez vous à chez Facebook et de chez vous à chez Twitter, et que donc vous pouvez afficher une page qui agrège les deux.

C’est donc un réseau a-centré. Si je reprend cette image du patchwork, si je le découpe, de manière un petit peu brutale en plein milieux, j’obtiens donc deux patchworks qui sont chacun autonomes. Si vous cherchez une analogie dans le vivant, vous allez avoir un tout petit peu de mal, parce qu’en général, les êtres vivants quand on les coupes en deux, au moins une des deux moitiés meure. Avec internet, quand on coupe en deux, les deux moitiés restent vivantes et deviennent deux internets autonomes qui ne se parlent plus. Il n’y a dont pas un Internet, il y a des internets.

Il suffit que le réseau soit coupé en deux, ce qui arrive de temps en temps et vous avez deux internets. C’est même relativement commun : il suffit que je prennes une poignée de machines, je leur donne des adresses IP, je met un routeur au milieu. C’est un internet, tout petit, qui ne sert à rien et à personne à part les quatre copains qui sont dans la même pièce, mais c’est un internet. Le grand Internet, c’est celui qui est l’interconnexion des 40 000 réseaux publics et sur lesquels on s’est mis d’accord pour ne pas utiliser deux fois la même adresse. Et oui, sinon ça ne marche pas, c’est comme deux fois le même numéro de téléphone c’est le bordel. Quand on appel on ne sait pas lequel des deux téléphones sonne. En fait, il y a de bonne chance pour qu’aucun des deux ne sonne.

Logo de l'IANADonc sur Internet la principale contrainte pour que les opérateurs puissent s’interconnecter entre eux, c’est qu’il ne soit pas distribué deux fois la même adresse. Donc, il y a quelqu’un qui a un petit calepin et qui note : cette série d’adresse là je l’ai donnée à Orange, cette série d’adresse là, je l’ai donnée à SFR, cette série d’adresse là, je l’ai donnée à Tetaneutral, cette série d’adresse là, je l’ai donnée à telle entreprise, cette série d’adresse là, je l’ai donnée à tel groupe. Le petit mec avec son calepin, il s’appelle l’IANA, l’Internet Assigned Numbers Authority, et sa gouvernance politique est effectué par une association qui s’appelle l’ICAN, de droit états-unien, dans laquelle le gouvernement des États-Unis est fort représenté et les autres gouvernements ne le sont pas. C’est un bon sujet de troll en ce moment : de savoir s’il faut faire rentrer tous les gouvernements de la planète pour obtenir une vrai pétaudière… Moi, je serais plutôt d’avis qu’il faudrait juste sortir le gouvernement américain de l’ICAN.

Donc le réseau est essentiellement a-centré. Il n’est pas décentralisé. Le pouvoir politique en France est décentralisé, c’est-à-dire que tout le pouvoir est ultra-centralisé et quelques miettes sont accordés aux provinces. Sur le réseau, il n’y a pas de centre, il n’y a pas de pouvoir central. L’IANA, qui distribue les adresses IP, n’a pas de pouvoir de sanction. Si je fais quelque chose que je ne suis pas sensé faire avec mon réseau, l’IANA n’y peut rien. L’IANA peut dire, je retire à tel réseau les adresses que je lui avais attribuées. Oui, d’accord, mais l’IANA ne peut forcer personne à couper les interconnexions entre mon réseau et et celui des autres. Si les gens avec qui je suis connecté n’ont pas envie de couper ces connexions, elles vont rester. Si je continue à utiliser ces adresses, ils peuvent bien noter dans leur petit calepin qu’elles sont libres mais dans la pratique elles sont utilisés, et s’ils les donnent à quelqu’un d’autre ça ne va pas fonctionner, ça va engendrer des pannes pour moi et pour le quelqu’un d’autre. L’IANA n’a pas d’autorité. L’IANA ne peut pas me forcer à établir ou à couper une liaison réseau.

Internet fonctionne parce que les 40 000 opérateurs sont à peu près d’avis de faire à peu près la même chose. Mais ce n’est pas gouverné, il y a des règles d’attribution que l’ICAN impose et que l’IANA respecte. Si ces règles étaient jugés pénibles par une grosse partie des opérateurs, ils cesseraient de les respecter, tout simplement. Donc en fait, Internet ne fonctionne que parce que 40 000 opérateurs ont réussit à se mettre d’accord sur le fait de ne rien faire. S’il y en a un qui se met à dire, moi je vais faire de l’internet mieux, autrement, tout à coup son internet ne va plus marcher avec celui des autres et l’ensemble n’a plus de sens. Son réseau n’a plus aucun intérêt : il a refabriqué son petit Minitel dans son petit coin mais son réseau n’est plus Internet. En fait, c’est parce que les 40 000 opérateurs ne font à peu près rien, que le système fonctionne.

Le système est, du coup, extrêmement résistant : comme je vous l’ai expliqué, si on tranche internet en deux. Par exemple, imaginez qu’on raye les États-Unis de la carte. On se dit que si on fait une ablation des États-Unis, Internet ne marche plus… Ce n’est pas vrai. Internet continue à fonctionner si vous faite une ablation des États-Unis. Alors effectivement, il y a plein de site qui ne vont plus marcher. Si vous voulez aller sur le site de la Maison Blanche, ça va très mal se passer, si vous voulez aller sur plein de vos site favori qui sont des sites états-uniens, ça va marcher bizarrement, voire pas du tout. Mais si vous voulez aller sur le site de l’Élysée, ça va continuer à fonctionner. Si vous voulez aller sur le site de Tetaneutral, pareil. Si vous voulez aller sur plein de sites, sur n’importe quoi sauf un site qui est sur un ordinateur aux États-Unis, ça va continuer à fonctionner. Internet est en ce sens extrêmement résistant.

Internet MapEt ce qui permet ça, c’est le fait qu’il soit extraordinairement simple. Si vous regardez la quantité de code informatique qu’il faut pour écrire un routeur internet, c’est ridiculement léger. Les premier routeurs, les plus petit et les plus faciles, c’était quelque millier de lignes de code. Dans les réseaux d’avant, le moindre routeur était une usine monstrueuse en comparaison. C’est une des raisons de son succès. Écrire quelque chose qui fonctionne sur internet, écrire quelque chose qui respecte le protocole IP, c’est un programme simple. Les équipements mis en œuvre sont simples. Ce qui est compliqué, c’est ce qui est en périphérie du réseau. Écrire un navigateur web, c’est indémerdable. Par contre, le réseau qui transporte ça n’a pas changé. Vous prenez le navigateur web le moderne d’aujourd’hui, vous le téléportez 20 ans dans le passé, quand les tout premiers serveurs web sont apparus, ça fonctionnera très bien. Les fondamentaux du réseau n’ont pas bougé, et ils bougeront très peu, justement parce que tout fonctionne sur le fait que c’est simple.

Internet ce sont également des services. Il y a quelques services centralisés. Quand tout est bien fait et que tout est bien rangé, il y a un seul service centralisé, c’est le service de nommage. Il n’y a pas de raison majeure à ça : il pourrait ne pas être centralisé mais pour le moment, il est unique. C’est le système de DNS : c’est ce qui à partir d’un nom comme www.tetaneutral.net vous obteniez une adresse IP unique qui permet de contacter l’ordinateur qui va bien. Toutefois ce système suit une centralisation distribué, c’est a dire que n’importe qui peut créer ses propres serveurs DNS, mais au final, seul une petite poignée de serveurs se trouve au sommet de la pyramide et font autorités.

Il y a des services qui sont entièrement centralisés mais qui ne sont pas vitaux. Les exemples types, ça va être MSN, ça va être Skype, ça va être Facebook, il y en a vraiment beaucoup. Ceux là, franchement, ils auraient aussi bien marché sur le Minitel.

Et puis il y a des applications qui sont a-centrées. L’exemple type c’est Jabber ou c’est le Mail. Jabber, je ne sais pas si tout le monde connaît, c’est une application qui permet de faire de la messagerie instantanée. Vous allez me dire, mais comme Skype ! Non, pas comme Skype. Sur Skype votre nom c’est toto42. Sur Jabber votre nom c’est toto42@mon-nom-de-domaine.fr ou chez n’importe quel nom de domaine valable. N’importe qui peut, sur son ordinateur, installer un serveur Jabber, sur lequel, puisqu’il a mon-ordinateur.mon-domaine.fr, il pourra créer des comptes Jabber avec le-nom-quil-veux@mon-ordinateur.mon-domaine.fr. Et n’importe quel utilisateur de Jabber dans le monde, ayant un compte sur un autre serveur, pourra contacter les utilisateurs de son serveur. Exactement comme le mail. Le mail n’est pas centralisé.

Ça c’est important à comprendre pour comprendre la nature de l’objet. On a passé la parie la plus technique.

Sur ce que Internet n’est pas…

Mire de télévisionInternet n’est pas un réseau de diffusion. La télévision, c’est un réseau de diffusion. Que ce soit par câble, par satellite ou par voie hertzienne, c’est un réseau de diffusion : il y a un point qui émet, et il y a un réseau qui transporte la pravda jusqu’au consommateur. Ça c’est un réseau de diffusion. Que ce soit diffusé par voie hertzienne, avec une belle antenne râteau sur le toit, ou que ce soit diffusé avec du multicast sur du réseau IP de dernière génération avec une box révolution ADSL bidule, c’est de la diffusion. Il n’y a pas de différence fondamentale dans le concept entre une antenne râteau et un freenitel, c’est pareil et c’est de la diffusion. Internet n’est pas un réseau de diffusion. Internet permet de faire de la diffusion, beaucoup regardent des vidéo sur Youtube, c’est bien de la diffusion. Internet permet de faire de la diffusion mais ce n’est pas un réseau de diffusion.

Ce n’est pas non plus un réseau de communication. Le téléphone est un réseau de communication. Vous tapez le numéro de téléphone de tata Roberte et quand tata Roberte décroche, vous communiquez avec elle. On fait parfois des réseaux de communication un peu plus complexe ou quatre personnes appellent le même numéro de téléphone et peuvent discuter toutes les quatre en même temps. On est à deux doigts d’avoir réinventer le salon IRC, en vachement plus cher ! Ça c’est un réseau de communication. Internet permet de faire de la communication, vous avez tous manipulé de la messagerie instantanée, vous avez tous manipulé des salons de discussion dans la messagerie instantanée. La discussion à quatre dans MSN est beaucoup moins compliqué que par téléphone. Internet permet de fabriquer n’importe quel réseau de communication mais il n’est pas un réseau de communication.

Internet n’est pas un média. Lefigaro.fr, lemonde.fr, tf1.fr, legorafi.fr, pour prendre les vrais bon, ce sont des médias. Et ce sont des média qui ont comme réseau de diffusion, Internet.

Internet permet de faire un réseau de diffusion, Internet permet de faire un réseau de communication, mais pas que ça, et ce n’est certainement pas un média.

Internet est un liant, c’est quelque chose de simple, c’est quelque chose de fondamental, qui permet de transporter n’importe quoi n’importe comment de manière relativement efficace. Ça peut faire de la diffusion, ça peut faire de la communication, ça peut héberger des médias et ça peut faire à peut prêt n’importe quoi qu’on puisse imaginer avec un réseau qui soit un hybride de ces trois bouts là, ou probablement encore d’autres trucs, qu’on peut imaginer.

Tout ça c’est ce qu’est Internet. Donc si vous avez dans l’idée qu’internet est le successeur du téléphone, vous avez en partie faux. Internet est un outils beaucoup plus générique, qui permet d’émuler le téléphone d’une main quand il s’emmerde alors que tout le reste du réseau fait autre chose. Typiquement, tous les transports téléphoniques internationaux, de nos jours, se font sur le protocole IP et ça ne doit pas occupé 2 % du réseau. La totalité du trafic voix de la planète est négligeable devant le trafic de Daylymotion. Donc quand je vous dit qu’Internet fait du réseau de communication, comme ça, d’une main distraite, pendant qu’il est occupé à autre chose, c’est vrai.

THSF 2015

THSF 2015Le THSF 2015, 6ème édition d’un festival à la notoriété grandissante, est terminé. C’est l’occasion d’un petit retour d’expérience sur cette édition superbe, diversifié et, selon moi, de qualité.

Il y avait beaucoup de hackers, d’artistes et de passionnés en tout genre au hangar de Mix’Art Myrys le week-end dernier. Le Toulouse Hacker Space Factory est un événement unique associant habilement technologie et art, teinté d’écologie et d’innovation, agrémenté de bricolages et montages épiques et au fonctionnement parfois miraculeux, tout ceci organisé et désorganisé avec une savante harmonie. Les interdisciplinarités sont légions ainsi que des systèmes techniques parfois très pointus mais toujours accessible pour le public, et faisant briller les regards émerveillés des enfants.

Nous y avons retrouvé certains classiques des précédentes éditions : le pong géant dont le succès intarissable génère des matchs ou petits et grands s’affrontent avec amusement, les minitels recyclés qui raconte des histoires (cette année elles étaient cochonnes), du « We make porn », du « We make tout-un-tas-de-trucs », les bornes d’arcades d’antan aux graphismes ancestraux mais toujours très appréciés et appréciables, un Jérémie Zimmermann très en forme et bien sûr le bar constituant un point de rencontre, débats et échanges enrichissants (que j’ai eu le plaisir et l’honneur d’organiser)…

Cette année, le programme avait volontairement été allégé sur les concerts, ce qui permis une montée en qualité de la partie conférences. Ainsi, le grand public aura pu écouté Bernard Stiegler qui est venu nous parler de philosophie du numérique et des changements que cela occasionne, Mediapart et Reporter Sans Frontière de la très controversé loi renseignement et d’hacktivisme. On regrettera l’annulation de la conférence de Julien Béthencourt sur un retour d’expérience en gouvernance collaborative d’entreprise suite à un souci d’avion, mais une conférence sur la langue des signes l’aura remplacé au pied levé.

Je ne vais pas épiloguer sur les détails du THSF, car d’autres l’ont déjà fait, mais plutôt fournir des moyens de se renseigner :

Merci à tous pour cette superbe édition et n’hésitez pas à ajouter d’autres lien en commentaire !

Dormez braves gens… – Partie 1 : les fondamentaux

Salle de classeJ’ai récemment effectué un sondage auprès des élèves à l’entrée en 6ème dans l’un des deux collèges où je travaille. Les résultats sont édifiants ! Vous pensez que la génération actuelle est plus douée que ses aînés en informatique ? Que baignant dans la technologie, ils ont acquis certaines compétences ? Que l’approche qu’ils ont avec la technologie a trait à quelques chose de naturel ?

Que nenni ! Bien sûr il existe toujours quelques individus éclairés, de nature curieuse et sans doute promis à un avenir meilleur que la moyenne de leurs camarades, mais en réalité les enfants se contentent, pour la plupart, de n’utiliser que Youtube et Facebook. Et la plupart du temps ils n’arrivent pas à faire la différence entre Internet et Google. Limiter l’informatique et Internet à cela pourrait être considéré comme une insulte au métier d’informaticien et à la diversité et la richesse des contenus proposés sur Internet… On peut même constater que la génération actuelle est bien moins compétente que celle des 30-40 ans.

Mais revenons aux origines de ce mal qui ne touche pas que les enfants mais également une grande partie des adultes. Internet à été créé au début des années 70 par des universités états-uniennes, pour le compte de l’armée de ce même pays. Le souci de l’armée était que la plupart des réseaux télématiques existants à l’époque (similaires au Minitel, par exemple), utilisaient un mode de fonctionnement centralisé. En conséquence, toute l’infrastructure devait être située en un unique lieu, la rendant toute entière vulnérable à une attaque. Dans le contexte de la guerre froide cette problématique revêtait une dimension primordiale. Ainsi, le cahier des charges de l’armée pour les universitaires barbus – et souvent un brin hippie – fut des plus simple : créer un réseau national et potentiellement mondial décentralisé qui continuerait à fonctionner même si plusieurs éléments de ce réseau venaient à être rayés subitement de la carte. Ce projet sera nommé ARPAnet. Dans le contexte historique de l’époque, l’idée était très claire : résister à une attaque nucléaire soviétique sur plusieurs grandes villes états-uniennes.

PDP-8Devant le peu de contraintes de ce cahier des charges, les universitaires barbus ont pu faire à peu près ce qu’ils voulaient, à tel point que le réseau ainsi créé était trop libre pour une utilisation militaire. N’oublions pas que fidèle au mouvement « peace and love » auquel beaucoup d’entre eux adhéraient, ils ont vu cette opportunité comme le moyen de se créer un espace de liberté, à l’opposé de tout contrôle et hiérarchie militaire. L’armée abandonna donc le projet ARPAnet tel qu’il existait à ce moment là – et créera une branche à part à partir des travaux réalisés à l’époque qui s’appellera MilNet. Toute l’infrastructure ainsi créée resta en la possession de ces premiers hackers du Net qui amélioreraient et étendraient ainsi continuellement ce réseau. Internet, appelé à l’époque NSFnet, était né. Le nom ARPA subsiste aujourd’hui dans le nommage de certain éléments important du réseau actuel. Le nom Internet vient de l’extension de NSFnet, qui relia des réseaux de professionnels à ceux des université. Le nom évoque clairement l’interconnexion de réseaux (network en anglais) déjà existants. Ci-contre, un PDP-8, ordinateur qui participa à la création d’Internet.

Dans les années 80 Internet représentait donc cet espace de liberté coupé des contraintes des États et des règles communément admises dans notre espace cartésien. Cela ne signifiait pas qu’il n’existait pas de règles. Cela signifiait que les hackers de l’époque avaient modelé un nouvel espace qui obéissait à leurs propres règles et selon les valeurs morales en lesquelles ils croyaient. On notera également qu’à cette époque – et jusqu’au milieu des années 90 – l’ensemble de ces utilisateurs étaient extrêmement éduqués : ils savaient tous comment Internet fonctionnait, au moins dans ses grandes lignes, ils étaient tous des créateurs de contenu et le moins spécialiste d’entre eux avait au moins un diplôme d’ingénieur – ou était-il en train de l’acquérir.

A cette époque, pas de contrôle, pas de commerce, pas d’argent et les fournisseurs d’accès, pour la plupart associatifs ou limités aux universités elles-même, ne géraient au maximum qu’une dizaine de millier d’abonnés. Les logiciels étaient systématiquement dans l’ordinateur ainsi que les données car les serveurs Internet de l’époque n’étaient de toute façon pas capables de stocker ce qu’aujourd’hui nous trouvons banal. Youtube ou le « cloud » auraient été inconcevables à la fois techniquement et moralement, si on considère les idéaux de ces pionniers. Tous les logiciels qui faisaient tourner ce tout jeune Internet étaient libres : le code était visible, tout était ouvert et tout reposait sur la notion de partage désintéressé pour le bien de tous et pour faire fonctionner ce tout nouveau réseau et média. Tout ce qui existait et qui permettait le fonctionnement de ce nouvel espace avait été créé selon les idéaux de ceux qui l’avaient imaginé et qui l’utilisaient.

Aujourd’hui, malgré les graves lacunes de la compréhension d’Internet et de ses enjeux, il faut reconnaitre que la forme d’auto-contrôle qui régnait au départ existe encore aujourd’hui. On peut prendre pour exemple Wikipedia ou les forums : les contenus qui sont de meilleures qualités sont distingués et sont à terme ceux qui subsiste et sont les plus consultés. L’excrément, lui, fini par disparaitre dans les oubliettes du réseau : il est toujours présent mais oublié et difficile d’accès.

Mais deux catastrophes sont arrivées.

Première catastrophe, l’ordinateur est devenu un média grand publique. Entendons nous, il ne s’agit pas d’une catastrophe en soit : la manière dont cela s’est déroulé en constitue une. Jusqu’au début des années 90, un ordinateur coûtait une fortune et se connecter à Internet était un véritable parcours du combattant. Et encore, il fallait des compétences techniques relativement importantes pour le mettre en place. Quelqu’un qui voulait se connecter à Internet était par définition un passionné et voulait dans la majorité des cas participer à l’amélioration du réseau. Par la suite, en France, nous sommes passé en l’espace de très peu de temps, au début des années 90, d’un public d’environ 15 000 personnes extrêmement éduqués sur le sujet à un public, en 2010, de 30 millions de personnes presque pas éduqués – voire pas du tout – qui ne savent pas comment ça fonctionne, qui ne sont même pas certains de savoir pourquoi ils ont acheté un ordinateur, parce que le voisin en a un, qu’il a dit que c’était fabuleux même si on a pas bien compris ni pourquoi, ni comment…

Esclaves enchaînésNaturellement, dans cette situation, les gens – du moins, ceux qui ne sont pas éduqués – vont utiliser l’outil de la manière la plus proche de ce qu’ils connaissent déjà et de leurs habitudes : la télévision. Un média extrêmement vertical, symbole d’autorité au quotidien et dont le gourou le plus visible est le présentateur du journal télévisé de TF1 ou de France 2, selon le bord politique. Autrement dit, la plupart des gens utilisent Internet d’une manière qui est à l’opposé de sa raison d’exister et des idéaux qui ont permis sa création : ils consomment passivement et sous contrôle un média originellement décentralisé, et donc très horizontal, et dont on a poussé la centralisation à son paroxysme. Et c’est bien ce qui est proposé : Youtube n’est ni plus ni moins que de la vidéo à la demande. Bien sûr il y a des gens qui proposent du contenu sur Youtube, mais quelle proportion représentent-ils ? 0,01 % ? Peut-être moins ? Et pourquoi Youtube ? Et pourquoi ne pas mettre mes vidéos chez moi, afin d’en rester le propriétaire ? Au delà de cette considération, les conséquences de ce comportement pourrait sembler anodine, mais ce n’est pas le cas. La télévision, tout comme le livre, était passive : la chaîne que je regardais ne savais pas que je la regardais. L’auteur d’un livre ne sait pas qui le li. Avec Internet ce n’est pas le cas : chaque site sait en détail qui le visite. Par conséquent, Youtube sait précisément quelles vidéo vous regardez.

La raison d’exister de Facebook est similaire et s’apparente à une téléréalité dont le milliard de comptes sont autant de personnes qui se mettent en scène pour tenter d’exister, et où compétitions et luttes intestines puériles sont monnaie courante. Ce qui est exprimé est bien souvent immature et Facebook s’appuie sur des comportements qui n’ont rien de nouveau. Il faut distinguer deux choses, le fond et la forme. Pour la forme : quand quelqu’un dit sur Facebook que ce matin il a été faire caca, on est bien face à quelqu’un qui n’a rien à raconter, parce que honnêtement, la plupart des informations circulant sur Facebook sont d’un niveau intellectuel qui élèverait Jean-Marie Bigard au rang des plus grands philosophes. Oppressé par l’omniprésence de messages de ses « amis », il faut bien raconter quelque chose, parce qu’au fond, depuis la nuit des temps, on essaye souvent de faire comme tous les autres. Le fond est plus subtil et fait appel à des sentiments bien moins nobles, comme la vie par procuration ou l’intrusion dans celle des autres – et ces intrusions sont loin d’être limité a celles des proches.

Facebook représente clairement le niveau d’immaturité de ces personnes qui n’ont pas l’habitude de s’exprimer publiquement, qui n’ont pas conscience ni des conséquences, ni de comment on s’exprime publiquement. On est ici plus proche de l’adolescent qui gribouille de mauvais graffitis sur la porte des toilettes de son école que de l’œuvre d’art ou même de l’article de presse. Le problème est que les graffitis sont publics et signés : tout le monde sait qui écrit quoi. Indépendement des problèmes d’image que je mentionne ici, dans Facebook et dans beaucoup d’autre sites comme Google ou Yahoo, il y a des robots. Ces robots sont chargés d’analyser l’ensemble des données de tout le monde et d’en tirer un maximum d’information. Leur but : vous connaître mieux que vous ne vous connaissez vous même. Prévoir ce que vous penserez, comment vous allez voter, quel sera votre opinions concernant tel ou tel autre fait divers. Et bien sur, si vous avez aimez ceci, alors vous adorerez cela. Toute ces projections permettent de nous vendre ce que nous désirons avant même d’y avoir penser. Mais ça rend également possible de formidables capacités à nous manipuler, à nous empêcher de penser autrement ou à nous faire manipuler d’autres personnes en les « invitant à » je ne sais quoi.

Quelques dollarsFigurez-vous que ça arrange bien les acteurs de l’industrie informatique et les gouvernements que le public ne soit pas éduqué. Ainsi, il est facile de vous vendre des choses inutiles, voire clairement malveillantes. Ainsi vous n’apprenez pas à vous exprimer efficacement sur des sujets auxquels vous tenez. Ainsi vous êtes de bons consommateurs de média et non des acteurs du monde nouveau qui est en train de naître sans vous. Autant dire que ce nouveau monde, les puissants veulent le contrôler, conserver ce qui leur est acquis, car un peuple qui est éduqué et qui s’exprime est, comme l’histoire a su le montrer, un peuple dangereux pour ceux qui détiennent le pouvoir, et je ne parle pas que de pouvoir politique. À cela il ne faut pas ignorer le niveau d’incompétence des députés et sénateurs, et donc aisément manipulable, qui en sont au même points que la plupart de leurs administrés à ce sujet.

Deuxième catastrophe, Internet s’est mis à générer beaucoup d’argent. Énormément d’argent. Selon le magazine Challenge dans un article de 2013, les 250 plus grandes entreprises de l’Internet représentent à elle seule 4 500 milliard de dollars de chiffre d’affaire. Et il ne s’agit que des 250 plus grandes. Alors évidemment de tels chiffres sont difficile à intégrer et à comprendre tant il donne le tournis, mais pour comparaison le budget annuel total de la France représente environ 1 500 milliard de dollars et le chiffre d’affaire du divertissement (musique, cinéma, livre, etc.), tout pays confondus, représenterai environ 1 000 milliard de dollars. Or après observation des campagnes de lobbying très intenses des grands groupes industriels et des géants de l’Internet comme Apple, Google ou Microsoft nous pouvons très facilement déduire que ces entités génèrent d’autant plus d’argent si les utilisateurs (et les députés) restent idiots avec leurs outils informatiques. Par ailleurs, si tout le monde comprenait les tenant et aboutissant, il est évidant qu’un grand nombres de pratiques informatiques courantes, nauséabondes mais extrêmement lucratives seraient mise à mal. Nous sommes donc en face d’une double raison pour l’entretien de l’utilisateur de l’informatique et d’Internet dans l’ignorance.

Bien que le problème du rapport du monde avec l’informatique soit un problème global – Eben Moglen le qualifie de catastrophe écologique -, la France est aujourd’hui un cas d’école pour ce qui est du manque de culture informatique : dans un classement de l’OCDE, la France arrive dernière ex-æquo avec la Roumanie, que ce soit pour le manque de culture informatique de la population ou pour le niveau dispensé dans l’enseignement public au collège et au lycée.

Snowden et l’avenir, partie IV : L’avenir de la liberté

THSF 2014À l’occasion du THSF 2014, ou j’aurais le plaisir de rencontrer certains d’entre vous, j’ai le plaisir de vous annoncer maintenant l’ultime partie IV de Snowden et l’avenir, intitulée pour ce dernier opus, « L’avenir de la liberté ». Cette série de traduction riche en péripétie se termine donc avec cette dernière conférence. En revanche la fin des traductions ne marque pas encore la fin de Snowden et l’avenir sur ce blog : vous aurez l’occasion d’en entendre parler de nouveau prochainement, avec de belles surprises à la clé.

N’oubliez pas de commencer par lire « Snowden et l’avenir, partie I : Vers l’ouest, le parcours de l’empire » puis « Snowden et l’avenir, partie II : Oh, liberté » et enfin « Snowden et l’avenir, partie III : L’Union, puisse-t-elle être préservée ».

Cette 4ème partie, comme pour les trois autres, est disponible sous deux formats :

Un grand merci aux traducteurs, relecteurs et toutes les personnes qui ont soutenues ce projet sans oublier les fidèles lecteurs de cette aventure qui touche aujourd’hui à sa fin.

N’hésitez pas à signaler les erreurs restantes ou à commenter dans la zone prévue (il faut être dans l’article, pas sur la page d’accueil du site).

Snowden et l’avenir, partie III : L’Union, puisse-t-elle être préservée

Chealsea ManningPlus d’un mois après la parution de la partie II, et avec du retard, j’ai le plaisir de vous annoncer maintenant la partie III de Snowden et l’avenir, intitulée cette fois, « L’Union, puisse-t-elle être préservée ». La traduction de cette nouvelle démonstration des talents d’orateur d’Eben Moglen a pris plus de temps à venir au monde que les autres à causes des vacances scolaires et de l’approche d’examens, guère propices aux travaux bénévoles. Ci-contre, la photo de Chelsea Manning une ancienne analyste militaire, lanceuse d’alerte peu avant Edward Snowden, qui a acceptée de donner 35 ans de sa vie – c’est la peine qui lui a été infligé – pour que nous sachions.

N’hésitez pas à lire en premier lieu « Snowden et l’avenir, partie I : Vers l’ouest, le parcours de l’empire » puis « Snowden et l’avenir, partie II : Oh, liberté ».

Cette 3ème partie, comme pour les deux autres, est disponible sous deux formats :

Comme pour les précédentes éditions, je remercie chaleureusement les traducteurs et relecteurs mais aussi les petits contributeurs qui ne sont pas crédités ainsi que les personnes qui ont partagées ces conférences afin de les diffuser.

N’hésitez pas à signaler les erreurs restantes ou à commenter dans la zone prévue (il faut être dans l’article, pas sur la page d’accueil du site).

La partie IV, qui sera la dernière, sera bientôt prête. Sa traduction est terminé mais la relecture ne l’est pas.

Snowden et l’avenir, partie II : Oh, liberté

Edward SnowdenPrès de quinze jours, après la publication de la partie I, intitulée « Vers l’ouest, le parcours de l’empire », j’ai l’honneur et le plaisir de publier la deuxième partie intitulée « Oh, liberté ». Vous avez ci-contre la photo d’Edward Snowden.

N’hésitez pas à lire en premier lieu la première partie, disponible ici : http://www.geoffray-levasseur.org/?p=651. Cette première partie a grâce à de nombreux retours subit certains remaniements et améliorations.

Vous trouverez donc cette seconde partie à télécharger ou lire en ligne si vous êtes équipé dans les mêmes formats et selon les mêmes conditions que la précédente :

Je remercie tout les traducteurs, relecteurs, soutiens moraux et techniques ainsi que les personnels des collèges George Sand et Vauquelin qui ont participé aux relectures.

La troisième partie avance et devrait être disponible vers la fin du mois.

Snowden et l’avenir, partie I : Vers l’ouest, le parcours de l’empire

Eben MoglenJ’ai, il y a peu, publié une traduction d’une conférence assez connue d’Eben Moglen. Malheureusement, j’ai souvent constaté que les versions françaises des travaux de cette personnalité brillante était trop peux nombreuses. Je me suis donc lancé avec l’aide d’amis, collègues et autres abonnés à mes listes de diffusion préférées dans la traduction d’un cycle de conférence remarquable, intitulé « Snowden and the future ». Ce n’était véritablement pas une mince affaire – et ça continue à ne pas en être une – mais le travail est aujourd’hui récompensé.

Eben Moglen, dont la photo est ci-contre, est le directeur et fondateur du « Software Freedom Law Center » (centre juridique pour la liberté logicielle), professeur de droit à l’université de droit de Columbia à New York et historien. Il a reçu en 2003 la récompense de pionnier de l’« Electronic Frontier Fondation », association qui défend la liberté sur Internet.

Vous trouverez donc cette première partie intitulée « Vers l’ouest le parcours de l’empire » à télécharger ou lire en ligne si vous êtes équipé :

Je remercie tout les traducteurs, relecteurs, soutiens moraux et techniques, dont notamment « La Quadrature du Net ».

La seconde partie devrait être en ligne à partir du 2 février si tout se passe bien.

Eben Moglen à « re:publica 12 »

Liberté guidant le peupleVoici la retranscription, revue, corrigée et annotée par mes soins, d’une conférence d’Eben Moglen, professeur de droit et d’histoire du droit à l’université de Columbia, avocat conseil de la Free Software Foundation et président du Software Freedom Law Center, lauréat en 2003 du prix de pionnier de l’Electronic Frontier Foundation. Cette conférence à eu lieu le 2 mai 2012 à Berlin. La version vidéo sous-titré est disponible ici : http://mediakit.laquadrature.net/formats_srt/19/29_small.webm. Merci aux transcripteurs originaux et a Benjamin Sonntag pour avoir mis la première version en français en ligne. Cette conférence est d’une telle qualité qu’il me fallait la partager et au passage l’améliorer…

Bonjour. C’est un plaisir d’être ici et un honneur d’être à « Re:publica ».

Depuis des millénaires, nos ancêtres se sont battus pour la défense de la liberté de penser. Nous avons subi des pertes immenses mais aussi remporté d’immenses victoires. Et nous sommes aujourd’hui à une époque charnière.

Depuis l’adoption de l’imprimerie par les européens au 15ème siècle, nous étions essentiellement concernés par l’accès aux livres imprimés. Le droit de lire et le droit de publier étaient les principaux sujets de notre combat pour la liberté de pensée ces 500 dernières années. La principale inquiétude était de pouvoir lire en privé, et pensée, parler et agir sur la base d’une volonté libre et non censurée. Le principal ennemi de la liberté de pensée, au début de notre combat, était l’Église Catholique Universelle. Une institution basée sur le contrôle des pensées dans le monde Européen, fondée sur une surveillance hebdomadaire de la conduite et des pensées de tout être humain, basée sur la censure de tout matériel de lecture. Et finalement basée sur la faculté de prédire et punir toute pensé non-orthodoxe.

Les outils disponibles pour le contrôle des pensées à l’aube de l’Europe moderne étaient pauvres, même selon nos standards du 20ème siècle, mais ils fonctionnaient. Ainsi, pendant des centaines d’années, la lutte était concentrée sur le premier objet industriel de masse, à l’importance croissante dans notre culture occidentale : le livre. Selon que l’on pouvait l’imprimer, le posséder, le vendre, le lire, apprendre grâce à lui, sans l’autorisation ou le contrôle d’une entité ayant le pouvoir de punir les pensées.

À la fin du 17ème siècle, la censure de l’écrit en Europe a commencé à céder, tout d’abord en Hollande, puis au Royaume-Uni, et enfin, par vagues, à travers toute l’Europe. Le livre devint alors un article de commerce subversif, et commença à grignoter le contrôle des pensées.

À la fin du 18ème siècle, cette lutte pour la liberté de lecture commença à attaquer la substance même du christianisme et le monde européen trembla sous les coups de la première grande révolution de l’esprit, qui parlait de « liberté, égalité, fraternité » mais qui signifiait en fait « liberté de penser autrement ». L’ancien régime commença a lutter contre la pensée et nous sommes passé dans une autre phase dans l’histoire de la liberté de pensée, qui présumait la possibilité de la pensée non-orthodoxe, et de l’action révolutionnaire. Ainsi pendant 200 ans, nous avons lutté face au conséquences de ces changements.

C’était hier et c’est aujourd’hui.

Aujourd’hui nous entamons une nouvelle ère dans l’histoire de l’espèce humaine. Nous construisons un « système nerveux unique », qui englobera tout esprit humain. Nous sommes à moins de deux générations aujourd’hui, du moment où tout être humain sera connecté à un réseau unique, où toute pensée, plan, rêve ou action sera un influx nerveux de ce réseau. Le destin de la liberté de pensée, ou plus largement le destin de toute liberté humaine, tout ce pour quoi nous avons combattu pendant des millénaires, dépendra de l’anatomie des neurones de ce réseau. Nous sommes la dernière génération d’êtres humains qui aura été formée sans contact avec le réseau. À dater de ce jour, tout nouvel être humain, et dans deux générations, tout cerveau de l’humanité aura été formé, depuis sa plus tendre enfance, en connexion directe avec le réseau. L’humanité deviendra une sorte de super-organisme dans lequel chacun de nous sera un neurone du cerveau. Nous le décrivons aujourd’hui, maintenant, chacun de nous, en ce moment, cette génération, unique dans l’histoire de l’humanité. Cette génération décidera de comment ce réseau sera organisé.

Hélas, nous commençons mal. Voici le problème.

Nous avons grandi en étant des consommateurs de médias, c’est ce qu’ils nous ont appris : que nous étions consommateurs de médias, mais maintenant les médias nous consomment. Les choses que nous lisons nous regardent en train de lire. Les choses que nous écoutons nous écoutent les écouter. Nous sommes tracés, nous sommes contrôlés : les médias que nous utilisons nous prédisent. Le processus de construction du réseau a gravé dans le marbre les principes de bases du transport de l’information. Il détermine s’il existe une chose telle que la lecture anonyme. Il a choisi de se construire contre la lecture anonyme.

Il y a 20 ans, j’ai commencé à travailler comme avocat pour un homme nommé Philippe Zimmermann, qui avait créé un système de cryptographie a clé publique destinée au grand public appelé « Pretty Good Privacy » (PGP). L’effort effectué pour créer PGP était équivalent à essayer de conserver la possibilité du secret en cette fin de 20ème siècle. Philippe essayait alors d’interdire au gouvernement de tout surveiller. En conséquence, il fut au moins menacé d’un procès par le gouvernement des États-Unis, pour avoir partagé des secrets militaires, car c’est ainsi qu’on surnommait la cryptographie à clé publique à l’époque. Nous avons dit : « Vous ne devriez pas faire cela, il y aura des milliards de dollars en commerce électronique, si tout le monde peut utiliser un chiffrement fort », mais personne n’était intéressé. Mais ce qui était important au sujet de PGP, au sujet de la lutte pour la liberté que la cryptographie à clé publique représentait pour la société civile, ce qui était crucial, devint clair quand nous avons commencé à gagner.

En 1995 il y a eu un débat à la faculté de droit d’Harvard. Nous étions quatre à discuter du futur de la cryptographie à clé publique et de son contrôle. J’étais du côté que je suppose être celui de la liberté, c’est de ce côté que j’essaye toujours d’être. Avec moi à ce débat se trouvait un homme nommé Daniel Weitzner, qui travaille aujourd’hui à la Maison Blanche et s’occupe de la régulation de l’Internet pour le président Obama. En face de nous se trouvait le procureur général des États-Unis et avocat dans le privé, Stewart Baker, qui était auparavant conseiller en chef de l’Agence de Sécurité Nationale (NSA), « ceux qui nous écoutent », et qui, dans le privé, aidait des entreprises à gérer ceux qui les écoutent. Il devint ensuite responsable de la politique générale du Département de la Sécurité Intérieure (DHS) des États-Unis et est responsable d’une bonne partie de ce qui nous est arrivé sur Internet après 2001. Donc, nous quatre venions de passer deux heures agréables à débattre du droit à la cryptographie. À la fin, il y avait une petite fête au club de la faculté de droit d’Harvard, et enfin, après la fin du repas, quand il ne resta plus grand chose sur la table, Stewart dit : « Allons messieurs, maintenant que nous sommes entre nous, telles des femmes libérons nos chevelures. ». Il n’avait déjà plus beaucoup de cheveux à cette époque, mais il les a libérés… « Nous n’emmènerons pas au tribunal votre client, M. Zimmermann », dit-il. « La cryptographie à clé publique sera bientôt libre. Nous avons mené une longue bataille perdue d’avance contre elle, mais ce n’était que pour gagner du temps ». Il regarda autour de la pièce et dit : « mais personne ne s’intéresse à l’anonymat, n’est-ce pas ? ». Un frisson descendit dans ma colonne vertébrale, et je pensais alors, « Ok Stewart, désormais, je sais : tu vas passer les 20 prochaines années à essayer d’éliminer l’anonymat dans la société humaine, et je vais essayer de t’en empêcher. Nous verrons bien où cela nous mènera. ».

Et cela nous a amené au pire.

Nous n’avons pas intégré l’anonymat quand nous avons construit Internet. C’était une erreur, dont nous payons maintenant le prix. Notre réseau présume que vous pouvez être suivis par des mouchards en permanence. En utilisant le Web, nous avons fabriqué Facebook. Nous avons mis une seule personne au milieu de tous les échanges. Nos vies sociales et nos vies privées sont sur le Web, et nous partageons tout avec nos amis mais aussi avec notre « super-ami ». Celui qui moucharde à quiconque fait de lui ce qu’il est, le paye, l’aide ou lui donne les centaines de milliards de dollars qu’il désire. Nous sommes en train de créer un média qui nous consomme et qui aime ça.

Le but principal du commerce au 21ème siècle est de prévoir comment nous faire acheter des choses. Et la principale chose que les gens veulent que nous achetions, c’est de la dette. Alors nous nous endettons, nous nous chargeons de plus de dettes, de plus de doutes, de plus de tout ce dont nous avons besoin sans que nous le sachions, jusqu’à ce qu’ils nous disent que nous pensions à ces choses, car ils possèdent la barre de recherche, et nous mettons nos rêves dedans : tout ce que nous voulons, tout ce que nous espérons, tout ce que nous aimerions avoir, tout ce que nous aimerions savoir est dans la barre de recherche, et ils la possèdent.

Nous sommes surveillés, partout, tout le temps. Au 20ème siècle il fallait construire Loubianka (ndr : nom de l’immeuble abritant le quartier général du FSB, le service de renseignement intérieur Russe, qui remplace le KGB soviétique.), il fallait torturer des gens, il fallait les menacer, il fallait les oppresser pour qu’ils vous informent sur leurs amis. Je n’ai pas besoin de parler de ça à Berlin (ndr : Moglen fait allusion à la Stasi.). Au 21ème siècle, pourquoi se donner tant de mal ? Il suffit de construire un réseau social et tout le monde fourni des informations sur tout le monde. Pourquoi gâcher du temps et de l’argent avec des immeubles pleins d’employés qui vérifient qui est qui sur les photographies ? Proposez à tout le monde de taguer leurs amis et bing, le travail est fait ! Ho ai-je vraiment utilisé ce mot ? Bing (ndr : Moglen fait un jeu de mot en référence au moteur de recherche de Microsoft) ! Le travail est fait !

Il y a une barre de recherche et ils la possèdent, et nous y collons nos rêve et ils les mangent ! Et il nous renvoient immédiatement qui nous sommes. « Si vous avez aimé ça, vous allez adorer ceci ! ». Et c’est le cas. Ils nous calculent, les machines le font. Chaque fois que vous créez un lien, vous apprenez quelque chose à la machine. Chaque fois que vous faite un lien au sujet de quelqu’un, vous apprenez quelque chose à la machine à propos de cette personne.

Il nous faut construire ce réseau, il faut que nous construisions ce cerveau. C’est le plus grand but de l’humanité et nous sommes en train de le réaliser mais nous n’avons pas le droit de le faire mal.

Autrefois les erreurs technologiques étaient des erreurs. Nous les commettions : elles étaient les effets non intentionnels de nos comportements fautifs. Mais les choses ont changé aujourd’hui : les choses qui ne tournent pas bien ne sont pas des erreurs, elles sont conçus comme ça. C’est leur but ! Et leur but est de décoder la société humaine.

Je parlais avec un responsable du gouvernement des États-Unis il y a quelques semaines de cela : notre gouvernement s’est mal conduit. Nous avions des règles que nous avions créées après le 11 septembre ; ces règles disaient : « Nous garderons les données concernant les gens, et parmi ces gens certains seront innocents, ils ne seront suspects de rien. ». Les règles conçues en 2001 disaient, « Nous conserveront des informations sur des gens qui ne sont suspect de rien pour une durée maximale de 180 jours, après quoi nous les détruirons. ». En mars (ndr : de l’année de la conférence, 2012), au milieu de la nuit, un mercredi après que tout soit éteint, alors qu’il pleuvait, le Ministère de la Justice et le directeur du renseignement national des États-Unis ont dit, « Ho, nous changeons ces règles. Un petit changement. Nous disions avant que la durée de conservation des données concernant les personnes non suspectes était au maximum de 180 jours ; nous changeons ça légèrement à 5 ans. », ce qui correspond à l’éternité ! J’ai plaisanté avec mon collègue avocat à New-York : ils ont écrit « 5 ans » dans le communiqué de presse parce qu’ils n’arrivaient pas à avoir le huit couché dans la police de caractères autrement ils auraient simplement dit « l’infini », qui est ce qu’ils pensaient.

J’avais donc cette conversation avec ce responsable gouvernemental que je connais depuis plusieurs années et qui travaille à la Maison Blanche et je lui ai dit : « Vous changez la société américaine ». Il a répondu : « Hé bien, nous sommes arrivé à la conclusion que nous avions besoin d’un graphe social robuste de la population des États-Unis ». J’ai dit : « Vous avez besoin d’un graphe social robuste de la population des États-Unis ? ». Il a dit « oui ». J’ai dit : « Vous voulez dire que le gouvernement des États-Unis va, à partir de maintenant, tenir une liste des gens que chaque américain connaît ? Est-ce que vous ne pensez pas que cela nécessiterait une loi ? ». Il a simplement rit. Parce qu’ils l’avaient fait dans un communiqué de presse, au milieu de la nuit, un mercredi, pendant qu’il pleuvait.

Si nous n’agissons pas rapidement, nous allons vivre dans un monde dans lequel nos médias se nourriront de nous et nous balancerons au gouvernement. Il n’y aura jamais eu de lieu comme celui là auparavant dans le monde ! Et si nous laissons cela arriver, nous ne verrons plus jamais autre chose que cela. L’humanité aura alors été ligotée et les médias se nourriront de nous et nous balancerons au gouvernement. L’état possédera alors nos esprits.

Le futur ex-président de la République Française (ndr : Nicolas Sarkozy, Moglen prédisait sa défaite), a fait campagne le mois dernier sur une proposition selon laquelle il devrait y avoir des peines criminelles contre la visite répétée de sites djihadistes. C’était une menace de criminaliser la lecture, en France ! Bon, il sera bientôt l’ancien président de la France mais ça ne signifie pas que ce sera une ancienne idée en France, loin de là ! La criminalisation de la lecture a bien avancé. Aux États-Unis, dans ce que nous appelons les procès terroristes, nous voyons désormais souvent des recherches Google faites par les personnes soumises comme preuves de leur comportement criminel. La recherche de connaissances est devenue une preuve dans les procès de terrorisme organisé. Nous rendons criminel l’acte de penser, lire et chercher. Nous le faisons dans des sociétés soit-disant libres. Nous le faisons malgré le premier amendement. Nous le faisons en dépit des leçons de notre histoire parce que nous oublions alors même que nous apprenons.

Nous n’avons pas beaucoup de temps. La génération qui a grandi hors du réseau est la dernière qui peut le réparer sans violence.

Tous les gouvernements de la planète sont tombés amoureux de l’idée qu’ils peuvent faire du « datamining » (ndr : technique ayant pour objet l’extraction d’un savoir ou d’une connaissance à partir de grandes quantités de données, par des méthodes automatiques ou semi-automatiques d’analyse) avec leurs populations. Je pensais auparavant que nous allions combattre le Parti Communiste Chinois durant la troisième décennie du 21ème siècle. Je n’avais pas prévu que nous aurions à combattre le gouvernement des États-Unis d’Amérique et le gouvernement de la République Populaire de Chine. Et quand Mme Kroes (ndr : Femme politique néerlandaise, vice-présidente du volet « Société Numérique » de la commission Barroso II, controversée suite à de nombreuses suspicions de conflits d’intérêts) sera ici vendredi, peut-être lui demanderez-vous s’il faudra la combattre aussi (ndr : Moglen emploi un ton laissant sous-entendre qu’il faudra effectivement la combatre.).

Les gouvernements sont tombé amoureux du datamining car ça fonctionne vraiment très bien. C’est efficace. C’est efficace pour les bonnes causes tout autant que pour les mauvaises. C’est efficace pour aider les gouvernements à comprendre comment offrir des services. C’est efficace pour aider les gouvernements à comprendre quels seront les problèmes futurs. C’est efficace pour aider les politiciens à comprendre comment les votants vont réfléchir. Mais ça rend aussi possible des types de contrôle social qui étaient avant ça très compliqués, très coûteux et très pénibles au profit de méthodes très simples et très efficaces. Il n’est plus nécessaire de maintenir des réseaux imposants d’informateurs comme je l’ai déjà signalé. La Stasi (ndr : service de renseignement intérieur de la RDA) ne coûterait plus rien si elle revenait car « Suceurberg » (ndr : surnom donné par Moglen à Zuckerberg du fait de la grande ressemblance phonétique en anglais avec Suckerberg, literallement Suceurberg) fait le boulot à sa place.

Mais au delà de la simple facilité à surveiller, au delà de la conservation des données, c’est la persistance de vivre après le temps où l’on oubliait. Plus rien ne disparaît jamais. Ce qui n’est pas compris aujourd’hui le sera demain. Le trafic chiffré que vous utilisez aujourd’hui dans des conditions de sécurité relatives est en attente jusqu’à ce qu’il y en ait suffisamment pour que la crypto-analyse fonctionne pour que les décodeur réussissent à le décrypter. Il va falloir que nous refassions toutes nos règles de sécurité, tout le temps, pour l’éternité, car plus aucun paquet (ndr : plus petite unité de donnée exploitable dans un réseau numérique) chiffré ne sera plus jamais perdu. Rien n’est déconnecté indéfiniment, seulement temporairement. Chaque bribe d’information peut être conservée et tout est éventuellement lié à quelque chose d’autre. C’est la logique des responsables gouvernementaux qui disent : « Il nous faut un graphe social robuste de la population des États-Unis. ». Pourquoi en avez-vous besoin ? Parce que les points non connectés aujourd’hui seront connectable demain, ou l’an prochain, ou le suivant. Rien n’est jamais perdu, rien ne disparaît rien n’est plus oublié.

Donc, la forme primaire de collecte, qui devrait nous inquiéter le plus est que les médias nous espionnent pendant que nous les utilisons. Les livres qui nous regardent lire, la musique qui nous écoutent en train de l’écouter, la barre de recherche qui surveille ce que nous recherchons pour ceux qui nous recherchent et ne nous connaissent pas encore. Les gens parlent beaucoup des données qui sortent de Facebook : « Est-ce qu’elles sortent pour moi ? Est-ce qu’elles sortent pour lui ? Est-ce qu’elles sortent pour eux ? ». Ils veulent que vous pensiez que la menace est que les données sortent. Vous devriez savoir que la menace c’est le code qui entre. Sur les 50 dernières années ce qu’il s’est passé dans l’informatique d’entreprise c’est l’addition de cette couche d’analyse de données au dessus du stockage des données. On la nomme dans l’informatique d’entreprise « l’informatique décisionnelle », ce qui signifie que vous avez construit ces vastes stockages de données dans votre entreprise depuis 10 ou 20 ans, que vous disposez uniquement d’informations au sujet de vos propres opérations : vos fournisseurs, vos concurrents, vos clients. Désormais vous voulez que ces données fassent de la magie. En les combinant avec des sources de données ouvertes disponibles dans le monde afin de les utiliser pour répondre à des questions que vous ignoriez vous poser. C’est ça l’informatique décisionnelle. La réelle menace de Facebook c’est l’informatique décisionnelle à l’intérieur des données de Facebook. Les stockages de données de Facebook contiennent les comportements, pas seulement la pensée, mais aussi le comportement de près d’un milliard de personnes. La couche d’informatique décisionnelle au dessus de ça, laquelle est simplement tout le code qu’ils peuvent faire tourner en étant couverts par les règles d’utilisation qui disent qu’ils peuvent faire tourner tout le code qu’ils veulent pour « améliorer l’expérience ». L’informatique décisionnelle sur Facebook, c’est la que tous les services de renseignement du globe veulent être.

Imaginez que vous soyez une petite organisation de services secrets dans un quelconque pays sans importance. Mettons-nous à leur place. Appelons les, je ne sais pas moi, disons « Kirghista » (ndr : allusion à peine masqué à la totalitarisation (évidente mais dont tout le monde se fiche) du pouvoir dans différents pays dont le nom se termine en « istan »). Vous êtes les services secrets, vous êtes dans le « business des gens ». Les services secrets sont le « business des gens ». Il y a plusieurs catégories de gens dont vous avez besoin, vous avez besoin d’agents, de sources, vous avez des adversaires et vous avez des gens influençables, des gens que vous pouvez torturer qui sont reliés à vos adversaires : femmes, maris, pères, filles… Vous voyez ? Ce genre de gens. Donc vous cherchez ces catégories de gens. Vous ignorez leurs nom, mais vous savez à quoi ils ressemblent. Vous savez qui vous pouvez recruter en tant qu’agent, vous savez qui sont les sources potentielles. Vous connaissez les caractéristiques sociales de vos adversaires, et des que vous connaissez vos adversaires vous pouvez trouver les influençables. Donc ce que vous voulez faire c’est faire tourner du code dans Facebook. Cela va vous aider à trouver les personnes dont vous avez besoin. Cela va vous montrer les personnes dont les comportements et les cercles sociaux vous indiquent qu’ils sont ce dont vous avez besoin, qu’il s’agisse d’agents, de sources, quels sont leurs adversaires et qui vous pouvez torturer pour les atteindre. Donc vous ne voulez pas sortir des données de Facebook. Le jour ou ces données sortent de Facebook, elles sont mortes ! Vous voulez mettre du code dans Facebook et le faire tourner là bas et avoir les résultats : vous voulez coopérer.

Facebook veut être un entreprise de média. Ils veulent posséder le Web. Ils veulent que vous poussiez des boutons « J’aime ». Les boutons « J’aime » sont effrayants même si vous n’appuyez pas dessus. Ce sont des mouchards pour le Web parce qu’ils indiquent à Facebook toutes les autres pages que vous consultez contenant un bouton « J’aime ». Que vous appuyez dessus ou pas, ils ont un enregistrement qui indique que vous avez consulté une page qui intégrait un bouton « J’aime » et soit vous dites oui, soit vous dites non. Mais dans les deux cas, vous avez généré une donnée, vous avez informé la machine.

Or donc, ce média veut mieux vous connaître que vous ne vous connaissez vous-même et nous ne devrions laisser personne faire ça. Nous avons combattu pendant des milliers d’années pour l’espace intérieur, cet espace dans lequel nous lisons, pensons, réfléchissons et devenons non-orthodoxe à l’intérieur de nos propres esprits. C’est cet espace que tout le monde veut nous prendre.

« Dites-nous quels sont vos rêve, dites-nous quelles sont vos pensées, dites nous ce que vous espérez, dites-nous ce qui vous effraie ». Ce n’est pas une confession privée hebdomadaire (ndr : allusion à la confession hebdomadaire catholique.), c’est une confession vingt quatre heures sur vingt quatre, sept jours sur sept. Le robot mobile que vous transportez avec vous, celui qui sait où vous vous trouvez en permanence et écoute chacune de vos conversations, celui dont vous espérez qu’il ne moucharde à aucun centre de contrôle, mais ce n’est qu’un espoir, celui qui fait tourner tous ces logiciels que vous ne pouvez ni lire, ni étudier, ni voir, ni modifier, ni comprendre, celui-là, celui-là même écoute vos confessions, en permanence. Désormais, lorsque vous le tiendrez devant votre visage, il connaîtra votre rythme cardiaque, c’est une application Android, dès maintenant ! Les changements minimes de la couleur de votre visage révèlent votre fréquence cardiaque. C’est un petit détecteur de mensonges que vous transportez avec vous. Bientôt, je pourrais de mon siège dans ma salle de classe observer la pression sanguine de mes étudiants monter et descendre. Dans une classe d’école de droit aux États-Unis, c’est une information de première importance ! Mais il ne s’agit pas de moi bien sûr. Il s’agit de tout le monde, n’est-ce pas ? Car il s’agit seulement de données et des gens y ont accès. L’intérieur de votre tête devient l’extérieur de votre visage, et devient l’intérieur de votre smartphone, et devient l’intérieur du réseau, et devient le premier fichier du dossier au centre de contrôle.

Nous avons donc besoin de médias libres ou nous perdrons la liberté de pensée, c’est aussi simple que ça. Que signifie un média libre ? Un média que vous pouvez lire, auquel vous pouvez penser, auquel vous pouvez faire des ajouts, auquel vous pouvez participer, sans être suivi, sans être surveillé, sans qu’il y ait de rapports sur votre activité. C’est cela un média libre. Si nous n’en avons pas, nous perdons la liberté de penser peut-être pour toujours.

Avoir des médias libres signifie avoir un réseau qui se comporte conformément aux besoins des gens situés à la marge, pas conformément aux besoins des serveurs situés au cœur. Construire un média libre requiert un réseau de pairs, pas un réseau de maîtres et de serviteurs, pas un réseau de clients et serveurs, pas un réseau ou les opérateurs de réseaux contrôlent tous les paquets qu’ils font transiter. Ce n’est pas facile, mais c’est encore possible.

Nous avons besoin de technologies libres. La dernière fois que j’ai donné une conférence politique à Berlin, c’était en 2004. Elle était intitulée « die Gedancken sind frei » (ndr : retranscription de Gedancken phonétique, : ni moi, ni le premier transcripteur ne connaissent assez bien l’allemand.). J’y disais : « nous avons besoin de trois choses : des logiciels libres, du matériel libre et de la bande passante libre ». Maintenant nous en avons encore plus besoin. Huit année ont passé, nous avons fait des erreurs, les problèmes sont plus conséquents, nous n’avons pas avancé, nous avons régressé.

Nous avons besoin de logiciels libres, c’est à dire des logiciels que l’on peut copier, modifier et redistribuer. Nous en avons besoins parce que nous avons besoin que le logiciel qui fait fonctionner le réseau soit modifiable par les personnes que le réseau englobe.

La mort de M. Jobs est un événement positif. Je suis désolé de vous le dire de la sorte. C’était un grand artiste et un monstre sur le plan moral. Il nous a rapproché de la fin de la liberté à chaque fois qu’il a sorti quelque chose, parce qu’il détestait partager. Ce n’était pas de sa faute, c’était un artiste. Il détestait partager parce qu’il croyait qu’il avait tout inventé, même si ce n’était pas le cas. À l’intérieur de toutes ces coques fines portant le logo d’Apple, que je vois partout dans la salle, il y a des morceau de logiciels libres, modifiés pour lui donner le contrôle, rien d’illégal, rien de mal, il respecte les licences. Il nous a baisé à chaque fois qu’il pouvait et il a pris tout ce que nous lui avons donné et il a fait des jolie choses qui contrôle leurs utilisateurs. Autrefois, il y avait un homme ici qui construisait des choses, à Berlin, pour Albert Speer (ndr : Architecte allemand, ministre de « l’armement et de la production de guerre » pendant une partie du Troisième Reich), son nom était Philip Johnson et il était un brillant artiste et un monstre sur le plan moral. Il disait qu’il était venu travailler à construire des immeubles pour les nazis parce qu’ils avaient tous les meilleurs graphismes. Et il le pensait, parce qu’il était un artiste, tout comme M. Jobs était un artiste. Mais être artiste n’est pas une garantie de moralité.

Nous avons besoin de logiciels libres ! Les tablettes que vous utilisez, que M. Jobs a conçu, sont faite pour vous contrôler, vous ne pouvez pas modifier le logiciel, il est même difficile de faire de la simple programmation. Ce n’est pas vraiment un problème, ce ne sont que des tablettes, nous ne faisons que les utiliser, nous ne faisons que consommer la gloire de ce qu’elles nous apportent mais elles vous consomment aussi.

Nous vivons comme la science-fiction que nous lisions lorsque nous étions enfants qui suggérait que nous serions parmi les robots. À ce jour nous vivons communément avec des robots mais ils n’ont pas de bras ou de jambes, nous sommes leurs bras et leurs jambes, nous transportons les robots partout avec nous, ils savent ou nous allons, ils voient tout ce que nous voyons, tout ce que l’on dit ils l’écoutent et il n’y a pas de première loi de la robotique (ndr : référence aux loi de la robotique dans les œuvres d’Isaac Asimov, la première interdisant aux machines de faire du mal aux êtres humains). Ils nous font du mal, tous les jours. Il n’y a aucun réglage pour empêcher cela. Donc nous avons besoin de logiciels libres : à moins que nous ne contrôlions le logiciel du réseau, le réseau finira par nous contrôler.

Nous avons besoin de matériels libres ! Cela signifie que lorsque nous achetons un bidule électronique, il devrait être le notre, pas celui de quelqu’un d’autre. Nous devrions être libre de le modifier, de l’utiliser comme il nous plaît, pour garantir qu’il ne travaille pas pour quelqu’un d’autre que nous même. Bien sûr que la plupart d’entre nous ne modifiera jamais rien, mais le fait que nous pouvons le modifier nous met en sécurité. Bien sûr, nous ne serons jamais qui ils veulent le plus surveiller. L’homme qui ne sera pas président de la France, pour sûr, mais qui pensait qu’il le serait, dit à présent qu’il a été piégé et que sa carrière politique a été détruite non pas parce qu’il a violé une femme de chambre mais parce qu’il était manipulé en espionnant dans son smartphone. Peut-être qu’il dit la vérité ou peut-être pas. Mais il n’a pas tort au sujet du smartphone. Peut-être que c’est arrivé, peut-être pas. Mais ça arrivera.

Nous transportons de dangereuses choses avec nous, partout où nous allons. Elles ne travaillent pas pour nous, elles travaillent pour quelqu’un d’autre. Nous l’acceptons mais nous devons arrêter.

Nous avons besoin de bande passante libre. Cela signifie que nous avons besoin d’opérateurs réseaux qui sont des transport en commun dont le seul travail est de déplacer les paquets dans le réseau d’un point A à un point B. Ce sont presque des tuyaux, il ne sont pas autorisés à être impliqués. Il était normal quand un colis était transporté d’un point A à un point B, que si le gars entre les deux l’ouvrait et regardait ce qu’il contenait, il commettait un crime. Plus maintenant !

Aux États-Unis d’Amérique, la chambre des représentants a voté la semaine dernière, que les opérateurs réseaux aux États-Unis devaient être intégralement immunisés de poursuites judiciaires pour coopération d’espionnage illégal de gouvernement pour autant qu’ils l’ont fait « de bonne foi ». Et le capitalisme signifie que vous n’avez jamais à dire que vous êtes désolé, vous êtes toujours de bonne foi. « De bonne foi tout ce que nous voulons faire c’est de l’argent, M. le président du tribunal. Laissez nous tranquille. ». « Très bien, vous êtes libre. ».

Nous devons avoir de la bande passante libre ! Nous possédons encore le spectre électromagnétique. Ils nous appartient encore à nous tous. Il n’appartient à personne d’autre. Le gouvernement est un mandataire, pas un propriétaire. Nous devons avoir le spectre que nous contrôlons, égal pour tous. Personne n’est autorisé à écouter quelqu’un d’autre, pas d’inspection, pas de vérification, pas d’enregistrement. Cela doit être la règle.

Cela doit être la règle de la même façon que la censure doit disparaître. Si nous n’avons pas de règle pour une communication libre, alors nous réintroduisons la censure, qu’on le sache ou pas.

Nous avons donc très peu de choix maintenant. Notre espace a rétréci. Nos possibilités pour changer ont diminué. Nous devons avoir des logiciels libres ! Nous devons avoir des matériels libres ! Nous devons avoir de la bande passante libre ! Seulement avec eux nous pouvons faire des médias libres. Mais nous devons travailler sur les médias aussi, directement, non pas par intermittence, non sans y faire attention. Nous devons demander aux organisations de médias d’obéir à des règles éthiques élémentaires. Une première loi des médias robotiques : « ne fait aucun mal ». La première règle est : « ne surveille pas le lecteur ». Nous ne pouvons pas vivre dans un monde où chaque livre signale chaque lecteur. Si nous pouvons, nous vivons dans une bibliothèque gérée par le KGB (ndr : service de renseignement intérieur de l’URSS). Enfin, « amazon.com » ou le KGB ou les deux, vous ne pourrez jamais savoir !

Le livre, cet objet imprimé merveilleux, ce premier produit du capitalisme de masse, le livre est en train de mourir. C’est une honte, mais il est en train de mourir. Et son remplaçant est une boîte qui, soit surveille son lecteur, soit pas. Vous vous souvenez qu’amazon.com a décidé qu’un livre de Georges Orwell ne pouvait être distribué aux État-Unis pour des raisons de copyright. Ils sont venus et l’ont effacé de toutes les liseuses d’amazon où les clients avaient acheté des copies de « La Ferme des animaux ». « Ho, vous l’avez peut être acheté, mais cela ne signifie pas que vous êtes autorisé à le lire ». C’est de la censure ! C’est de l’autodafé ! C’est tout ce que nous avons traversé au 20ème siècle : nous avons brûlé des gens, des maisons et l’art, nous avons combattu, nous avons tués des dizaines de millions de personnes pour mettre un terme à un monde dans lequel l’état aurait brûlé les livres et ensuite nous nous en sommes souvenu comme si c’était fini encore et encore et maintenant nous nous apprêtons à autoriser que cela soit fait sans combats. Partout ! Tout le temps !

Nous devons avoir une éthique des médias ! Et nous avons le pouvoir d’imposer cette éthique, parce que nous somme encore ceux qui payent le fret. Nous ne devrions pas commercer avec des gens qui vendent des livres sous surveillance. Nous ne devrions pas commercer avec des gens qui vendent de la musique sous surveillance. Nous ne devrions pas commercer avec des sociétés cinématographiques qui vendent des films sous surveillance.

Nous allons devoir dire cela même si nous travaillons sur la technologie. Parce qu’autrement le capitalisme va agir aussi vite que possible pour rendre nos efforts de liberté caducs et il y aura bientôt des enfants qui naîtrons et qui ne sauront jamais ce que « liberté » signifie réellement. Nous devons nous faire comprendre. Cela va nous coûter un peu, pas beaucoup mais un peu quand même. Nous allons devoir nous priver et faire quelques sacrifices dans nos vies pour faire appliquer cette éthique aux médias. Mais c’est notre rôle ! De même que faire des technologies libres, c’est nôtre rôle. Nous sommes la dernière génération capable de comprendre directement ce que sont ces changements car nous avons vécu des deux côtés de ces changements et nous savons. Nous avons donc une responsabilité. Vous comprenez cela (ndr : Moglen sait qu’il s’adresse principalement à un public d’informaticiens engagés).

C’est toujours une surprise pour moi, néanmoins vrai, que de toutes les villes du monde où j’ai voyagé, Berlin est la plus libre. Vous ne pouvez plus porter de chapeau dans l’aéroport de Hong-Kong. Je l’ai découvert le mois dernier en essayant de porter mon chapeau dans l’aéroport de Hong-Kong. « Ce n’est pas autorisé, ça perturbe la reconnaissance faciale ». Il va y avoir un nouvel aéroport ici. Sera-t-il tellement surveillé que vous ne serez pas autorisé a porter un chapeau parce que cela perturbe le système de reconnaissance faciale ? Nous avons une responsabilité, nous savons. C’est ainsi que Berlin est devenue la ville la plus libre où j’ai pu me rendre. Parce que nous savons, parce que nous avons une responsabilité, parce que nous nous souvenons, parce que nous avons été des deux côtés du mur. Cela ne doit pas être perdu maintenant. Si nous oublions, plus aucun oubli ne sera jamais possible. Tout sera mémorisé ! Tout ce que vous avez lu, durant toute votre vie, tout ce que vous avez écouté, tout ce que vous avez regardé, tout ce que vous avez cherché.

Assurément, nous pouvons transmettre à la prochaine génération un monde libre de tout ça. Assurément, nous le devons ! Que se passera-t-il si nous ne le faisons pas ? Que diront-ils, lorsqu’ils réaliseront que nous avons vécu à la fin de millénaires de lutte pour la liberté de penser et qu’au final, alors que nous avions presque tout gagné, on a tout laissé tomber par commodité, pour un réseau social. Parce que M. « Suceurberg » nous l’a demandé. Parce que nous n’avons pas trouvé de meilleur moyen pour parler à nos amis. Parce que l’on a aimé ces belles petites choses, si chaleureuse dans notre main. Parce que nous n’avions pas vraiment prêté attention à l’avenir de la liberté de penser ? Parce que nous avions considéré que c’était le travail de quelqu’un d’autre. Parce que nous avons pensé que c’était acquis. Parce que nous pensions être libres. Parce que nous n’avions pas pensé qu’il restait des luttes à terminer. C’est pourquoi nous avons tout laissé tomber. Est-ce que c’est ce que nous allons leur dire ?

Est-ce que c’est ce que nous allons leur dire ?

La liberté de penser exige des médias libres. Les médias libres exigent une technologie libre. Nous exigeons un traitement éthique lorsque nous lisons, lorsque nous écrivons, lorsque nous écoutons et lorsque nous visionnons. Cela est la substance de nos politiques, nous devons conserver ces politiques jusqu’à notre mort. Parce que dans le cas contraire, quelque chose d’autre va mourir. Quelque chose de tellement précieux que beaucoup, beaucoup, beaucoup de nos pères et de nos mères y ont donné leur vie. Quelque chose de tellement précieux que nous sommes d’accord pour dire qu’il est la définition de ce qu’est un être humain. Ça mourra ! Si nous ne maintenons pas ces politiques, pour le restant de nos jours. Et si nous les maintenons, alors toutes les choses pour lesquelles nous avons lutté se réaliseront. Parce que partout sur la planète, chaque personne pourra lire librement. Parce que tous les Einstein des rues auront le droit d’apprendre. Parce que tous les Stravinski deviendront compositeurs. Parce que tous les Salk (ndr : Jonas Salk, biologiste et médecin Américain, inventeur du vaccin contre la polio.) deviendront des chercheurs en médecine. Parce que l’humanité sera connecté et que chaque esprit sera autorisé à apprendre et aucun esprit ne sera écrasé pour avoir mal pensé.

Nous sommes à un moment décisif ou nous devons choisir, soit de soutenir cette grande révolution que nous avons bâtie sur nos aïeux bit après bit depuis des millénaires ou de tout laisser tomber par commodité, par simplicité de parler avec nos amis, pour la rapidité des recherches et toutes ces autres choses vraiment importantes…

Je disais en 2004, ici même, et je le redis maintenant : « nous pouvons vaincre ». Nous pouvons être la génération de gens qui ont terminé le travail de construire la liberté de penser. Je ne l’ai pas dis alors mais je dois le faire maintenant, que nous sommes aussi potentiellement la génération qui aura perdue. Nous pouvons régresser dans une inquisition pire que toutes les inquisition qui ont jamais existé. Elle n’usera sûrement pas tant de torture, elle ne sera peut-être pas aussi sanguinaire, mais elle sera bien plus efficace. Et nous ne devons pas laisser cela arriver.

Trop de gens se sont battus pour nous. Trop de gens sont mort pour nous. Trop de gens ont espéré et rêvé pour ce que nous pouvons encore réaliser.

Nous ne devons pas échouer !

Merci beaucoup.

Compilez votre propre noyau Linux

Kernel LogoCompiler votre propre noyau Linux est la première étape dans l’optimisation des performance de votre système. En le créant avec exactement ce dont vous avez besoin, vous diminuer votre temps de démarrage et votre utilisation mémoire. Ce sera également un bon moyen de prendre en charge des périphériques que le noyau de votre distribution ne gère pas encore. Néanmoins, il vous faudra une connaissance approfondie des capacités de votre ordinateur et des périphériques qu’il contiens. Comme exemple, je prendrais la famille de carte mère Intel DH67 avec un système Debian Squeeze de base correctement installé. Cette famille de carte utilise le nouveau chipset Sandy Bridge pour lequel la partie Ethernet n’est pris en charge que depuis la version 2.6.38 du noyau et la partie graphique la version 3.0.0. Pour pouvoir installer cette Debian Squeeze je fus donc forcé d’ajouter une carte réseau provisoire sur le seul port PCI de la carte (une carte de la famille RTL8139). Veuillez remarquer que certaine version de carte mère de cette famille ont un pont PCI-Express vers PCI non supportés (comme sur la DH67GD-B3, alors qu’il fonctionne sur une DH67BL-B3), vous pourriez donc avoir besoins d’une carte PCI-Express si vous êtes dans ce cas. Une autre possibilité pour installer le système de base et le nécessaire pour compiler votre propre noyau est de mettre votre disque dur dans un autre ordinateur avec des périphérique plus ancien et bien pris en charge. Notez que si vous procédez avec ce tutoriel sans modification vous devrez être super-utilisateur (root) en quasi-permanence. Par conséquent je recommande de vous logger en root maintenant soit avec « su » soit avec « sudo /bin/bash ». Tout ceci est complètement fonctionnel sur les distributions basés sur Debian (incluant Ubuntu).

Les seuls paquets que vous devrez installer sur un système Debian pour compiler un nouveau noyau sont build-essential et libncurses5-dev :

build-essential est un méta-paquet qui installera gcc, g++ (inutile pour le noyau), libc6-dev et make. libncurses5-dev vous permettra d’utiliser l’interface ncurses pour configurer vos options de compilation (optionel mais chaudement recommandé). Vous remarquerez que contrairement à la plupart des paquets source sous les systèmes Linux, autoconf, automake et libtool ne sont pas nécessaire pour le noyau. Si vous n’utilisez pas une Debian ils vous faudra l’outil GNU Make, le compilateur C GNU et les en-têtes de la GNU libc6 et de la bibliothèque NCurses. LA compilation peut fonctionner avec des outils non GNU mais ce sera plus risqué et requièrera une procédure différente de celle donné ici. Néanmoins, les outils BSD sont connu pour bien fonctionner. A présent il faut télécharger le code source du noyaux Linux. Le mieux est de télécharger la dernière version, à moins que vous ne soyez un paranoïaque de la stabilité et / ou de la sécurité. Si c’est votre cas, vous pourrez choisir un noyau à quatre nombres. Je m’explique : les nouvelles versions sont numérotés x.y.z alors que les révisions de sécurité ont un nombre supplémentaire x.y.z.r. Remarquez qu’il n’y a pas de gros changement dans les séries 3.0.0 du noyau. Le changement de version majeur a seulement été adopté pour fêter le 20ème anniversaire de Linux. C’est donc pour les packageurs une série 2.6. Vous trouverez les archives du code source du noyau ici : http://www.kernel.org ou sur des miroir (la liste des miroir est disponible ici : http://mirrors.kernel.org/). Pour la carte mère de mon exemple je recommande la version 3.0.4 du noyau. Les commandes seront donc :

Maintenant expliquons ceci. Nous allons dans le répertoire /usr/src ou de nombreux module externe du noyau s’attendent à trouver le code source (par ex. les pilotes propriétaire NVidia). Nous téléchargeons ensuite l’archive du code source du noyau et l’extrayons. La dernière ligne est un lien de compatibilité vers la version du noyau que nous utiliserons (ceci suppose que ce sera notre version par défaut du noyau) pour permettre la compilation de modules externes (certains paquet peuvent également avoir besoin d’accéder au code source du noyau pour se compiler). Si vous n’envisagez pas de compiler autre chose vous pouvez placer en toute sécurité les sources de votre noyau dans un répertoire personnel et ne pas être en super-utilisateur (sautez les deux premières lignes).&

Nous allons maintenant aborder le moment délicat… vous allez devoir configurer votre noyau en fonction de ce que vous avez besoin. Il existe des moyens pour obtenir des informations sur votre système : des commandes comme lspci et lsmod vous donnerons respectivement les noms des périphériques de la cartes mère et lsmod la liste des modules que le noyau actuel utilise (mais vous pourriez avoir besoin de plus). Le plus utile est lsmod mais il ne vous aidera pas si votre noyau actuel ne prend pas en charge une partie du matériel ou si une partie de ce matériel n’est pas géré par des modules. Pour cette seconde raison, je recommande de commencer ainsi :

La ligne « make mrproper » nettoiera en profondeur l’arborescence du code source et toute configuration prédéfinie. Si vous voulez conserver une ancienne configuration pour recompiler le noyau, remplacez seulement mrproper par clean. La ligne cp nous permet de récupérer la configuration réelle du noyau en cour d’utilisation. Ceci est une bonne idée pour permettre de récupérer des options de configurations spécifique à votre distribution. Toutes les lignes se terminant avec hard-infos.txt servent à créer un fichier contenant toutes les informations utiles dont vous pourriez avoir besoin sur votre matériel. Dernier point mais non des moindres la ligne make menuconfig vous montrera le menu de configuration du noyau après un court moment de compilation.

À présent pas de secret, prenez votre temps et visitez tout les menus. Vous aurez besoin d’environ deux heures de torture cérébrale (et d’un niveau correct d’anglais) pour configurer ça correctement et en profondeur. Si vous ne comprenez pas une option de configuration essayez le bouton « Help » ou faite une recherche avec votre moteur de recherche préféré. Si vous ne comprenez toujours pas, laissez la valeur présélectionné. Voici quelques conseils :

  • Dans « Processor type and feature » choisissez le processeur le plus proche de celui que vous avez. En fonction de votre architecture 64 bits ou 32 bits (ou une architecture non Intel) la liste changera en fonction de ce qu’il est possible pour vous (mais pas forcement fonctionnel). En cas de doute, choisissez l’option commençant par « Generic ».
  • Pour de meilleurs performances c’est une bonne chose de basculer tout les modules des périphérique dont vous avez besoin dans leur version intégré. Ceci dit vous perdrez en flexibilité de telle sorte que le noyau que vous obtiendrez sera spécifique à votre carte mère et aux périphériques qui lui sont associés . Si vous changez de matériel, il vous faudra un noyau générique (par ex. celui de votre distribution). [ ] signifie non compilé (désactivé), [M] compilé sous forme de module et [*] compilé comme intégré dans le noyau central (généralement appelé vmlinuz- dans le répertoire /boot. Quelque fois vous aurez <>, ou < *> au lieu de [ ], [M] ou [*] : cela signifie que cette option permettra l’accès à d’autres options soit dans un autre menu soit dans un sous-menu de cette option. Attention, n’essayez jamais de tout mettre en intégré, le noyau serait trop gros et serait incapable de démarrer. Quelque fois vous n’arriverez pas à faire passer des modules en intégré. Ceci s’explique par des problème de dépendances : vous ne pouvez pas intégrer des modules qui dépendent d’un autre module. Il vous faudra d’abord faire passer le module parent en intégré. C’est pourquoi je recommande deux passe pour faire cette configuration.
  • Pour savoir quel périphérique vous devrez activer dans le noyau le fichier hard-info.txt vous fournira une bonne aide. La partie lsmod vous donnera le nom des modules. Dans la configuration le bouton « Help » vous donnera des information sur l’option. Vous trouverez à la fin de la description une ligne commençant par ceci : « Symbol: ». Ce qui suit est soit le nom du module soit une partie du nom (il peu y avoir un préfixe commun dans certains sous-menus).
  • Je pense que c’est une bonne idée de laisser la partie USB inchangé. De cette façon tout les périphérique USB que vous pourriez brancher seront reconnu correctement et le module correspondant chargé à la volée.
  • Même si vous n’avez pas de périphériques SCSI, n’essayez pas de désactiver le sous-système SCSI car toutes les technologies de disque dur (ou lecteur CD-ROM) utilisent une émulation SCSI depuis les séries 2.6 du noyau. Autrement vous ne pourriez pas démarrer.
  • La partie « network feature » est de loin la plus complexe. Il est sure de faire passer les modules dans leurs versions intégrés mais je ne recommande pas de faire le moindre changement a moins que vous sachiez exactement ce que vous faites.
  • Si vous projetez de compiler un noyaux pour un serveur dans une zone critique en terme de sécurité ou de stabilité, vous devriez désactiver toutes fonctionnalités expérimentale. Néanmoins,certains périphériques récent pourrait être inutilisable.
  • Si vous avez la chance d’avoir une carte mère de la famille Intel DH67 vous pouvez directement télécharger mon fichier .config (75 KB) et sauter la configuration… Si vous êtes vraiment feignant vous pouvez même télécharger un version précompilé (30.2 MB). Décompressez seulement le fichier depuis votre répertoire racine et sautez le prochain paragraphe. Attention : ces deux fichiers sont pour des cartes mères de la série Intel DH67 SEULEMENT et sans matériel additionnel à l’exception d’éventuels périphériques USB. Cela ne fonctionnera pas sur tout autre carte mère.

Quand la configuration est effectué, vous pouvez lancer la compilation. Tapez simplement la commande « make » pour commencer. Ceci prendra un certain temps donc vous pourrez prendre une pause bien mérité. Si la compilation échoue (dans quelques rare cas) cela signifie que quelque chose ne va pas avec votre configuration. Une fois la compilation effectué sans erreur, il vous faudra installer le fraîchement compilé noyau correctement de la manière suivante (je suppose que vous êtes super-utilisateur et dans le répertoire source de votre noyau) :

La première ligne installera les modules dans une zone prédéfinie et correcte de la hiérarchie de fichier (ie. /lib/modules/). La seconde ligne installera le noyau lui-même mais peut changer si vous n’avez pas une architecture Intel ou AMD 64 bits. Dans ce cas, vous devrez remplacer x86_64 avec le bon répertoire correspondant à votre architecture. Les lignes suivantes copies les fichiers nécessaire au chargeur de démarrage et au noyau pour démarrer correctement. Notez que si vous avez fait une configuration correcte sans modules (excepté l’USB) la commande mkinitramfs ne sera pas nécessaire (sauf si vous avez un clavier USB). mkinitramfs crée une l’image d’un disque RAM monté par le noyau lui permettant de trouver les modules nécessaire au démarrage avant que le système de fichier racine ne soit monté.

Maintenant il ne reste plus qu’a rendre le nouveau noyau bootable. Malheureusement, la procédure et/ou les fichiers de configuration peuvent être très différents en fonction de votre distribution. Si votre distribution est basé sur Debian c’est toutefois très simple. Lancez juste :

Cette commande générera un nouveau jeu de fichiers de configuration pour Grub et réinstallera le chargeur de démarrage. Le noyau par défaut sera le plus récent (par date de modification) du répertoire /boot. Des entrée de menu seront en principe généré pour tout autre système d’exploitation installé. Même si votre noyau est complètement fonctionnel, je recommande de conserver un noyau générique provenant de votre distribution en cas de problème ou de modification de votre matériel.

Si malgré l’avertissement précédant vous avez choisi de désinstaller le noyau de votre distribution, ou si vous avez besoin d’en-tête du noyau à jour vous devriez installer les en-tête de vôtre noyau Linux de manière à pouvoir compiler d’autre choses (la plupart des paquets source en auront besoin). Soyez certain d’avoir désinstallé toutes versions précédente des en-têtes du noyau avant de continuer avec les instructions qui vont suivre. Sur Debian:

Soyez attentif au fait que la fin du nom du paquet peut changer (2.6) en fonction de la version de Debian que vous utilisez : celle-ci est pour la Squeeze seulement. Veuillez le modifier en conséquences. Pour installer les en-têtes du noyau correctement vous devez saisir les lignes suivante dans une console :

La première ligne ferra un recensement des fichiers à installer et préparera un script pour la future installation. La seconde ligne installera les fichiers nécessaire dans le sous-répertoire « dest ». La ligne « find » effacera certains fichiers inutiles et la ligne « cp » les copiera à l’endroit attendu par les paquet sources habituel.

RMLL 2011 à Strasbourg

Rencontres Mondiales du Logiciel Libre 9 au 14 juillet 2011 Strasbourg Comme l’année dernière je suis allé au RMLL et je suis revenu avec quelques histoires à partager avec la communauté. Je ne vais pas répéter ce que j’ai déjà dit l’année dernière à propos de KDE car ceci est toujours applicable. Néanmoins, la situation avec les environnements de bureau est maintenant très différente de celle de l’année dernière. La disponibilité de Gnome 3 et du nouvel environnement de bureau par défaut d’Ubuntu, Unity, change la vision qu’on les gens de KDE. Ceci entraîne une redistribution des cartes pour les utilisateurs. Un fait indéniable est le très mauvais accueil de Unity de la part des utilisateurs traditionnels de logiciels libres. Cela se traduit par une perte d’intérêt criante d’Ubuntu pour beaucoup d’entre eux et donc la recherche de nouvelles solutions. D’autre part, la réception de Gnome 3 est inégale. Si certains utilisateurs traditionnels de Gnome apprécient toujours le nouveau look et la nouvelle approche, certains autres ne l’aiment pas vraiment. Bien d’autres encore pensent que le nouveau bureau n’est pas fini, comparant parfois avec l’état inachevé qui était attribué à KDE 4.0 quand il est sorti il y a maintenant quelques années. Mais il y a aussi quelques utilisateurs de KDE (il faut avouer qu’ils sont peu nombreux) séduient par le nouveau (et quelque peu inhabituel) look and feel de Gnome 3.

À propos de KDE directement, les utilisateurs sont généralement plus satisfaits par l’environnement et la qualité de la compilation de logiciels qu’ils ne l’étaient l’année dernière, et nous avons eu assez peu de remarques négatives (sauf évidemment celles peux constructives de ceux qui ne l’utilise pas…) . Les plus négatives qui viennent encore et fréquemment, concernent l’utilisation de nouvelles fonctionnalités. Permettez-moi de développer ce point …

Je vais prendre un exemple : les « Activités ». Cette fonctionnalité est très puissante, mais une question récurrente était : « C’est quoi ? Pourquoi devrais-je l’utiliser ? ». Une fois que je fait la démonstration, ils ont rapidement compris combien cette nouvelle fonctionnalité est pratique. Mais ceci montre un vrai problème de communication : les utilisateurs ne savent pas comment utiliser une nouvelle fonction ou pire ne comprenne pas de quoi il s’agit (quand ils savent que ça existe) ! Lorsque je demandais comment résoudre ce problème, la réponse était claire : chaque fois qu’une mise à jour de l’environnement KDE est faite (en particulier KDE-base), nous devrions afficher une fenêtre « Quoi de neuf ? » avec (et ceci semblait important) des liens vers la vidéo de démonstration. Ceci pourrait être généralisé pour chaque logiciel important.

Une préoccupation plus technique est la possibilité de nettoyer les fichiers de configuration de KDE des entrées ou clés obsolètes, évitant ainsi la nécessité d’effacer le répertoire .kde de l’utilisateur de temps en temps (environ tous les deux ans ou un an avec des systèmes mis à jour fréquemment).

Le dernier (mais non des moindres) point concerne la communication de KDE en France. En parlant avec certains contributeurs français de KDE (ou des contributeurs d’autre projets qui aime KDE), le problème de mauvaise représentation de KDE en France est très important. Nous avons besoin de plus d’événements KDE donc plus de personne pour travailler sur la communication (et pas besoin de compétences techniques donc tout fan de KDE peut le faire). Le nouvel évènement Akademy-fr calqué sur le concept espagnol Akademy-es est un bon début mais nous avons besoin de perpétuer l’événement et ce n’est pas encore gagné !

Get Hot New Stuff pour Yakuake

Internet IconEn résultat à la KDE Release Party de Toulouse, j’ai décidé de m’engager dans le code source de KDE. Vu que je ne suis pas familié avec, je devait commencer avec quelque chose de simple. Un bon début était d’intégré une fonctionnalité « Get Hot New Stuff » (c’est à dire obtenir des nouveautés) à la page de configuration des thèmes de Yakuake. Yakuake est un terminal déroulant inspiré par la console de Quake 3 et « Get hot new stuff » (le lien vous mènera à la documentation développeur en anglais) est un moyen simple d’installer graphiquement des éléments supplémentaire aux applications KDE.

Le patch est maintenant prèt et ressemble à ça :

Un fichier appelé yakuake.knsrc doit être ajouté au répertoire app/config du répertoire source de Yakuake. Voici son contenu :

J’espère que cela sera bientôt ajouté au code source officiel de Yakuake. Pour l’instant vous pouvez essayer d’appliquer le patch et de compiller et installer Yakuake si vous voulez « Get Hot New Stuff » avant que la prochaine version de Yakuake ne sorte. Pour le faire, essayez ceci :

Assurez-vous d’abord que le paquet Yakuake de votre distribution est désinstallé et que la variable d’environnement KDEDIR pointe correctement vers votre préfixe d’installation de KDE (la plupart du temps /usr ou /opt/kde4). Vous devrez taper votre mot de passe root après avoir validé la dernière ligne. Amusez-vous !

De retours des RMLL 2010

Rencontres Mondiales du Logiciel Libre 6 au 11 juillet 2010Il y a un mois environ, j’étais à l’édition 2010 des RMLL se déroulant à Bordeaux. J’étais l’un des types qui représentait KDE dans le village associatif. Ce billet vous racontera ce qu’il c’est passé et mes impressions. Les RMLL sont le plus grand rassemblement concernant le logiciel libre en dehors de Paris. Pour cet évènement, KDE était représenté pour la première fois. Tout ceci s’est tenu du 6 au 9 juillet 2010 à l’université de Bordeaux à Talence et les 10 et 11 juillet sur les quais de la Garonne au centre ville de Bordeaux (près du skate park pour ceux qui connaissent).

Personne présente

Malheureusement, l’aKademy 2010 se déroulant à Tampere, en Finlande avait lieu au même moment, ce qui ne nous à pas permit d’avoir de développeurs pour les RMLL. En fait nous n’étions que des traducteurs de KDE et des passionnés. Le staff était donc :

Staff du stand KDE des RMLL

Nom Présent du Au Rôle au sein de KDE
Geoffray Levasseur Lundi 5 Juillet Dimanche 11 Juillet Traduction, beta-test et rapport de bogue
Hélène Dervillez Lundi 5 Juillet Jeudi 8 Juillet Utilisateur
Ludovic Grossard Mercredi 7 Juillet Vendredi 9 Juillet Coordinateur de traduction des documentations
Philippe Nenert Lundi 5 Juillet Jeudi 8 Juillet Utilisateur

Je souhaite remercier Jimmy Pierre et l’ensemble de personnes du stand OpenSuse qui m’ont beaucoup aidé le weekend aux moments ou j’avais besoin de quitter le stand.

Ce que les gents qui n’utilisent pas KDE pensent

Il y a trois types de personne qui n’utilise pas KDE. Ceux qui n’utilisent toujours pas de système libre, utilisant principalement Windows ou Mac-OS, ceux utilisant un autre environnement de bureau et ceux qui utilisaient autrefois KDE et qui ont changés pour un autre environnement de bureau.

Les personnes qui n’ont jamais utilisé Linux ou BSD sont toujours très impressionnées par la qualité de l’environnement et surpris par le nombre d’applications disponibles, particulièrement les utilisateurs de Windows. La plupart ne connaissaient rien à propos de KDE mais étaient intéressé par les logiciels libres. Le multi-bureaux, les plasmoïdes et les effets graphiques en 3D sont considérés bien plus impressionnant que ceux qu’ils peuvent voir dans Windows, cassant quelques mythes, du genre « Linux c’est moche »… Donc, pas mal de bons points mais le mythe « Linux c’est compliqué » est plus difficile à dissiper. Pour la démonstration des logiciels, ils sont d’accord pour reconnaitre la facilité et la puissance globale des applications mais des questions comme « je pourrais installer le logiciel XXX que j’aime » et que je réponds que non mais que l’application YYY existe et fait la même chose (le plus souvent en mieux d’ailleurs) ils sont alors effrayés du changement. Le plus souvent ils sont d’accord pour essayer (ils seraient pas la sinon) car les avantages sont visible, principalement financier, l’argument philosophique étant considéré comme un bonus. Les propositions de live CD ont eu plus de succès que celle du dual-boot même si tout le monde le voit comme une bonne idée.

Les personnes utilisant déjà Linux et/ou BSD connaissent bien mieux KDE. Il y a cependant une exception : les utilisateurs récemment convertis. Voila mon coup de gueule : j’ai un problème avec certains LUGs qui ne demande pas son avis à l’utilisateur et leur installe toujours une p****n d’Ubuntu de m****e pendant les installe-party ! C’est pourquoi beaucoup de nouveaux utilisateurs de Linux ne connaissent rien à propos des autres distributions Linux et rien à propos de KDE (ou de n’importe quel autre environnement de bureau). Ils font, ainsi, la même erreur que les vendeurs d’ordinateurs qui de la même façon ne donne pas le choix en imposant un système d’exploitation bien trop connu. Néanmoins, ces personnes sont souvent satisfaites par l’environnement de KDE pendant les démonstrations et beaucoup disent qu’ils essayeront en installant les paquets nécessaires ou même en essayant une autre distribution (OK, j’admet que mon effort de promotion était très orienté OpenSuse ou Mandriva, plutôt que Kubuntu mais pour une bonne raison : de bien meilleures intégrations de KDE). L’utilisateur expérimenté connais toujours KDE, l’a essayé, et fait son choix en fonctions de ses gout et priorité. Ce type d’utilisateur est toujours d’accord pour reconnaître la qualité de certaines de nos applications notamment K3b (presque toujours en fait), Amarok, digiKam et la suite PIM.

Les cas les plus délicats sont les personnes qui utilisait KDE 3.5 et ont cessé de l’utiliser après la sortie de KDE 4. La plupart d’entre eux ont essayé KDE 4.0 or 4.1 et furent énormément déçu par le nouveau bureau considéré à l’époque lourd et très instable et plus encore que cela, ils n’ont pas accepté la perte de certaines fonctionnalité et / ou applications. La plupart du temps ils regrettent leur ancien bureau et ne sont pas pleinement satisfait de leur environnement de bureau actuel (Gnome le plus souvent) car en attente de quelque chose de proche de KDE 3.5. En réalité, il y a un cruel manque de communication de notre part car beaucoup d’idée fausse courrent : Konqueror ne peut plus être l’outil universel car ce n’est plus le gestionnaire de fichier, je ne veux pas ou je n’ai pas besoin des effet 3D, je n’aime pas le nouveau menu/bureau, ou sont les icônes du bureau…. J’ai entendu tout ceci régulièrement. Pourquoi ne pas créer un thème KDE 3.5 qui ravira ces personnes ? C’est simple: faire de Konqueror le gestionnaire de fichier par défaut, désactiver les effets 3D, placer l’ancien menu comme menu par défaut et activer le modèle en icônes de bureau de Plasma. Je fus capable de monter un tel bureau et tous ceux qui se plaignaient de KDE 4 ont adorés. Je leur ai conseillé de choisir quelque chose comme Mandriva pour laquel les paramètres par défaut font beaucoup penser à KDE 3.5. Á propos de la perte de fonctionnalité et des problèmes de stabilité et de performances j’ai pu leur faire remarquer que ces problèmes étaient en grande partie réglés.

Utilisateurs de KDE

Inutile de précher un convaincu… Curieux de savoir ce que ces convaincus aiment ou pas, quel sont leurs applications favorites ou détestées, j’ai posé beaucoup de questions. Les résultats étaient très cohérent. Ce qu’ils aiment du bureau est la cohérence globale entre les applications KDE et le bureau, les jolies choses efficaces qu’il peuvent avoir avec Plasma et KWin (je met ça dans la même catégorie que l’opportunité d’épater les copains qui sont encore sous Windows ;)) et la très bonne qualité des applications. En parlant des applications, les plus plébicités sont K3b (je fus impressionné par sa popularité même avec des utilisateurs non-KDE), Amarok, digiKam, Gwenview et la suite PIM (praincipalement KMail).

Ce qu’ils n’aiment pas c’est la lourdeur du bureau et le manque de stabilité de KWin et Plasma (trop de crash que je n’ai pu démentir en ayant subi moi-même) [ndlr : corrigé avec KDE 4.6] , un suivit de dévellopement des Plasmoïdes trop alléatoire (principallement des exotiques disponible dans OpenSuse ou Mandriva issus de Playground). Concernant les applications qui ont besoin d’amour (et oui, je lis parfois les interviews des développeurs), la plus cité est Kopete (surtout la prise en charge audio/vidéo) et Dolphin et Konqueror (surtout leur stabilité, et la gestion très aléatoire de Flash/AJAX dans Konqueror). Certains développeurs (qui ne font même pas de Qt) m’ont dit que KDevelop 4 avait une très mauvaise intégration des systèmes de controle de révision (CVS / Mercurial / Git). Une fonctionnalité qui manque cruellement aux adeptes de KDE 3.5, est la possibilité de se connecter en tant qu’administrateur grâce à un bouton dans certain modules de configuration du centre de contrôle. Enfin certains regrette la disparition de Quanta.

YaPeTaVi mis à jour

Internet IconYaPeTaVi a récemment été mis à jours à la révision SVN 7. Il s’agit d’un aperçu mettant en évidence les changements dans le cœur du code et proposant de nouvelles fonctionnalités encore non-visible. En d’autres termes la mécanique à été amélioré mais la carosserie n’a pas changée… Heu, au moins ça se compile bien ! En gros, il y a toujours du boulot, mais le plus gros est fait (pour info la quantité de code a augmenté d’environ 30 %). Amusez vous ! 😉

Veuillez noter qu’il y a de petit changement dans le processus de compilation, il est donc sage de consulter la page de YaPeTaVi pour procéder correctement.