Bastien Guerry

Entretien avec Bastien Guerry enregistré le 29 juillet 2013 au Centre Pompidou, Paris.

Bastien Guerry est développeur et enseignant indépendant, passionné de culture libre. Il a travaillé pour One Laptop Per ChildWikimédia France et le musée des Arts et Métiers et a contribué à l’éditeur de texte GNU Emacs en développant Org-mode.

Bastien Guerry. Portrait.

Je m’appelle Bastien Guerry, j’ai 35 ans. Je suis développeur et de formation en philosophie.

J’ai découvert la notion de biens communs avec la notion de logiciel libre, quand j’avais 20 ans. C’était au début de l’émergence de Linux. J’ai découvert une première distribution Linux, puis des logiciels comme Imax, qui auront marqué ma vie. Mon parcours est aussi marqué de rencontres, comme celle de Thierry Stœhr, qui était à l’époque président de l’AFUL, l’une des deux plus grosse association du Libre. Il était venu faire une conférence à Nanterre en 2001 autour d’un livre important à l’époque Libres enfants du savoir numérique, de Florent Latrive et Olivier Blondeau, qui était un recueil de textes autour de la culture libre et de la culture internet.
Dans ce livre, un texte notamment m’a marqué : Comment devenir un hacker écrit par Eric Raymond. Avec tout le romantisme de la jeunesse, je m’étais jeté sur ce texte-là en me disant que c’était super, que je voulais apprendre. Je faisais un peu de programmation quand j’étais petit.
J’ai alors attrapé à ce moment-là une sorte de double virus : celui de vouloir comprendre ce qu’était le logiciel libre puis la culture libre, et développer.

Une autre grande étape de mon parcours correspond au moment où j’ai rencontré le projet One Laptop Per Child, en 2005, au moment où naissait ce mouvement. Plus tard, en 2008, j’ai eu l’occasion de rencontrer l’équipe au MIT, qui cherchait quelqu’un pour aider au déploiement de 13 700 ordinateurs en Haïti. J’étais consultant, c’était un travail rémunéré. Je suis parti d’abord 15 jours, puis deux mois en Haïti pour aider sur deux aspects du projet : très concrètement, au déploiement de la logistique dans les écoles, c’est-à-dire savoir comment on allait distribuer les ordinateurs, et par ailleurs sur la formation des enseignants.
Cet aspect ne venait pas de nulle-part. Je m’intéressais à l’éducation et à l’informatique – et je ne dis pas « éducation numérique » car j’évite le mot « numérique » – Je m’y intéressais sous deux aspects :
– je m’étais, lors de mes études de philosophie, orienté vers les sciences cognitives. À l’époque, il y avait un groupe de travail qui s’appelait Compas, né à l’École Normale Supérieure, qui s’intéressait à la question de savoir si les sciences cognitives pouvaient nous aider à mieux nous approprier les outils informatiques pour l’éducation. Des grandes problématiques. Les réponses ne sont pas toujours aussi précises que les problématiques sont grandes. Mais c’était un chantier intéressant.
– Par ailleurs, il y avait une deuxième association, Enseignement pour l’informatique, très ancienne et vénérable association née à l’époque du Plan Informatique pour Tous et qui a continué, elle, a promouvoir l’enseignement de l’informatique à l’école. Elle le fait toujours. C’est en partie grâce à elle qu’existe l’option de l’enseignement de l’informatique au lycée. L’objectif de l’association est d’obtenir un CAPES et une agrégation d’informatique.
Ces deux intérêts pour l’éducation m’ont amené vers le projet One Laptop Per Child, deuxième rencontre avec les biens communs dans le sens où le projet s’engageait à distribuer du logiciel libre et des contenus pédagogiques libres.

En 2010, j’ai travaillé pour l’association Wikimedia France. J’en étais le premier salarié. L’association était une petite association comparée au projet Wikipédia. Cela représentait environ 230 membres à l’époque. Ils sont un peu plus aujourd’hui. L’association ne représente pas véritablement l’ensemble des wikipédiens mais constitue l’antenne française de la Wikimedia Fondation. C’était pour moi un plongeon dans la culture libre, au sens large, qui n’était plus simplement la culture logiciel avec ses spécificités. Fin 2010, Wikimedia France a organisé un grand débat autour de la culture et du collaboratif à l’Assemblée Nationale.

À propos de l’AFUL

L’AFUL est l’association francophone des utilisateurs de logiciels libres. Elle s’est toujours distinguée de l’APRIL en étant, selon moi, un peu moins « politisée », en ayant une approche plus « libérale » du libre et en évitant de se crisper sur les oppositions du type « logiciel libre » et « Open Source ». C’est une association beaucoup plus petite que l’APRIL. Ces deux structures ont, à mon avis, des vocations complémentaires.
J’ai été à l’AFUL car je ne connaissais pas l’APRIL à l’époque et que les personnes qui m’ont fait découvrir le libre y étaient.
Je n’ai pas eu d’activités pour l’AFUL, j’étais un simple membre. Dans les années 1999-2000, la liste de discussion était passionnante, source énorme de partage de références, de liens, de livres, et de débats.

Liens :

AFUL. Site de l’Association Francophone des Utilisateurs de Logiciels Libres.
APRIL. Site de l’Organisation de promotion et de défense du logiciel libre.

À propos de Move Commons


Bastien Guerry, tu es cofondateur de Move Commons. Peux-tu présenter Move Commons. Comment et quand est né le projet ? A quel besoin répond-il ?

La création de Move Commons est liée à ma rencontre avec Samer Hassan, en Angleterre, dans le contexte d’un cycle postdoctoral autour du sujet de Wikipédia. On a essayé d’analyser la viabilité des contributions et des articles de Wikipédia. Lui était activiste politique. Cela faisait 5 ou 6 ans que, chacun de notre côté, nous observions un phénomène étrange avec l’émergence du Web 2.0 : les gens utilisaient de plus en plus d’outils propriétaires, en totale contradiction avec les finalités activistes de leurs démarches. Des médias, comme Indymedia par exemple, utilisaient des outils propriétaires et cela ne collait pas avec notre idéal d’indépendance, de liberté.

D’une part, nous observions l’émergence d’un champ d’activisme social. De l’autre côté, nous étions au fait de l’activisme technique et autour du logiciel libre. Entre ces deux champs, il y avait un fossé.

Notre démarche a donc été de faire émerger des outils libres pour l’activisme social.

C’était la première idée, implémentée aujourd’hui dans un projet qui s’appelle Kune, qui est portée par l’association Comunes en Espagne. Kune est un outil qui permet d’échanger, en libre et sans aucune centralisation ou appropriation de données.

Suite à cette première démarche, nous avons constaté que le dispositif technique n’était pas suffisant pour inciter les grands mouvements sociaux à être plus libres, et nous avons pensé qu’un système de label du type Creative Commons était nécessaire.
Creative Commons n’est pas seulement un label, c’est un dispositif juridique qui a permis de comprendre ce qu’était un contrat, les restrictions par défaut du droit d’auteur et comment on levait ces restrictions explicitement. C’est aussi, même dans le design, un système de label très simple. C’est cela qui a aidé, à mon avis, à son appropriation. On n’a pas besoin, même, de connaître la licence sous laquelle on partage un document pour avoir envie de l’employer et pour comprendre même vaguement ce qui se passe.

De notre côté, nous voulions utiliser ce système de label. Nous avons inventé Move Commons, un système permettant de rapidement identifier, sur les sites web, les valeurs fondamentales et les engagements de ces sites, avec en dénominateur commun le fait de s’engager pour les biens communs.
Le dénominateur commun est la contribution aux biens communs, de la même manière que celui des Creative Commons est l’attribution (la clause BY que l’on ne peut pas enlever)
Par dessus ce label obligatoire, il y a trois labels optionnels :
– le premier, qui définit le statut profit ou non-profit, avec un cadre juridique clair.
– le second, qui définit le type de gouvernance, plutôt horizontale ou verticale – on parle de grassroots pour la gouvernance horizontale.
– le troisième concerne la réplicabilité, c’est-à-dire la possibilité d’autoriser les gens à s’approprier les méthodologies, les données pour créer un fork, et aller plus loin dans d’autres directions – l’équivalent pour les geeks pourrait être une plateforme comme GitHub.
Move Commons et ce principe de quatre labels permettent aujourd’hui de choisir un statut et de préciser les liens web vers lesquels le lecteur pourra être redirigé pour en lire un peu plus sur les raisons du choix du non-profit, de la transparence et de la réplicabilité, du choix d’une gouvernance horizontale, etc.

La priorité au logiciel libre est-elle légitime ?

« En juillet 2013, l’Association Francophone des Utilisateurs de Logiciels Libres (AFUL) dénonçait l’initiative prise par le président de l’INRIA, de co-signer avec deux puissantes organisations de l’industrie informatique une lettre demandant au Gouvernement de faire obstacle à ce que l’Enseignement Supérieur utilise en priorité des logiciels libres. » Peux-tu nous donner ton éclairage et ton point de vue sur ce sujet d’actualité ?

L’argumentation de Serge Abiteboul, directeur de l’INRIA, est que l’état ne doit pas encourager un modèle d’affaire contre un autre.
Cependant, de mon point de vue, il n’y a pas « un » modèle d’affaire du libre. La notion de modèle d’affaire, de business plan, est finalement complètement orthogonale aux licences sous lesquelles on publie les produits.
Pour moi, c’est donc un faux argument. On a le droit de donner priorité, non pas à un ensemble d’acteurs du marché, mais à un aspect des produits que l’on achète. C’est un peu la même chose que la priorité donnée à des produits écologiques ou à des produits qui sont moins dangereux pour la santé que d’autres. L’État a, selon moi, un rôle là-dedans. Et il est tout à fait normal et sain qu’il ait un rôle pour recommander des produits libres qui font que son investissement peut potentiellement lui revenir et qu’il n’est pas pieds et points liés à des acteurs. C’est une fausse querelle, mais on a bien fait de réagir.

Les modèles du libre.

Il transparait, au sein de ta démarche, une grande attention accordée à la compréhension des modèles
C’est ce que j’aimais faire en philosophie. Quand on démarre, dans n’importe quel domaine, on commence par appréhender les choses par idées floues, et on s’emporte très loin sur des idées floues. Surtout à vingt ans. Et j’ai eu la chance d’avoir des enseignants qui m’ont demandé de « m’emporter un peu moins loin sur des idées plus claires ».
Et il y a un grand débat aujourd’hui entre l’obscurité – la philosophie continentale – et la clarté soi-disant réductrice de la philosophie anglo-saxonne. Je me suis porté vers la clarté comme discipline, surtout pour être en phase avec des idéaux humanistes – que tout le monde porte sur ses « t-shirts de philosophes continentaux ». Mais pour les porter réellement, il faut essayer de parler dans un langage que tout le monde comprend. Les « distinctions » sont donc une méthode saine, pour essayer, à mon échelle, de comprendre et d’exprimer simplement des idées.
Pour revenir aux modèles du libre, leur compréhension nécessite de passer six mois d’attention et de travail afin d’identifier les différentes façons de fonctionner. Sans quoi on est simplement exposé à la « force idéologique aveugle ». L’impulsion au partage dans des conditions qui permettent à d’autres de repartager derrière. C’est cela le libre. C’est aussi simple que cela.

Mais si l’on parle de « modèles », cela veux dire que l’on essaie de stabiliser cette force idéologique aveugle et un peu floue autour d’une représentation claire. Et là, on est obligé de comprendre et de distinguer avec précision les différents modèles de libre.

C’est pour cela que le débat entre libre, Open Source, AFUL, APRIL était très formateur pour moi, car il obligeait à savoir de quoi on parlait.

Culture du libre, des modèles pour la gouvernance des biens communs ?


Vois-tu en la culture du libre des modèles organisationnels susceptibles d’inspirer les systèmes de gouvernance ?

Comme je l’ai exprimé précédemment, il existe pour les biens communs numériques de nombreux modèles de gouvernance différents.
Je commence par le modèle du projet GNU. C’est un modèle de gouvernance qui accueille les contributions des uns et des autres mais qui reste très hiérarchique et très « cathédrale » dans sa façon de faire.
Au sein du projet Linux s’impose en la personne de Linus Torvalds, ce que l’on pourrait appeler un « dictateur bénévole à vie ». Linus Torvalds fait du très bon travail, mais il représente un modèle de gouvernance dont on ne voudrait pas dans une démocratie. Il n’y a aucune notion de représentativité, et le participatif vit très bien avec l’autorité ultime d’une seule personne.
Après, il y a des logiciels qui ont des modèles de gouvernance plus ouverts, avec des développeurs qui sont tous sur un pied d’égalité pour décider qui a le droit de rajouter du code ou pas.

Il y a plein de régimes différents, plein de façon de s’occuper du libre, et c’est la vertu du libre lui-même.

C’est-à-dire que le fait que du code soit sous licence libre ne force à aucun modèle de gouvernance plutôt qu’un autre. C’est ce découplage là qui est important, et c’est ce découplage là qu’il faut clairement garder à l’esprit quand on parle de biens communs.
Et la notion elle-même de biens communs tend à confondre les deux. Si l’on suit l’Open Knowledge Foundation, on dira que les biens communs sont à la fois les biens publics – dans le sens de domaine public, non pas dans le sens de biens gérés par la puissance publique – soit libres et gérés par une communauté. Donc on va tout de suite associer la gouvernance avec la disponibilité du contenu.
Selon moi, cette association d’idées pose problème. Je pense qu’il faut garder à l’esprit que les deux sont complètement séparés, et que rien n’interdit d’avoir une gouvernance commune pour des biens qui ne sont pas libres. Ce n’est pas impensable. Je n’ai pas d’exemples qui me viennent à l’esprit tout de suite, mais on peut trouver des biens de la puissance publique qui ne sont pas publics et qui sont gérés en commun, puisque la puissance publique représente les communs d’un État, d’une Nation.
Garder cela différent à l’esprit permet ensuite de chercher des pistes. Ne pas imaginer qu’il y n’aurait qu’un modèle du libre. Ne pas partir de cette base erronée pour vouloir l’appliquer. Cela n’existe pas.

Un définition des biens communs


Pourrais-tu définir la notion de biens communs ?

Je reprends à mon compte la définition de l’Open Knowledge Foundation, pour ce que j’en ai compris:

Les biens communs sont des biens, soit du Domaine Public, soit libres, qui sont gérés par une communauté.

Peux-tu citer quelques termes qu’il te parait essentiel d’associer à la définition de « biens communs » et expliquer en quoi ils participent à la construction de cette notion ?



Les notions « partage » et « critique » me paraissent importantes.
Partage, même dans le sens affectif du terme. Dans les biens communs on doit penser d’abord à partager.
Critique, dans le sens antidogmatique. C’est-à-dire la faculté à toujours pouvoir ne pas préjuger de ce que doit être la gouvernance et des usages qui doivent être faits d’un contenu. Je prends un exemple très simple, dans le logiciel: le fait de partager du code avec d’autres personnes, d’avoir un fond éthique commun, ne doit pas nous rendre dogmatique sur les usages de ce logiciel fait par d’autres gens qui ne sont pas dans la communauté. C’est un peu souvent le cas, c’est-à-dire que l’on confond le niveau technique et juridique de ce que l’on autorise et le niveau affectif de ce que l’on a envie d’encourager.

L’impulsion naturelle du partage ne doit pas nous faire aborder les questions liées aux biens communs de manière trop communautaire, avec des systèmes de pensée où l’on perdrait notre esprit critique.

 

As-tu à l’esprit des figures qui, selon toi, sont emblématiques lorsque l’on aborde les problématiques liées à la notion de « biens communs » ?

À mes yeux, une figure emblématique pour parler de la notion de biens communs est Gilles Deleuze. Bien que cette référence soit lointaine et puisse paraître surprenante si je dis que je suis passé du côté de la philosophie anglo-saxonne.
Deleuze, pourquoi ? Parce que la notion qui m’a le plus marqué à l’époque était la notion d’immanence, opposée à la transcendance. Cela permet, même si cela est parfois grossier, de catégoriser de façon simple des philosophes, ou des concepts. Cela permet de voir si l’on se trouve dans une forme de transcendance – dans le sens d’une autorité extérieure et ce sur quoi elle a autorité – ou une forme d’immanence – dans le sens d’un plan sur lequel les propriétés sont partagées. C’est une notion qui, tout en étant floue, est très puissante et qui, je pense, permet de se préparer au partage qui a lieu avec les biens communs – c’est-à-dire de refuser l’extériorité de l’autorité sur un objet. Même si, par la suite, les autorités se reconstruisent à l’intérieur des communautés. On est toujours dans des rapports de pouvoir.

L’ensemble des biens communs forment une sorte de plan d’immanence pour des objets que l’on partage et dont on ne doit pas préjuger du devenir.

 

Une autre personne clé, de mon point de vue, est Alan Kay. Je ne peux pas lire une page ou regarder une vidéo d’Alan Kay sans être ébahi d’admiration devant l’intelligence. Lire ce qu’il a fait, comprendre ses interventions, c’est lire l’histoire de l’informatique et c’est génial. Il m’inspire beaucoup dans sa démarche de modestie et d’inventivité.

Internet comme espace

Quel est, selon toi, l’espace dans lequel s’inscrit la pensée des biens communs ?

Le cadre de pensée des biens communs, c’est internet, c’est le web.

À la différence d’autres mouvements de réflexion collective, qui peuvent naître à l’Odéon ou dans un café, notre cadre est le web. Et c’est important parce que cela induit une volonté de préservation de ce cadre, pour penser les biens communs. Préserver ce cadre, cela signifie préserver la neutralité du net et des formes de libertés d’expression que l’on a aujourd’hui sur internet. Y compris l’anonymat. Peut-être les défenseurs des biens communs aujourd’hui n’iraient-ils pas jusque-là. Alors que pour moi, cela fait partie de la structure fondamentale d’internet, et de ce que l’on doit pouvoir y faire.

On parle beaucoup des tiers-lieux, des fab labs, et d’autres endroits comme interstices sociaux dans lesquels on aurait enfin cette liberté de construire une culture pour laquelle les biens communs sont importants.
Ce que j’aimais bien dans le /TMP/LAB, ce n’est vas véritablement le fait que ce soit un tiers-lieu. C’était plutôt un non-lieu. Non-lieu, dans le sens où quand on y allait, il y avait des moments où il y avait des débats, des choses comme cela. Mais c’était surtout pour y faire des choses. Les débats nous fatiguaient rapidement. Et moi aujourd’hui, les débats me fatiguent. Peut-être parce que j’ai trop envie d’y aller, et que j’aimerais juste y aller un peu moins mais aller aux bons.
Mais je pense que c’est très bien d’avoir une culture de la recherche autour des biens communs, ça fait avancer et la recherche et les biens communs. Mais il y a la recherche et il y a le faire. Le fait qu’internet soit le lieu pour les biens communs, pour moi, cela veut dire que l’on y va quand on veut, quand on peut et quand on a déjà fait ce que l’on avait à faire. Il faut fabriquer du libre, fabriquer des images libres que l’on poste sur Wikimedia Commons, prendre trois heures pour aller rédiger un article sur Wikipédia. Tant que l’on a pas passé dix heures à faire cela, je pense qu’on devrait éviter de passer une heure à en discuter.

À propos de « La cathédrale et le bazar », Eric Raymond.

Tu cites à plusieurs reprises, au travers tes travaux de recherche, le texte de Eric Raymond paru en 1999, La cathédrale et le bazar. Peux-tu nous en parler ?

Je dirais que l’on est dans une période horriblement romantique. On ne pense qu’à l’amour, à l’épanouissement individuel, à nos âmes. C’est terriblement romantique. Et ce romantisme s’accompagne de toute une « pop culture » de l’internet. Par « Pop Culture », je désigne toutes les vidéos débiles que l’on s’envoie sur Facebook, tout ce truc un peu dans l’air du temps, du « cool ».
On est à la fois « romantique » et « cool ». La cathédrale et le bazar représente pour moi « les pas cool et les cools », en exagérant, parce qu’il y a beaucoup d’autres enjeux dans le livre. Je vois dans ce texte une mise en garde contre cet aspect « pop cool » de l’Open Source, et même du libre et des biens communs, qui fait que l’on rapproche les frontières des « biens communs » de celles du « gratuit », sans le vouloir, tout en prenant garde à faire la distinction, en se disant que ce n’est pas la même choses, etc…
Je trouve très bien que les choses soient gratuites, même si elles ne sont pas libres. C’est grâce à ces choses que l’on détient un fond commun culturel, et c’est ce fond commun culturel qui fait 99% de nos références communes. Ce sont les vidéos que l’on regarde sur YouTube. Je ne dénigre pas du tout le gratuit, comme le font d’autres. En revanche, je dénigre cette culture du « pop cool » qui fait qu’on se dit, le bazar, cela a un petit côté « mèche dans le vent », « anarchiste sympa ». C’est bien, mais il ne suffit pas d’avoir « des autocollants sur son ordinateur », il faut y aller, écrire des choses et travailler.
C’est un peu la même chose que lorsque l’on est apprenti mathématicien et que l’on dit: « moi je suis cool parce que je suis feignant ». Pour les informaticiens, c’est bien d’être feignant, parce que cela veut dire qu’ils sont plus intelligents, plus malins et qu’ils vont plus vite à la solution. Si on peut en plus être travailleur, c’est mieux.

À propos de Wikipédia.

Tu as travaillé un an avec Wikimedia France. Quel impact cette expérience a-t-elle eu sur ton parcours ?

Quand je suis arrivée à Wikimedia France, je connaissais surtout le domaine du logiciel libre. J’avais suivi le projet de Wikipédia, cela m’intéressait mais j’étais un contributeur assez peu actif.
À cette période, je pensais que le logiciel était au cœur de la culture libre. Et je me suis rendu compte qu’en réalité, c’était Wikipédia qui en était le moteur. Et c’est finalement très positif, car le partage du savoir est la finalité de cette démarche d’ouverture. Les questions d’infrastructure sont importantes pour accéder à la connaissance, mais l’enjeu ultime reste le contenu. En arrivant à Wikipédia, on est au cœur de la culture libre.

Ma seconde surprise a été de m’apercevoir que la communauté de contributeurs était très réduite. C’est une vraie communauté, avec des sous-communautés, des cabales, des gens qui se battent entre eux. Mais la disproportion entre le nombre de pages et le nombre de contributeurs me paraît effarante. Elle laisse imaginer les heures et les heures consacrées par les contributeurs à la plateforme. Au fur et à mesure que je rencontrais les membres de la communauté, je mesurais un élément de passion sidérant, qui rendrait jaloux n’importe quel enseignant. N’importe quel enseignant rêverait d’avoir au moins un wikipédien dans sa classe. C’est un environnement extrêmement porteur et c’est le centre de la culture libre.

Apprendre demain.

Tu es co-auteur d’un ouvrage sur le thème de l’éducation. Peux-tu nous en parler ?

L’ouvrage Apprendre demain: éducation et sciences cognitives à l’ère du numérique est un recueil de textes portant sur les sciences cognitives et le numérique. C’était une sorte d’ouverture d’un champ autour de problèmes qui sont toujours actuels mais non structurés en champ disciplinaire ou champ de recherche en tant que tel.
Aujourd’hui ce qui me frappe, c’est cette dimension de « pop culture » associée à l’éducation, c’est-à-dire cette idée que la rencontre du numérique et de la spontanéité de l’enfant va créer des espaces d’apprentissage nouveaux, plus efficaces. Je n’y crois pas du tout. Et je trouve cette diffusion de la « pop culture » un peu dangereuse.

Plus il y a d’enfants autonomes et travaillant en projets,
plus on a besoin d’accompagnement géré de manière intelligente.

Je repense à une image qu’avait présenté Alan Kay en 2008 lorsqu’il parlait à OLPC. Il présentait deux paradigmes. D’une part, le paradigme de l’exploration, de l’apprentissage par soi-même, où l’enseignant est un peu un animateur – c’est un peu la figure que l’on nous propose lorsque l’on parle d’éducation avec le numérique aujourd’hui. Et d’autre part, le second paradigme de l’enseignant qui représente l’autorité et la transmission, en recherche de la vérité.
Je me méfie de la pop culture autour de ce que l’on nous vend. Par contre, je suis un fervent défenseur de l’enseignement de l’informatique, parce que cela rend les gens autonomes par rapport à un nouveau moyen d’expression qui donne énormément de pouvoir très rapidement, qui est l’informatique. Le pouvoir de s’exprimer, de comprendre ce qui se passe.

Et je suis un fervent défenseur de la démarche qui consiste à donner plus d’autonomie aux enfants, ce qui a toujours été le but de l’éducation, y compris en les responsabilisant avec des ordinateurs entre les mains.

Ce qui est le cas du projet One Laptop per Child.

Sciences cognitives et éducation.

Peux-tu nous expliquer l’influence qu’ont pu avoir les sciences cognitives sur ton approche de l’éducation ?

Les sciences cognitives sont un champ interdisciplinaire où la psychologie va rencontrer la neurologie, la biologie, la philosophie, l’intelligence artificielle. Cela représente une multitude de disciplines qui s’entrecroisent.
Mon approche des sciences cognitives a eu pour impact de m’inciter à privilégier la clareté et l’expérimentation. Quand on est philosophe et que l’on essaie de comprendre ce que c’est que le problème de la machine de Turing, on ne peut pas faire semblant de comprendre. C’est une sorte de révélation, cela l’a été pour moi, en tout cas.
En ce qui concerne les sciences cognitives et l’éducation, lorsque nous avons collaboré avec le groupe Compas, il y avait une grande émulation car nous sentions qu’il y avait quelque chose à creuser et à comprendre de manière très profonde pour saisir ce qui se passait avec les ordinateurs. Et en même temps, nous avons développé au sein du groupe un fort scepticisme, car aujourd’hui, nous n’avons pas de résultats très stables en ce qui concerne l’apprentissage, les sciences cognitives et les bonnes pratiques. Ces éléments sont séparés entre eux, et c’est pourquoi cela incite à se méfier de toute méthodologie holistique qui se présenterait comme une solution à un ensemble de problèmes.
Et, de loin, un projet comme One Laptop per Child a l’air d’être une de ces solutions un peu holistiques. On donne du rêve. Et pour rêver, on est obligé d’imaginer des choses simples. Mais de près, se côtoient beaucoup de scepticisme et d’intérêt. C’est peut-être aussi parce que les gens du groupe compas étaient des chercheurs, et c’est la qualité du chercheur d’être sceptique et curieux.

One Laptop Per Child.

Bastien Guerry, tu es co-fondateur d’OLPC France. Pourrais-tu présenter OLPC et expliquer comment et quand est né le projet ? A quel besoin répond-il ?

One Laptop per Child est un projet qui est né en 2005 au MIT, au sein du Media Lab de Nicholas Negroponte, qui consiste à essayer de fabriquer des ordinateurs à bas-coût, résistants, à destination des enfants de 8 à 13 ans dans les pays en voie de développement.
L’objectif initial était que ces ordinateurs coûtent 100 dollars. En 2007, quand ils sont arrivés en production, ces ordinateurs coûtaient 188 dollars, ce qui était déjà un prix extrêmement bas à l’époque, et qui a lancé la vague des netbooks, qui étaient les tout petits ordinateurs.

Mais One Laptop per Child est avant toute chose un projet pédagogique, né de la pensée de Seymour Papert et du constructivisme.

La théorie de Seymour Papert consistait à penser que, l’ordinateur étant une machine universelle à tout faire, c’était l’outil idéal pour que l’enfant gagne en autonomie dans ses apprentissages. Le lancement de OLPC coïncide également avec un contexte où les pays en voie de développement devaient investir massivement sur l’éducation pour rattraper rapidement leur retard. Et la promesse du projet One Laptop per Child était de permettre de rattraper ce retard pédagogique grâce aux ordinateurs qui, aujourd’hui, sont deux millions dans le monde. La Fondation OLPC continue aujourd’hui à travailler sur de nouvelles machines, à innover sur le plan technologique. Et le deuxième étage du projet OLPC est constitué par des associations, comme OLPC France, des grassroots indépendantes, bénévoles et qui s’occupent de déploiements d’ordinateurs. OLPC France a, par exemple, déployé un peu plus de cent cinquante ordinateurs à Madagascar, et s’en occupe. Ce qui constitue pour ces associations un terrain de recherche, de réflexion et d’action pour se poser les questions de contenus, de traduction, de pédagogie.

Ce terrain d’action, où se situent et œuvrent les associations, constitue le versant critique de ce rêve simple proposé par OLPC.

Des dispositifs d’apprentissage.

Une idée centrale de Seymour Papert est que l’ordinateur est, déjà pour certains aujourd’hui, et sera l’équivalent du papier et du crayon pour les élèves d’il y a vingt ans.
Souvent on dit « Combien il faut d’ordinateurs dans la salle informatique ? » À celà, Seymour Papert répond : « Est-ce que vous poseriez la question de savoir combien il faut de cahiers et de crayons dans l’école ? » Non, la question ne se pose pas. Il est évident que chaque enfant doit avoir son propre matériel, parce que c’est seulement quand il est en possession de l’objet qu’il va pouvoir être libre de s’exprimer, de réfléchir et d’être actif. On ne s’est pas posé des milliers de questions pour savoir ce que le dispositif « cahier et crayon » changeait dans les relations entre professeurs et élèves.
Aujourd’hui on se pose la question de savoir ce que le dispositif « ordinateur » change dans les rapports entre professeurs et élèves, car ce dispositif est beaucoup plus captivant. Et en ce sens, il paraît être une sorte d’échappatoire par rapport à la relation traditionnelle professeur et élèves. Du coup, on a besoin soit de renforcer cette relation en excluant l’outil, soit de repenser cette relation en présence d’un outil encore plus disruptif qu’un cahier et un crayon. Mais de mon point de vue, le problème et la réponse sont les mêmes. On peut avoir un mode transmissif avec un ordinateur, ou un mode où les enfants sont amenés à être plus actifs, plus autonomes dans l’exploration ou autre.

Le projet OLPC, via les théories de Seymour Papert, incite davantage à être dans une attitude d’autonomie et de construction des connaissances en interaction avec son ordinateur, que dans la contemplation que ce qu’un enseignant nous dit.

Sur le terrain, ce que l’on observe, c’est que les choses sont parfaitement compatibles, y compris d’avoir des moments de projet collectif avec cinq élèves qui se mettent autour de la construction d’un puzzle pour apprendre les chiffres à sept ans et puis ensuite reprendre le même ordinateur pour recopier ce que l’enseignant a écrit au tableau et faire une activité après pour le mettre en forme.
Il y aussi cette distinction importante qui est l’apprentissage des contenus via l’ordinateur ou apprendre ce qu’est l’ordinateur et comment on s’en sert. Ces deux apprentissages se font en parallèle. Il faut garder les deux à l’esprit, sachant que le projet OLPC n’est pas conçu directement pour apprendre aux enfants à se servir d’un ordinateur, même si cela peut constituer un objectif d’étapes qui participent au projet.