8 avril 2023 | tiré de mediparrt.fr | Illustration : L’offre de l’IA générative est en train de se structurer. © Photo illustration Sébastien Calvet / Mediapart
Le 3 avril dernier, le ministre de l’économie et des finances, Bruno Le Maire, s’est livré pour BFM TV à l’attraction du moment : utiliser le robot d’intelligence artificielle (IA) ChatGPT pour rédiger un « discours ».
Le ministre a obtenu le résultat attendu : « J’ai eu un discours assez intelligent, bien structuré, en exactement cinq minutes. Là où, il y a vingt ans, il m’aurait fallu trois ou quatre heures pour faire ce discours. » Le ministre trouve cela « assez fascinant », avant de mettre en garde contre les conséquences éthiques et économiques de cette nouvelle technologie et d’appeler à une « meilleure régulation ».
Ces propos ministériels traduisent le mélange de fascination, de peur et d’espoirs que les élites agitent depuis le lancement, en novembre 2022, de ChatGPT par l’entreprise OpenAI, alliée à Microsoft. On retrouve les discours habituels liés aux ruptures technologiques.
Certains préviennent que l’IA va détruire une grande partie des emplois existants, menant à un chômage de masse. D’autres, au contraire, prédisent le retour d’un âge d’or fondé sur les formidables gains de productivité que permettra cette technologie. Parfois, les deux discours s’entremêlent étrangement et font ressurgir l’idée d’une « fin du travail » qui serait financée par l’inévitable « revenu universel de base ».
Pour savoir ce qu’il en est concrètement, il faut d’abord comprendre ce que représente ChatGPT. Ce programme est la première application grand public d’une technologie qui a émergé à la fin des années 2010, le LLM (« large language model »).
À la différence des précédentes méthodes d’apprentissage mécanisé qui dominaient jusqu’ici, le LLM permet de traiter des bases de données générales, non spécialisées, dans le langage humain courant et de produire des contenus en langage courant ou sous forme de vidéos ou d’images. C’est ce qui a surpris les utilisateurs de ChatGPT : la production de la nouvelle IA ressemble à s’y méprendre à un contenu humain.
La rupture technologique est certaine : le contenu automatisé ne doit plus faire l’objet d’un traitement spécifique, par un encodage ou un choix préalable des données, et la réponse est rendue sous une forme immédiatement exploitable socialement. L’utilisation la plus immédiate de cette technologie a donc été la rédaction, via ChatGPT, de devoirs scolaires ou universitaires. Il suffisait d’inscrire le sujet pour disposer d’un texte jugé souvent « acceptable ».
Il existe plusieurs applications du LLM développées par plusieurs entreprises, mais la plus avancée semble bien être OpenAI, une entreprise qui avait débuté comme une association non marchande en 2015 et qui est devenue une entreprise en 2020, largement financée par Microsoft. En mars 2023, OpenAI a lancé ChatGPT-4, une nouvelle version de son application grand public jugée plus fiable et capable de créer des vidéos et des images inédites.
Le récit dominant autour de l’IA générative
Devant ce développement spectaculaire, le monde des affaires s’est emballé. Il faut dire que, sur le papier, ce développement de l’IA représente une forme de « pierre philosophale ». Dans le contexte d’un capitalisme en proie à la baisse de ses gains de productivité, beaucoup pensent que, désormais, tout peut changer.
La capacité mimétique de l’activité intellectuelle humaine de l’IA permet de penser que cette technologie sera capable de remplacer massivement l’activité humaine, conduisant à une hausse formidable de la productivité du travail. En clair : l’IA permettrait de réduire le besoin de travail pour réaliser de la production.
Un des éléments permettant de croire au développement de l’IA est la baisse vertigineuse du coût de développement des LLM. Très longtemps, ces technologies sont restées dans l’ombre parce qu’elles étaient très coûteuses. Mais depuis quelques semaines, les prix d’utilisation ont chuté de façon vertigineuse pour devenir compétitifs avec ceux d’un moteur de recherche internet classique. Les bases sont donc posées pour une utilisation large de cette technologie.
Les annonces d’expérimentations concernant l’usage de l’IA par de grands groupes se succèdent. L’assureur Zurich a mis en place des essais de traitement de contentieux via ChatGPT, avec la promesse d’un traitement ultra-rapide des dossiers, mais aussi de recherches de données pour évaluer des risques et des vérifications.
Les agences de conseil comme PwC ou EY veulent, elles, utiliser cette technologie pour rendre « plus efficaces » leurs services fiscaux et légaux. La société de gestion de paiements Stripe intègre aussi ChatGPT dans son processus de vérification et de paiement.
Bref, chaque jour, une nouvelle multinationale semble annoncer l’utilisation de l’IA. Rien qu’au dernier trimestre de 2022, selon une étude de Goldman Sachs parue le mois dernier dont on reparlera, 13 % des entreprises évoquaient dans leur communication l’IA, contre 8,3 % au trimestre précédent et 5 % en 2015.
La proportion d’emplois susceptibles d’être remplacés par l’IA dans les pays émergents (en bleu clair) et développés (en bleu foncé). © Infographie Goldman Sachs Global Investment Research
Dès lors, l’heure est à la publication d’études prospectives effrayantes ou rayonnantes, selon ce qu’on veut y voir. Celle de la banque états-unienne Goldman Sachs a fait grand bruit. Elle estime, dans son scénario central, que si l’IA générative, celle du LLM, « tient toutes ses promesses », alors 300 millions d’emplois à plein temps seront menacés d’automatisation au niveau mondial.
En retour, la croissance de la productivité du travail pourrait progresser de 1,5 point de pourcentage par an chaque année pendant dix ans, doublant le niveau actuel. L’étude termine avec une promesse de hausse annuelle du PIB mondial de 7 % (contre 2,9 % prévus pour 2023 par le Fonds monétaire international).
Ces prévisions et la forte demande des entreprises provoquent, en retour, une forte concurrence dans le domaine des producteurs du service technologique en question. Microsoft, qui a misé sur le bon cheval avec OpenAI, semble tenir la corde pour occuper une position dominante grâce à la réputation de ChatGPT.
Il a d’ailleurs commencé à tester l’intégration de cette application dans son moteur de recherche Bing et cherche depuis janvier à reforcer ses liens avec OpenAI, avec un investissement de 10 milliards de dollars.
Google, Meta et... Baidu sur les rangs
Les coûts d’entrée sont désormais élevés, mais les autres géants technologiques entendent rester dans la course. Google a resserré ses liens en févrieravec la société Anthropic, fondée par un ancien d’OpenAI, et a développé son propre outil, Bard, destiné à concurrencer ChatGPT.
De son côté, Marc Zuckerberg, président de Meta, ex-Facebook, a dû réviser ses plans. Lui qui, depuis des années, misait à coups de milliards de dollars sur le métavers, sans succès notable, a décidé de mettre désormais la priorité sur l’IA pour rester dans le jeu. Même Baidu, géant technologique chinois, tente de développer sa propre IA générative, Ernie, pour le moment avec peu de succès.
Globalement, l’offre de l’IA générative est en train de se structurer, et il semble certain que les géants technologiques, en recherche d’un second souffle de croissance mais disposant toujours de ressources considérables, y joueront le premier rôle. À ce moment, on peut penser que la nouvelle génération de l’IA représente une formidable poule aux œufs d’or pour le capitalisme contemporain.
Tout cela représente le récit central actuel autour de l’IA : une technologie nouvelle, supérieurement efficace et qui va mettre en danger des millions d’emplois. Mais ce discours lui-même, souvent porté par des personnes qui ont un intérêt dans le développement de l’IA, n’est pas neutre.
« Le discours sur les technologies et leur futur est souvent un discours à vocation performative, où l’on porte des discours hyperboliques pour faciliter l’acceptation sociale de ces évolutions », rappelle ainsi Juan Sebastián Carbonell, sociologue du travail et auteur du Futur du travail.
Les entreprises du numérique, les « futurologues » à la Laurent Alexandre ou Olivier Babeau ou des intervenants comme les journalistes ou les politiques sont tous porteurs de ces « prophéties autoréalisatrices » qui cherchent à imposer une technologie, malgré les doutes. D’ailleurs, une des conséquences concrètes de ce discours est d’attirer les investisseurs qui veulent être dans le jeu, c’est-à-dire dans le récit dominant.
La question de l’acceptabilité
Or, les doutes existent bel et bien et pèsent sur l’acceptabilité de l’IA. La première de ces incertitudes concerne sa fiabilité. Les producteurs parviennent certes à améliorer constamment les performances de leurs machines, mais ils ne peuvent éviter les erreurs et les fausses informations qui sont partie prenante du système LLM. C’est ce que l’on appelle des « hallucinations ». À certains moments, le système répond n’importe quoi avec l’assurance de la certitude. Beaucoup d’utilisateurs et utilisatrices de ChatGPT en ont fait l’expérience.
Ces déraillements sont inévitables parce que le système produit ses réponses à partir de l’analyse de vastes données récoltées sur Internet. Dans ces données, il existe des erreurs, des délires et des fausses informations que l’IA ne peut distinguer des données véritables. Ces machines ne sont pas conscientes, elles traitent de l’information. Si ce traitement produit une erreur, cette erreur sera sa vérité.
ChatGPT n’est pas parfait, mais vous non plus.
Les dirigeants d’OpenAI
Le problème est que l’IA générative peut alors affirmer avec le langage naturel de la conviction des faits erronés et des fausses informations. Et donc qu’une confiance trop avancée dans son fonctionnement peut conduire, lorsqu’il s’agit de prendre des décisions importantes, à des erreurs désastreuses. Certes, les producteurs d’IA promettent de réduire les hallucinations au maximum, mais, pour l’instant, il est conseillé de rester critique face aux réponses des « bots ».
Cette question est centrale. Les dirigeants d’OpenAI, lorsqu’ils ont présenté ChatGPT-4, ont affirmé que leur machine « n’était pas parfaite, mais [n]ous non plus ». Toutefois, la question n’est peut-être pas tout à fait là. Dans une relation interpersonnelle, l’erreur est souvent acceptable et réparable par un dialogue. Dans une relation avec la machine, elle l’est moins, précisément parce que c’est ici l’avantage « vendu » d’une machine : réduire la capacité d’erreur de l’humain.
Une entreprise qui voudrait imposer une relation avec une IA ne le fera que si le risque est infime. Car ce serait sinon mettre en danger sa réputation et sa relation avec ses clients. Mais le discours technophile, lui, prétend que la supériorité de la machine est achevée, ce qui ne peut que conduire à des difficultés considérables.
Un autre point de l’acceptabilité sera précisément l’absence de sensibilité de l’IA, qui limitera de facto la relation avec le public. L’IA singe un type de comportement humain, le traitement des données, qu’elle est capable de réaliser parfois mieux qu’un humain. Mais la relation humaine, même celle d’une relation marchande de vente ou d’achat d’un service, ne se limite pas toujours à cette dimension. Il y a là une limite qui représente aussi un risque, celui d’imposer une relation unidimensionnelle pour des raisons marchandes.
L’IA est une technologie produite dans le capitalisme par le capitalisme, elle n’a pas vocation à « agir de façon responsable ».
Dans un ouvrage publié en 2021, Deep Earnings, le physicien Pablo Jensen résume de cette façon le problème : si l’IA voulait réfléchir comme les humains, « il lui faudrait un corps similaire au nôtre » et « sans représentations symboliques intermédiaires ». Le corps pense aussi, et c’est même l’objet d’une partie non négligeable de la création humaine.
Ce qui nous mène à un dernier problème, celui de la « neutralité » de l’IA. Ces machines sont, comme toutes les autres, programmées et calibrées par des humains. Elles sont certes capables de produire du contenu inédit et de façon autonome, mais dans un cadre prédéfini au départ. Les réponses produites sont aussi le fruit de ce cadre.
Ce fait a été utilisé comme une arme contre le développement actuel de l’IA, notamment par Elon Musk, qui n’a cessé de parler « d’IA biaisée » ou « d’IA woke ». C’est aussi ce qui a motivé en grande partie ce même Elon Musk à lancer voici quelques jours une lettre ouverte pour un moratoire de six mois dans le développement de l’IA, signée par 1 000 chercheurs, chercheuses, acteurs et actrices du secteur afin de la « réguler » pour éviter, affirme-t-il, un « risque pour la civilisation et l’humanité ».
Car, en réalité, l’IA ne peut, par nature, être neutre. La volonté d’Elon Musk d’opposer un « Truth GPT » à un « Woke GPT » est avant tout un leurre destiné à cacher un enjeu économique : la volonté des concurrents qui ont raté le train de couper l’herbe sous le pied des premiers entrants. Pour cela, on utilise volontiers le combat à la mode à droite aux États-Unis, celui contre le « capitalisme woke ». Mais la Chine agit d’une certaine façon avec la même méthode : elle a interdit l’utilisation de ChatGPT, tout en investissant pour développer l’outil de Baidu…
Le paravent des discours moraux
Juan Sebastián Carbonell rappelle comment le chercheur et militant états-unien Harry Braverman (1920-1976), qu’il réédite actuellement en français, décrivait le « fétichisme de la machine ». Pour lui, le développement technologique conduit à croire à une « autonomie » de la machine, à une « force surhumaine » (bonne ou mauvaise) qui s’impose à nous de l’extérieur, alors que la machine n’est « en réalité que du capital ». Et puisque la machine est du capital, elle ne peut penser que comme le capital.
Pablo Jensen, dans son ouvrage déjà cité, avait d’ailleurs montré brillamment le lien étroit entre le mode de fonctionnement de l’IA et la philosophie de Friedrich von Hayek. L’IA est logiquement le produit du néolibéralisme et a donc les mêmes objectifs : la valorisation et l’accumulation du capital. Cette technologie est sans doute moins « woke » que calibrée pour conditionner certains comportements sociaux favorables aux intérêts de ses concepteurs.
Dans ce cadre, les discours moraux ne peuvent être que des paravents. Les géants technologiques, y compris le Twitter d’Elon Musk, ont annoncé voici peu de temps qu’ils réduisaient leurs équipes de surveillance éthique de ces programmes. L’IA est une technologie produite dans le capitalisme par le capitalisme, elle n’a pas vocation à « agir de façon responsable ». Les discours hyperboliques autour de l’IA ont pour objectif de dissimuler ces faits derrière un récit de progrès et de science.
Le discours autour de l’intelligence artificielle et de son cheval de Troie qu’est le phénomène ChatGPT est donc une part essentielle de l’histoire. Il s’agit de favoriser l’acceptabilité d’une technologie qui ne va pas de soi mais qui doit devenir irrésistible. L’explication de ce phénomène lui-même repose sur ce que l’on a déjà évoqué : le rêve du retour à un capitalisme à nouveau nourri de gains de productivité soutenus. Mais là encore, rien n’est si simple.
L’IA générative, outil ou gadget ?
Le premier élément, le plus important, est de saisir ce que l’IA est réellement capable de réaliser sur le plan économique. Pour l’instant, ChatGPT, y compris dans sa dernière version, est certes un beau gadget, mais avant tout un gadget divertissant. L’enjeu est désormais de le transformer en outil, et cela ne va pas tout seul.
Entre la production de vidéos amusantes de basse qualité et un usage commercial de la technologie, il existe encore un long chemin. Les entreprises y travaillent, mais l’histoire n’est pas écrite. L’histoire récente des technologies est riche de déceptions de ce point de vue.
Comme le rappelle le spécialiste des start-up John Thornhill dans le Financial Times, voici dix ans les « assistants numériques » du type Siri ou Alexa représentaient de grands espoirs avant d’être jugés désormais, par la directrice générale de Microsoft, comme une idée « conne comme la lune » (« dumb as rock »). On pourrait aussi évoquer les cryptomonnaies. Il est par conséquent utile de se montrer prudent et de réfléchir aux réelles possibilités concrètes de l’IA.
Et ici, bien sûr, on retrouve les questions d’acceptabilité posées plus haut : fiabilité et protection des données (l’Italie a, le 31 mars, bloqué ChatGPT pour des raisons de protection de la confidentialité des données) sont des éléments clés. Tout comme le contenu qu’est capable de produire l’IA générative.
Certes, cette technologie peut créer des contenus en langage naturel, ce qui a provoqué le « buzz » autour de ChatGPT, mais ce contenu est-il intéressant, est-il pertinent, est-il capable de réellement remplacer l’action humaine ? Dire qu’il est capable de produire un discours sur la Chine que pourrait prononcer Bruno Le Maire n’est pas réellement la preuve d’une créativité et d’un apport majeur à la production de contenu. Là encore, donc, rien n’est acquis.
Ces mêmes questions se posent sur la question centrale de la productivité. L’étude de Goldman Sachs est intéressante de ce point de vue. Elle s’appuie sur une hypothèse selon laquelle « l’IA générative produirait ses capacités promises ». Mais cette hypothèse est étrange : on s’appuie sur des prétentions d’application qui n’ont pas encore fait leurs preuves.
C’est donc un vœu pieux un peu tautologique où les attentes du système décident des anticipations de la banque. L’étude doit dès lors corriger ses prévisions selon les effets réels de l’IA, ce qui donne une « fourchette » de gains de productivité attendus de 0,3 % à 3 % par an. Autrement dit, elle promet deux mondes diamétralement opposés.
Cette étude s’appuie donc sur du vide et doit reconnaître qu’elle ne sait rien. Elle en est réduite à dérouler la théorie économique dominante : l’émergence d’une technologie de rupture produit des suppressions de postes qui se traduisent par du temps libéré pour de nouvelles tâches « plus productives », tout cela faisant augmenter la productivité globale de l’économie, donc les profits, les salaires et la demande.
Ce récit néo-schumpétérien est séduisant, mais il y a un os. C’était le même qui accompagnait le développement de l’informatique et de l’Internet. Or, ces technologies ont donné lieu à une poursuite de la baisse des gains de productivité depuis trente ans. C’est le fameux paradoxe formulé par l’économiste Robert Solow : « On voit les ordinateurs partout, sauf dans les chiffres de la productivité. »
Quel impact sur le travail ?
Rien ne dit que l’IA soit capable de résoudre ce paradoxe. Les précédentes révolutions industrielles étaient centrées sur des technologies de production de biens dont les effets sur la productivité générale sont très différents de ceux d’un changement technologique centré sur la production de services. De ce point de vue, l’effet de l’IA est encore plus concentré sur ce secteur que l’ordinateur, par exemple.
L’étude de Goldman Sachs reconnaît d’ailleurs que les secteurs de la production ne seront pas ou quasiment pas affectés par l’IA. Ce que confirme, de son côté, Juan Sebastián Carbonell, qui travaille sur le secteur automobile : « Pour l’instant, dans l’industrie, on ne se presse pas pour investir dans des technologies dont les effets sont à trop long terme et qui sont jugées comme trop coûteuses et pas assez performantes. »
Les gains de productivité seront donc concentrés sur les services et, particulièrement, les services aux entreprises centrés sur les activités de « circulation et contrôle », autrement dit ce qui entoure la production : services administratifs et juridiques, management, services financiers, marketing, communication…
Or ce sont déjà ces secteurs qui ont été touchés par les précédentes « révolutions » de l’Internet et de l’informatique. Et précisément, ces « automatisations » n’ont pas donné lieu à des gains de productivité spectaculaires.
Dans un texte prophétique de 1997, avant même la généralisation d’Internet, l’économiste Fred Moseley indiquait que les activités de circulation disposaient d’une capacité de gains de productivité structurellement « plus faible ». Il l’expliquait par les « difficultés inhérentes à mécaniser les fonctions commerciales, qui sont largement des transactions interpersonnelles ».
Taux de remplacement attendu de l’IA sur certains secteurs. © Infographie Goldman Sachs Global Investment Research
Vingt-cinq ans plus tard, cette analyse semble confirmée. Dans un ouvrage publié en français en 2021 sous le titre Les Capitalistes rêvent-ils de moutons électriques ? L’automation à l’âge de la stagnation, Jason Smith constate que « malgré la prolifération du commerce en ligne et l’ubiquité de la publicité personnelle régulée par des algorithmes, il y a peu d’éléments attestant que les gains de productivité du travail dans la sphère de la circulation ont été particulièrement prodigieux ». Certes, l’IA a pour ambition de remplacer certaines fonctions, mais c’était déjà le cas du commerce en ligne.
Les chiffres de l’emploi depuis deux ans viennent confirmer cette analyse : les emplois sont surtout créés dans cette sphère de la circulation où les gains de productivité sont réduits, voire inexistants. L’IA peut-elle changer cela ? C’est loin d’être certain, car les tâches automatisées sont souvent, dans ce domaine, compensées par d’autres emplois.
« Il n’est pas insensé de penser que les gains de productivité les plus spectaculaires dans la sphère de la circulation seront contrés par le nombre en hausse de travailleurs nécessaires au transport, au stockage, au triage et à la livraison des articles commandés en ligne », explique Jason Smith.
L’IA n’échappe pas à cette règle. Juan Sebastián Carbonell rappelle ainsi que le développement de cette technologie devra s’accompagner de métiers de préparation des outils, d’entraînement de l’IA, de vérification, de mise à jour et de correction des résultats. De plus, il met en garde contre la « confusion courante entre tâches et emplois ».
Par exemple, explique-t-il, un véhicule autonome ne remplace pas un chauffeur routier qui remplit dans son emploi de multiples autres tâches (livraison, relation client, travail administratif, vérification et entretien du véhicule…).
L’IA peut renforcer le management algorithmique, qui ne supprime pas les tâches d’encadrement mais accompagne les entreprises dans l’organisation du travail.
Juan Sebastián Carbonell
La question n’est donc pas tant la disparition du travail que l’effet de la technologie sur les gains de productivité globaux. Et rien n’assure qu’elle permette, comme le dit Goldman Sachs, de libérer du temps pour « des tâches plus productives ».
D’autant que ces activités de circulation – c’est la thèse défendue par Jason Smith – sont dans la sphère « improductive », une notion souvent mal comprise qui traduit une réalité simple : leur existence n’est pas fondée sur une création de valeur propre, mais dépend d’une création de valeur préalable, et elles ont pour fonction de favoriser la création de valeur d’un autre secteur. Autrement dit, leur existence est financée entièrement par une valeur déjà créée et justifiée par une valeur augmentée dans un autre domaine.
Ces services représentent ainsi une ponction sur le taux de profit qu’ils ont vocation à améliorer dans un second temps. Or le ralentissement des gains de productivité dans le domaine productif rend le système de plus en plus dysfonctionnel.
La réponse à la réduction de la création de valeur a été le développement soit de secteurs de services faiblement productifs, comme les services à la personne (qui pourraient d’ailleurs absorber une partie des emplois détruits par l’IA générative), soit des activités de circulation de la production, non productives. Dès lors, la pression globale sur le taux de profit s’accentue parce que la création de valeur est de plus en plus difficile.
La réponse est alors une intensification du travail par l’automatisation partielle des tâches de supervision, ce que l’on a appelé le « capitalisme de surveillance ». Évidemment, l’IA a un rôle important à jouer dans ce domaine.
« L’IA peut renforcer le management algorithmique, qui ne supprime pas les tâches d’encadrement mais accompagne les entreprises dans l’organisation du travail – qui doit faire quoi et à quel rythme – et l’évaluation des performances des travailleurs, comme dans les plateformes, mais aussi dans les call centers, la logistique… Ceci a bien sûr comme effet de discipliner les travailleurs », explique Juan Sebastián Carbonell.
L’IA pourrait donc être à l’origine d’une nouvelle dégradation du travail bien davantage que de sa disparition. C’est l’évolution normale lors de changements technologiques majeurs : le travail s’intensifie plutôt que de disparaître. Au reste, l’aspect dégradé du travail créé sous l’IA est bien représenté par l’importance du « microtravail » indispensable au fonctionnement des systèmes LLM. Ce sont des tâches ingrates de clics sur des images, de retranscription de son, etc., payées à la tâche à des prix très faibles.
Dans le cas de ChatGPT, des Kenyans ont été utilisés pour faire fonctionner le gadget le plus hype du moment. Payés entre 1,32 et 2 dollars par jour, ces travailleurs employés par le sous-traitant local Sama ont connu des conditions de travail apocalyptiques. Ils étaient chargés de repérer du contenu « toxique » sur le Web à un rythme soutenu. Certains parlent même de « torture ».
Il aurait aussi fallu évoquer le coût climatique de cette technologie qui, comme souvent, est éludé par le discours technophile dominant. Ce dernier apparaît donc comme une nouvelle émergence du récit « solutionniste technologique » visant avant tout à maintenir l’ordre social existant. Car, pour ce qui est du bien-être des populations et des travailleurs, comme d’ailleurs de la crise structurelle sociale et environnementale du capitalisme, l’IA ressemble plus à une nouvelle fuite en avant insensée qu’à une quelconque solution.
Si l’idée de stopper une avancée technologique semble vaine, il devient urgent de ne plus accepter cette avancée sous sa forme marchande, mais au contraire de la placer en regard des besoins sociaux et environnementaux qui sont les nôtres. Plus que jamais, il est urgent de lancer un débat sur le contenu et le sens des technologies.
Romaric Godin
Un message, un commentaire ?