🔮 Conversation avec Meredith Whittaker, la prĂ©sidente de la fondation Signal

Penser l'IA depuis ses racines économiques, militaires et publicitaires

🔮 Conversation avec Meredith Whittaker, la prĂ©sidente de la fondation Signal
Un bon moment Ă  Lyon pendant les Nuits Sonores
Cette semaine, je vous propose un format plus court et un retour sur ma conversation avec Meredith. Petit bonus pour les abonnĂ©s payants : la vidĂ©o de l’échange en avant-premiĂšre Ă  la fin de la newsletter.

La semaine derniĂšre, j’ai proposĂ© Ă  Meredith Whittaker, la prĂ©sidente de Signal, de venir aux Nuits Sonores (Ă  Lyon), oĂč l’une des lĂ©gendes de la techno de Detroit, Robert Hood, cofondateur du collectif Underground Resistance et considĂ©rĂ© par beaucoup comme l’inventeur du style minimal techno (celui qui a fait les beaux jours des clubs de Berlin), se produisait. Un grand merci Ă  l'Ă©quipe de nuits sonores, Vincent, Juliette et Anne-Caroline pour leur accueil et leur visite VIP de cette incroyable Ă©vĂšnement.

Robert Hood

Nous avons profitĂ© de l’édition de l’European Lab (la partie confĂ©rence des Nuits Sonores) pour organiser une petite conversation, qui s’est transformĂ©e en quelque chose d’un peu plus grand puisque, encore dans le train pour Lyon, les Ă©quipes de Quotidien m’ont informĂ© qu’elles allaient venir filmer. Normalement prĂ©vu pour mardi 3 juin.

L'interview de Mérédith Whittaker par les équipes de Quotidien

Cette petite dĂ©connexion lyonnaise a Ă©tĂ© un moment d’intenses conversations sur le futur du numĂ©rique et, Ă©videmment, de la gĂ©opolitique. J’avais promis quelques jours loin du Signalgate et autres remous de l’actualitĂ© gĂ©opolitique.

L’idĂ©e, c’était de revenir aux sources des trois grandes expĂ©riences de Meredith : chez Google, chez AI Now et dĂ©sormais chez Signal.

Meredith a retracĂ© son parcours et son analyse des Big Tech, de l’IA et de la question de la vie privĂ©e : de son entrĂ©e chez Google aprĂšs des Ă©tudes en sciences humaines, Ă  prendre la tĂȘte d’une des rares applications qui dĂ©fendent encore la vie privĂ©e.

Elle explique comment les investissements militaires de la guerre froide ont façonnĂ© des rĂ©seaux informatiques destinĂ©s Ă  assurer la suprĂ©matie amĂ©ricaine, puis comment, dans les annĂ©es 1990, l’administration Clinton a lĂ©gitimĂ© un Internet commercial fondĂ© sur la publicitĂ©, sans encadrement de la surveillance privĂ©e.

President Bill Clinton and venture capitalist John Doerr attend a... News  Photo - Getty Images
John Doerr et bill Clinton (photo de Doug Menuez)

À son arrivĂ©e en 2006 chez Google, elle dĂ©couvre une hiĂ©rarchie oĂč la capacitĂ© Ă  «penser en abstrait», Ă  rĂ©duire l’humain Ă  « des bits », dĂ©termine le statut et le salaire. Les ingĂ©nieurs capables d’optimiser des systĂšmes distribuĂ©s sont considĂ©rĂ©s comme essentiels, alors que tout travail administratif ou de soutien est peu valorisĂ©.

Elle perçoit rapidement que la croissance de Google repose sur un modĂšle publicitaire, encouragĂ© par le fait que, depuis les annĂ©es 1990, aucun cadre lĂ©gal fĂ©dĂ©ral n’empĂȘche les entreprises privĂ©es de collecter plus d’informations que l’État lui-mĂȘme. L’administration Clinton, confrontĂ©e Ă  une rĂ©cession, a fait du « New Deal sans socialisme » la prioritĂ© Ă©conomique : promouvoir l’Internet commercial, admettre la publicitĂ© comme unique mode de financement et ne poser aucune limite Ă  la surveillance. En consĂ©quence, les entreprises se sont lancĂ©es dans la course Ă  la donnĂ©e :

« On incite Ă  la surveillance, car ce qu’on vend, c’est l’accĂšs Ă  une connaissance supĂ©rieure d’un marchĂ© qu’on propose aux annonceurs. »

Meredith insiste : l’IA n’est pas apparue par hasard. Les ressources colossales (donnĂ©es, puissance de calcul) gĂ©nĂ©rĂ©es par le modĂšle publicitaire ont permis de relancer des approches de deep learning des annĂ©es 1980.

« Les modĂšles anciens, s’il y a assez de donnĂ©es et de puissance de calcul, peuvent faire des choses utiles pour ce modĂšle publicitaire. »

Ainsi, l’IA est selon elle un dĂ©rivĂ© du « surveillance business model » et de l’accumulation massive de donnĂ©es issues de la publicitĂ© ciblĂ©e.

Elle retrace aussi la genÚse militaire : en 1948, Rosenblatt invente les perceptrons, premiers réseaux de neurones artificiels, bien avant que le terme intelligence artificielle ne soit inventé en 1958.

Dans les annĂ©es 1970-80, le Pentagone finance la recherche en calcul pour la dissuasion nuclĂ©aire et la reconnaissance d’images. Dans les annĂ©es 1990, le « modĂšle publicitaire » a repris ces infrastructures, permettant Ă  la donnĂ©e de s’étendre aux usages civils. Meredith refuse l’idĂ©e que l’évolution technologique actuelle soit une trajectoire inĂ©vitable :

« Les rĂ©cits d’inĂ©vitabilitĂ© sont un luxe pour l’élite. Rien n’est inĂ©vitable. »

Elle ajoute que la notion de « New Deal sans socialisme » de la tech clintonienne a Ă©tĂ© perçue comme la solution Ă  la dĂ©sindustrialisation et Ă  la rĂ©cession de l’économie amĂ©ricaine. D’une certaine maniĂšre, on pourrait presque dire que les bases de donnĂ©es sont devenues la nouvelle industrie, et que l’Internet a Ă©tĂ© le renouveau industriel (ce que l’Europe n’a pas forcĂ©ment su imiter).

Meredith souligne que, chez Google, on pouvait afficher des positions morales trĂšs hautes (Don’t be evil), tant que l’entreprise Ă©tait super profitable Ă  chaque trimestre. Mais Ă  un moment, les choix devinrent plus Ă©pineux, et l’injonction de Don’t Be Evil s’est retournĂ©e contre ceux qui posaient les questions difficiles :

« Pourquoi n’arrĂȘtait-on pas les contrats militaires ? »

Elle dĂ©crit comment, vers 2017, elle apprend l’existence d’un contrat avec le Pentagone (projet Maven) pour dĂ©velopper des systĂšmes de vision par ordinateur destinĂ©s aux drones. Les ingĂ©nieurs chargĂ©s du code, estime-t-elle,

« ne savaient pas que leur travail allait servir à un usage militaire non éthique ».

Face au silence de la direction, elle et quelques collĂšgues lancent un mouvement d’organisation interne, conscients qu’historiquement, seule une forme de mouvement ouvrier a rĂ©ussi Ă  contenir le pouvoir illimitĂ© du capital. Ils rĂ©digent un manifeste, utilisent des canaux anonymes, distribuent des tracts papier (pour contourner la censure numĂ©rique interne) et organisent des rĂ©unions clandestines.

Cette mobilisation aboutit, en novembre 2018, à un walkout mondial : 20 000 employés quittent symboliquement leurs bureaux pour exiger la fin des projets militaires IA, la publication de tous les contrats gouvernementaux et la suppression des NDA qui interdisent de parler éthique.

Google Employees Walk Out To Protest Company's Treatment Of Women : NPR
Google Walkout

Ce walkout force Google Ă  prendre quelques mesures : un moratoire partiel sur Maven (transfert Ă  une filiale externe), la crĂ©ation d’un comitĂ© d’éthique pour tout projet IA sensible, la publication annuelle d’un rapport sur les contrats gouvernementaux, et une rĂ©vision des bonus pour ne plus pĂ©naliser ceux qui lĂšvent la main sur des questions Ă©thiques.

Meredith reconnaĂźt que ces changements restent partiels : la direction technique conserve son pouvoir dĂ©cisionnel. Mais les employĂ©s ont cessĂ© d’idolĂątrer l’entreprise :

ils comprennent Ă  ce moment-lĂ  que plus aucun gĂ©ant du web n’est moralement intouchable.

Sur le plan Ă©conomique et social, elle affirme que l’IA ne dĂ©cide pas de « prendre nos emplois » : c’est une question politique et de rapport de force. Depuis Babbage et le dĂ©bat sur la division du travail, il ne s’agit jamais de la technique en soi, mais de

« qui dĂ©cide comment les ressources technologiques et la valeur qu’elles produisent sont partagĂ©es ».

J’ai d’ailleurs donnĂ© l’exemple de l’évolution de l’économie « ubĂ©risĂ©e » : d’abord prĂ©sentĂ©e comme une rĂ©volution, Uber a vite montrĂ© que la technologie sert avant tout Ă  maximiser la marge, pas Ă  amĂ©liorer les revenus des chauffeurs.

L’algorithme, dit-elle,

« observe, motive, extrapole, mord sur chaque travailleur pour extraire un maximum de profits ».

Les chauffeurs ne sont mĂȘme pas considĂ©rĂ©s comme salariĂ©s mais Ă  nouveau comme des entitĂ©s abstraites. C’est un peu comme cela que l’IA nous voit, d’ailleurs.

Meredith dĂ©nonce la « thĂ©ologie » de l’IA : on excuse tout au nom de la prĂ©tendue supĂ©rioritĂ© des algorithmes, en oubliant que la plupart reposent sur des donnĂ©es produites par des travailleurs mal payĂ©s qui annotent des images ou du texte. Ces labels deviennent le ground truth des modĂšles, vendus ensuite comme intelligence pour alimenter la machine publicitaire ou militaire.

Pourtant, elle refuse l’idĂ©e selon laquelle il n’y aurait pas d’autre voie : elle a rejoint Signal pour construire un service affirmant une autre finalitĂ© :

« Chez Signal, chaque fois qu’une librairie n’offre pas les garanties de vie privĂ©e, on la réécrit et on l’open source. »

Signal dĂ©veloppe un chiffrement bout-Ă -bout, minimise la mĂ©tadonnĂ©e stockĂ©e, finance son activitĂ© par des dons plutĂŽt que par la publicitĂ©. L’objectif est de montrer qu’une technologie grand public peut exister sans exploiter chaque bit des Ă©changes de l’utilisateur.

J’ai oubliĂ© de lui poser la question mais je trouve que Signal a fait ce que Mozilla n’a pas su faire : s’abstraire des dĂ©pendances des big tech pour proposer une alternative. Mais Mozilla fait plus de politique que de code. Et en plus, ils viennent de fermer Pocket !

Elle note cependant que Signal ne peut se passer entiĂšrement du cloud public (AWS, Google Cloud) : dĂšs que ces infrastructures ne correspondent pas Ă  ses exigences, l’équipe redĂ©ploie ses propres modules. Cela souligne les limites d’un projet antagoniste : face Ă  des GAFAM disposant de dizaines de milliers d’ingĂ©nieurs et de serveurs, un petit collectif doit sans cesse réécrire des briques logicielles pour garantir la confidentialitĂ©.

Sur la vie privée, Meredith veut aller plus loin que les débats techniques (pseudonymisation, localisation des données, durée de conservation) : elle appelle à lutter contre

« l’autoritĂ© Ă©pistĂ©mique » des plateformes qui prĂ©tendent en savoir plus que nous sur nous-mĂȘmes, Ă©crivent nos rĂ©cits, fixent les cartes sur lesquelles se construisent nos vies.

Elle résume :

« Je ne veux pas posséder mes données Facebook ; je veux récuser le droit de Facebook de générer des données à mon sujet. »

La vie privĂ©e ne se rĂ©duit pas Ă  limiter la circulation des flux, mais Ă  contester l’idĂ©e que

« les grandes entreprises puissent dĂ©cider ce qui est vrai pour nous, ce qui est accessible, ce qui doit ĂȘtre montrĂ© ou rien ne doit ĂȘtre montrĂ© ».

Selon elle, la lutte pour la vie privée doit se fonder sur la question :

« Quelles sont les choses prĂ©cieuses qu’il faut protĂ©ger ? Pourquoi on a besoin de vie privĂ©e ? Qu’est-ce qui disparaĂźt quand on abandonne tout Ă  Facebook, Apple, Google ? »

Elle se fĂ©licite d’un mouvement latent : les gens ressentent instinctivement que Twitter, YouTube ou leur banque en ligne sont souvent buggĂ©s, mal conçus. Face Ă  la hype dĂ©connectĂ©e du rĂ©el, il y a un dĂ©sir latent de technologies diffĂ©rentes. Le problĂšme, dit-elle, est qu’on a appris aux gens Ă  se sentir honteux s’ils ne comprennent pas la technologie, alors qu’on devrait faire confiance Ă  ce ressenti d’inconfort.

S’adressant aux utilisateurs, elle recommande de poser les « questions bĂȘtes » :

  • Comment les donnĂ©es d’entraĂźnement ont-elles Ă©tĂ© produites ?
    (C’est un vieux pĂ©riphĂ©rique IoT qui envoie un flux structurĂ© par un schĂ©ma inadaptĂ© ? Les labels ont Ă©tĂ© posĂ©s par des travailleurs prĂ©caires payĂ©s quelques centimes par image ?)
  • Pourquoi l’algorithme vous classe-t-il de cette façon ?
    (Pourquoi le mĂȘme trajet en VTC est plus cher pour vous que pour un autre ?)

Elle insiste : il faut briser la honte intellectuelle autour de la technologie ; le fait que les interfaces soient mal conçues, que les menus soient buggĂ©s, devrait ĂȘtre la preuve que le discours de l’« IA qui fonctionne presque comme un cerveau humain » est vide de contenu. Ce « presque », rĂ©pĂ©tĂ© depuis Rosenblatt en 1948, garantit le prĂ©sent dĂ©faillant dans lequel nous vivons.

Conclusion

En conclusion, Meredith appelle Ă  agir sur plusieurs fronts :

  1. Remettre en cause la « thĂ©ologie de l’IA » et refuser l’idĂ©e que la technologie soit neutre ;
  2. Rejeter le modĂšle publicitaire qui nourrit la construction des IA ;
  3. Soutenir les initiatives comme Signal qui dĂ©montrent qu’on peut bĂątir des infrastructures respectueuses de la vie privĂ©e ;
  4. Reprendre collectivement la question de l’autoritĂ© sur nos donnĂ©es et nos reprĂ©sentations numĂ©riques, pour que la vĂ©ritĂ© ne reste pas aux mains de quelques plateformes privĂ©es.

À ses yeux, tout cela n’est pas une utopie :

« Nous ne vivons pas dans un monde oĂč chaque bit de notre vie doit ĂȘtre aspirĂ© par une IA ; il est possible de concevoir des alternatives, de reconstruire des infrastructures antagonistes, et de retrouver un rapport de force en faveur des utilisateurs. »

C’est drĂŽle, cela me fait penser Ă  ce que j’écrivais sur le Slow Web dĂ©jĂ  en 2010.

Comme le reste de la salle, j’ai Ă©tĂ© sĂ©duit par la force de sa vision et sa capacitĂ© Ă  faire ce qu’elle pense ĂȘtre bon pour la sociĂ©tĂ©. Une personne rare dans ce monde de la tech.


Section pour les abonnés payants

Super ! Vous vous ĂȘtes inscrit avec succĂšs.

Bienvenue de retour ! Vous vous ĂȘtes connectĂ© avec succĂšs.

Vous vous ĂȘtes abonnĂ© avec succĂšs Ă  Cybernetica.

SuccĂšs ! Consultez votre email pour obtenir le lien magique de connexion.

SuccÚs ! Vos informations de facturation ont été mises à jour.

Vos informations de facturation n'ont pas été mises à jour.