Un jury du comté de Santa Clara a rendu mardi un verdict historique, concluant que Meta Platforms et YouTube de Google avaient conçu de manière négligente des fonctionnalités addictives ayant nui à une plaignante mineure identifiée uniquement sous le nom de Kaley — la première fois qu'un jury parvient à cette conclusion à l'issue d'un procès, une décision qui pourrait modifier fondamentalement le paysage juridique applicable aux entreprises de réseaux sociaux. Le jury a accordé 6 millions de dollars de dommages et intérêts au total : 3 millions de dollars compensatoires et 3 millions de dollars punitifs, avec 70 % de la responsabilité attribuée à Meta et 30 % à YouTube. Les deux entreprises ont immédiatement annoncé leur intention de faire appel.
L'affaire est étroite dans ses faits, mais vaste dans ses implications. Selon les témoignages des parents au procès, Kaley a commencé à utiliser YouTube à l'âge de 6 ans et Instagram à 11 ans. À l'âge de 14 ans, elle avait été hospitalisée deux fois pour des comportements d'automutilation que ses thérapeutes attribuaient, en partie, aux contenus et aux schémas d'engagement qu'elle avait rencontrés sur les deux plateformes. Les avocats de la plaignante ont soutenu que Meta et YouTube avaient délibérément conçu des algorithmes de recommandation, des systèmes de notification et des fonctionnalités de défilement infini spécifiquement pour maximiser le temps d'engagement des jeunes utilisateurs — et qu'ils savaient, grâce à leurs propres recherches internes, que cette conception causait des préjudices psychologiques mesurables.
La défense s'est articulée autour de deux arguments : que la Section 230 du Communications Decency Act protège les plateformes de toute responsabilité pour les contenus de tiers, et que les plaignants n'avaient pas établi de lien de causalité direct entre la conception de la plateforme et les préjudices spécifiques allégués. Le jury a rejeté les deux. Sur la question de la Section 230, le juge avait statué avant le procès que les plaintes concernaient la conception du produit — l'algorithme lui-même — plutôt que des contenus spécifiques, une distinction qui contourne les protections du texte. Sur la causalité, le jury a apparemment accordé du crédit aux nombreux témoignages d'experts, notamment ceux de la psychiatre de Stanford, le Dr Anna Lembke, et du spécialiste en sciences sociales computationnelles du MIT, le Dr Sinan Aral, qui ont tous deux témoigné que les choix de conception des plateformes sont causalement liés aux comportements d'utilisation compulsive chez les adolescents.
Le verdict se répercute immédiatement sur environ 2 000 affaires similaires en attente devant les tribunaux fédéraux et étatiques à travers le pays, regroupées dans un litige multidistrict devant un juge fédéral à San Francisco. Meta seule fait face à des poursuites intentées par les procureurs généraux de 46 États, dont plusieurs ont déjà abouti à des règlements confidentiels. Les analystes de Bernstein Securities ont estimé mercredi que le verdict de Santa Clara, s'il résiste à l'appel, pourrait influencer la responsabilité globale du secteur dans une fourchette de 5 à 15 milliards de dollars pour l'ensemble des affaires en attente.
L'action Meta a chuté de 3,8 % mercredi ; Alphabet a reculé de 2,1 %. L'exposition financière immédiate de cette seule affaire est modeste — 6 millions de dollars représentent environ 18 secondes du chiffre d'affaires annuel de Meta — mais la question du précédent constitue le véritable risque que les investisseurs évaluent.
Le Congrès tente depuis des années de légiférer sur la sécurité des enfants en ligne sans succès, bloqué à plusieurs reprises par des objections relatives à la liberté d'expression et par le lobbying de l'industrie technologique. Le Kids Online Safety Act a été adopté deux fois par le Sénat, mais s'est enlisé à la Chambre des représentants. Le verdict de mardi pourrait fournir le catalyseur politique qui a manqué aux efforts législatifs : un jury de citoyens ordinaires, après avoir entendu l'intégralité du dossier factuel, a conclu que ces entreprises avaient causé des préjudices graves et devaient payer. La représentante Kathy Castor, qui a parrainé des législations sur la sécurité des enfants depuis 2020, a déclaré mercredi qu'« un jury vient de dire ce que le Congrès a eu peur de dire ».
L'affaire est également significative pour ce qu'elle pourrait faire évoluer dans la conception des plateformes. Meta a déjà annoncé qu'elle exigerait l'approbation parentale pour les comptes Instagram détenus par des utilisateurs de moins de 16 ans dans 22 États, à la suite de règlements distincts avec des procureurs généraux. YouTube a désactivé la lecture automatique pour les utilisateurs de moins de 18 ans et supprimé les notifications push pendant les heures nocturnes. Ces deux modifications ont été apportées sans reconnaissance de responsabilité. Si le verdict de Santa Clara résiste à l'appel, le calcul coût-bénéfice pour chaque fonctionnalité d'engagement de contenu évolue : les entreprises risquent d'être poursuivies pour des choix algorithmiques spécifiques, et pas seulement pour les contenus apparaissant sur leurs plateformes.
L'Académie américaine de pédiatrie, qui a déposé un mémoire d'amicus curiae soutenant les plaignants, a noté dans un communiqué que 35 % des adolescents américains déclarent utiliser les réseaux sociaux « presque constamment » et que les diagnostics de dépression et d'anxiété chez les adolescents ont augmenté de 71 % depuis 2010, une période qui correspond précisément à l'essor des réseaux sociaux sur smartphone. La corrélation ne prouve pas la causalité — l'AAP a été prudente à ce sujet — mais le jury, mardi, a estimé que c'était suffisamment proche.
**Ce que cela signifie pour vous**
Pour les parents, la conclusion pratique est claire : les outils utilisés par les plateformes pour maintenir votre enfant sur écran ont désormais été jugés négligemment préjudiciables par un jury. Le verdict ne modifie aucune loi, mais il crée un dossier public attestant que les propres recherches internes de ces entreprises révélaient des préjudices, et qu'elles ont néanmoins maintenu cette conception. Les psychiatres pédiatriques recommandent d'utiliser les paramètres Temps d'écran ou Bien-être numérique sur les smartphones pour fixer des limites strictes, de désactiver la lecture automatique sur YouTube et de vérifier quels comptes les mineurs suivent sur Instagram — l'algorithme de recommandation est le plus puissant lorsque la liste de suivis d'un utilisateur penche vers des créateurs de contenu à fort engagement.
Pour les investisseurs, la question est de savoir si Meta et Alphabet peuvent contenir cette responsabilité par des appels et des règlements, ou si le verdict de Santa Clara ouvre un nouveau front d'exposition juridique existentielle. Les équipes juridiques des entreprises avancent presque certainement que la doctrine de la responsabilité du fait des produits — utilisée par la plaignante dans cette affaire — ne devrait pas s'appliquer aux logiciels. Cet argument sera mis à l'épreuve devant le Neuvième Circuit, vraisemblablement dans un délai de 18 mois. Le résultat sera un événement déterminant pour le profil de risque juridique du secteur technologique.
Les 2 000 affaires regroupées dans le litige multidistrict observent la situation de près. Les avocats des plaignants ont désormais la preuve qu'un jury peut être convaincu — et que 6 millions de dollars ne constituent pas un plafond.