← dailytrends Breaking News

Meta et YouTube reconnus responsables de l'addiction des enfants dans un verdict historique de 6 millions de dollars : ce que les parents doivent savoir

· 7 min read

Un jury californien a conclu que Meta et YouTube avaient conçu de manière négligente des plateformes addictives ayant nui à un mineur, accordant 6 millions de dollars dans le premier verdict de ce type. Avec environ 2 000 poursuites similaires en attente, cette décision pourrait remodeler la réglementation et les actions en justice contre les entreprises de réseaux sociaux.

Un jury du comté de Santa Clara a rendu mardi un verdict historique, concluant que Meta Platforms et YouTube de Google avaient conçu de manière négligente des fonctionnalités addictives ayant nui à une plaignante mineure identifiée uniquement sous le nom de Kaley — la première fois qu'un jury parvient à cette conclusion à l'issue d'un procès, une décision qui pourrait modifier fondamentalement le paysage juridique applicable aux entreprises de réseaux sociaux. Le jury a accordé 6 millions de dollars de dommages et intérêts au total : 3 millions de dollars compensatoires et 3 millions de dollars punitifs, avec 70 % de la responsabilité attribuée à Meta et 30 % à YouTube. Les deux entreprises ont immédiatement annoncé leur intention de faire appel.

L'affaire est étroite dans ses faits, mais vaste dans ses implications. Selon les témoignages des parents au procès, Kaley a commencé à utiliser YouTube à l'âge de 6 ans et Instagram à 11 ans. À l'âge de 14 ans, elle avait été hospitalisée deux fois pour des comportements d'automutilation que ses thérapeutes attribuaient, en partie, aux contenus et aux schémas d'engagement qu'elle avait rencontrés sur les deux plateformes. Les avocats de la plaignante ont soutenu que Meta et YouTube avaient délibérément conçu des algorithmes de recommandation, des systèmes de notification et des fonctionnalités de défilement infini spécifiquement pour maximiser le temps d'engagement des jeunes utilisateurs — et qu'ils savaient, grâce à leurs propres recherches internes, que cette conception causait des préjudices psychologiques mesurables.

La défense s'est articulée autour de deux arguments : que la Section 230 du Communications Decency Act protège les plateformes de toute responsabilité pour les contenus de tiers, et que les plaignants n'avaient pas établi de lien de causalité direct entre la conception de la plateforme et les préjudices spécifiques allégués. Le jury a rejeté les deux. Sur la question de la Section 230, le juge avait statué avant le procès que les plaintes concernaient la conception du produit — l'algorithme lui-même — plutôt que des contenus spécifiques, une distinction qui contourne les protections du texte. Sur la causalité, le jury a apparemment accordé du crédit aux nombreux témoignages d'experts, notamment ceux de la psychiatre de Stanford, le Dr Anna Lembke, et du spécialiste en sciences sociales computationnelles du MIT, le Dr Sinan Aral, qui ont tous deux témoigné que les choix de conception des plateformes sont causalement liés aux comportements d'utilisation compulsive chez les adolescents.

Le verdict se répercute immédiatement sur environ 2 000 affaires similaires en attente devant les tribunaux fédéraux et étatiques à travers le pays, regroupées dans un litige multidistrict devant un juge fédéral à San Francisco. Meta seule fait face à des poursuites intentées par les procureurs généraux de 46 États, dont plusieurs ont déjà abouti à des règlements confidentiels. Les analystes de Bernstein Securities ont estimé mercredi que le verdict de Santa Clara, s'il résiste à l'appel, pourrait influencer la responsabilité globale du secteur dans une fourchette de 5 à 15 milliards de dollars pour l'ensemble des affaires en attente.

L'action Meta a chuté de 3,8 % mercredi ; Alphabet a reculé de 2,1 %. L'exposition financière immédiate de cette seule affaire est modeste — 6 millions de dollars représentent environ 18 secondes du chiffre d'affaires annuel de Meta — mais la question du précédent constitue le véritable risque que les investisseurs évaluent.

Le Congrès tente depuis des années de légiférer sur la sécurité des enfants en ligne sans succès, bloqué à plusieurs reprises par des objections relatives à la liberté d'expression et par le lobbying de l'industrie technologique. Le Kids Online Safety Act a été adopté deux fois par le Sénat, mais s'est enlisé à la Chambre des représentants. Le verdict de mardi pourrait fournir le catalyseur politique qui a manqué aux efforts législatifs : un jury de citoyens ordinaires, après avoir entendu l'intégralité du dossier factuel, a conclu que ces entreprises avaient causé des préjudices graves et devaient payer. La représentante Kathy Castor, qui a parrainé des législations sur la sécurité des enfants depuis 2020, a déclaré mercredi qu'« un jury vient de dire ce que le Congrès a eu peur de dire ».

L'affaire est également significative pour ce qu'elle pourrait faire évoluer dans la conception des plateformes. Meta a déjà annoncé qu'elle exigerait l'approbation parentale pour les comptes Instagram détenus par des utilisateurs de moins de 16 ans dans 22 États, à la suite de règlements distincts avec des procureurs généraux. YouTube a désactivé la lecture automatique pour les utilisateurs de moins de 18 ans et supprimé les notifications push pendant les heures nocturnes. Ces deux modifications ont été apportées sans reconnaissance de responsabilité. Si le verdict de Santa Clara résiste à l'appel, le calcul coût-bénéfice pour chaque fonctionnalité d'engagement de contenu évolue : les entreprises risquent d'être poursuivies pour des choix algorithmiques spécifiques, et pas seulement pour les contenus apparaissant sur leurs plateformes.

L'Académie américaine de pédiatrie, qui a déposé un mémoire d'amicus curiae soutenant les plaignants, a noté dans un communiqué que 35 % des adolescents américains déclarent utiliser les réseaux sociaux « presque constamment » et que les diagnostics de dépression et d'anxiété chez les adolescents ont augmenté de 71 % depuis 2010, une période qui correspond précisément à l'essor des réseaux sociaux sur smartphone. La corrélation ne prouve pas la causalité — l'AAP a été prudente à ce sujet — mais le jury, mardi, a estimé que c'était suffisamment proche.

**Ce que cela signifie pour vous**

Pour les parents, la conclusion pratique est claire : les outils utilisés par les plateformes pour maintenir votre enfant sur écran ont désormais été jugés négligemment préjudiciables par un jury. Le verdict ne modifie aucune loi, mais il crée un dossier public attestant que les propres recherches internes de ces entreprises révélaient des préjudices, et qu'elles ont néanmoins maintenu cette conception. Les psychiatres pédiatriques recommandent d'utiliser les paramètres Temps d'écran ou Bien-être numérique sur les smartphones pour fixer des limites strictes, de désactiver la lecture automatique sur YouTube et de vérifier quels comptes les mineurs suivent sur Instagram — l'algorithme de recommandation est le plus puissant lorsque la liste de suivis d'un utilisateur penche vers des créateurs de contenu à fort engagement.

Pour les investisseurs, la question est de savoir si Meta et Alphabet peuvent contenir cette responsabilité par des appels et des règlements, ou si le verdict de Santa Clara ouvre un nouveau front d'exposition juridique existentielle. Les équipes juridiques des entreprises avancent presque certainement que la doctrine de la responsabilité du fait des produits — utilisée par la plaignante dans cette affaire — ne devrait pas s'appliquer aux logiciels. Cet argument sera mis à l'épreuve devant le Neuvième Circuit, vraisemblablement dans un délai de 18 mois. Le résultat sera un événement déterminant pour le profil de risque juridique du secteur technologique.

Les 2 000 affaires regroupées dans le litige multidistrict observent la situation de près. Les avocats des plaignants ont désormais la preuve qu'un jury peut être convaincu — et que 6 millions de dollars ne constituent pas un plafond.

Frequently Asked Questions

Quelle décision le jury californien a-t-il rendue concernant Meta et YouTube ?
Un jury du comté de Santa Clara a conclu que Meta (Instagram) et YouTube avaient tous deux conçu de manière négligente des plateformes addictives ayant causé un préjudice psychologique mesurable à une plaignante mineure connue sous le nom de Kaley. Le jury a accordé 6 millions de dollars au total (3 millions de dollars compensatoires, 3 millions de dollars punitifs), attribuant 70 % de la responsabilité à Meta et 30 % à YouTube. Les deux entreprises ont annoncé leur intention de faire appel.
Pourquoi ce verdict contourne-t-il les protections de la Section 230 ?
Le juge a statué avant le procès que les plaintes concernaient la conception du produit — en particulier les choix de conception algorithmique et d'engagement — et non des contenus spécifiques publiés par des tiers. La Section 230 protège les plateformes de toute responsabilité pour les contenus générés par les utilisateurs, mais pas pour leurs propres décisions de conception de produit.
Combien de poursuites similaires sont en attente contre Meta et YouTube ?
Environ 2 000 affaires similaires sont regroupées dans un litige multidistrict fédéral à San Francisco. Les analystes de Bernstein Securities estiment que si le verdict de Santa Clara résiste à l'appel, la responsabilité globale du secteur pour l'ensemble des affaires en attente pourrait atteindre entre 5 et 15 milliards de dollars. Meta fait également face à des poursuites intentées par les procureurs généraux de 46 États.
Quelles fonctionnalités de conception ont été jugées préjudiciables ?
Les plaignants ont fait valoir que les algorithmes de recommandation, les systèmes de notification et les fonctionnalités de défilement infini avaient été délibérément conçus pour maximiser l'engagement des jeunes utilisateurs, et que les propres recherches internes des entreprises démontraient que ces choix causaient des préjudices psychologiques. Des experts de Stanford et du MIT ont témoigné du lien de causalité entre ces choix de conception et les comportements d'utilisation compulsive chez les adolescents.
Quelles mesures pratiques les parents peuvent-ils prendre à la suite de ce verdict ?
Les psychiatres pédiatriques recommandent d'utiliser les paramètres Temps d'écran ou Bien-être numérique pour fixer des limites quotidiennes strictes, de désactiver la lecture automatique de YouTube pour les mineurs, de vérifier quels comptes les enfants suivent sur Instagram, et d'activer l'approbation parentale pour la création de comptes sur les plateformes qui le proposent. Le verdict ne modifie aucune loi, mais établit un dossier public attestant que les entreprises avaient connaissance des préjudices causés.
#Meta social media lawsuit #YouTube child addiction #social media liability #Meta Instagram kids #Section 230 social media #social media mental health #tech company liability #child safety online #Meta verdict 2026 #YouTube negligence #social media regulation