Eine Jury in New Mexico befand Meta für schuldig, Nutzer über die Plattformsicherheit getäuscht und die Ausbeutung von Kindern ermöglicht zu haben, und verhängte 375 Millionen Dollar Schadensersatz — ein wegweisendes Urteil, das die Social-Media-Branche künftig mit Milliarden an Haftungsrisiken konfrontieren könnte.
Eine Jury in New Mexico hat am 25. März 2026 das größte Einzelurteil gegen Meta in der 22-jährigen Geschichte des Unternehmens gefällt und den Social-Media-Konzern zur Zahlung von 375 Millionen Dollar Schadensersatz verurteilt. Die Jury befand Meta dafür haftbar, Nutzer über die Sicherheit der Plattform getäuscht und Bedingungen geschaffen zu haben, die die sexuelle Ausbeutung von Minderjährigen ermöglichten. Das Urteil — nach vier Wochen Zeugenaussagen vor dem First Judicial District Court in Santa Fe gefällt — schafft einen Rechtsfall, den Staatsanwälte in mindestens 11 Bundesstaaten nach eigenen Angaben als Vorlage für eigene Klagen nutzen wollen.
Die Klage wurde vom Generalstaatsanwalt New Mexicos, Raúl Torrez, eingereicht, der Meta 2024 verklagte mit der Behauptung, das Unternehmen habe Instagram und Facebook wissentlich mit Funktionen ausgestattet — darunter Empfehlungsalgorithmen, Direktnachrichten mit Fremden und minimale Altersverifikation —, die Kontakte zwischen Erwachsenen und Minderjährigen zu Ausbeutungszwecken ermöglichten. Der Bundesstaat legte interne Meta-Forschungsergebnisse vor, die belegten, dass Führungskräfte sich der Risiken bewusst waren und sich dennoch gegen die Einführung verfügbarer Schutzmaßnahmen entschieden, weil dies die Engagement-Kennzahlen verringert hätte.
Meta lawsuit · Facebook child safety · social media lawsuit 2026
Die Jury befand Meta in zwei Punkten für schuldig: Verstoß gegen Verbraucherschutzrecht wegen Falschdarstellung der Plattformsicherheit gegenüber Eltern und Nutzern sowie Fahrlässigkeit wegen unterlassener Umsetzung angemessener Schutzmaßnahmen gegen bekannte Ausbeutungsmuster. Der Schadensersatz von 375 Millionen Dollar setzt sich aus Kompensations- und Strafschadenersatz zusammen. Metas Anwaltsteam kündigte umgehend Berufung an und bezeichnete das Urteil als „sachlich und rechtlich fehlerhaft", mit dem Argument, dass die unternehmenseigenen Moderationssysteme Millionen schädlicher Inhalte entfernt hätten.
“Der Schadensersatz von 375 Millionen Dollar setzt sich aus Kompensations- und Strafschadenersatz zusammen.”
Rechtlich bedeutsam ist das Urteil auch wegen dessen, worauf es sich nicht stützte: Section 230 des Communications Decency Act, das Bundesgesetz, das Social-Media-Plattformen historisch vor der Haftung für Inhalte Dritter schützt. New Mexicos Haftungstheorie konzentrierte sich auf Metas Plattform-Design-Entscheidungen und aktive Falschdarstellungen — nicht auf die von Nutzern veröffentlichten Inhalte. Diese Unterscheidung war in anderen Fällen entscheidend; Bundesgerichte lassen Produkthaftungs- und Verbraucherschutzklagen gegen Plattformen zunehmend zu, auch wenn Section 230 inhaltsbasierte Klagen blockiert.
Wichtige Erkenntnisse
→Meta lawsuit: A New Mexico jury found Meta liable for misleading users about the safety of its Instagram and Facebook platforms and for design choices that enabled the sexual exploitation of minors.
→Facebook child safety: A New Mexico jury found Meta liable for misleading users about the safety of its Instagram and Facebook platforms and for design choices that enabled the sexual exploitation of minors.
→social media lawsuit 2026: A New Mexico jury found Meta liable for misleading users about the safety of its Instagram and Facebook platforms and for design choices that enabled the sexual exploitation of minors.
→Meta verdict $375 million: A New Mexico jury found Meta liable for misleading users about the safety of its Instagram and Facebook platforms and for design choices that enabled the sexual exploitation of minors.
Die Bundesregierung übt ihrerseits parallelen Druck aus. Der parteiübergreifende KOSA (Kids Online Safety Act) wurde 2025 im Senat verabschiedet, ist im Repräsentantenhaus jedoch ins Stocken geraten. Die Trump-Regierung hat Unterstützung für Kinderschutzmaßnahmen signalisiert, zögert jedoch, Gesetze zu unterstützen, die durch den First Amendment geschützte Onlinerede einschränken könnten. Das Urteil aus New Mexico könnte die parlamentarische Handlungsbereitschaft beschleunigen, indem es zeigt, dass die Kosten der Untätigkeit — allein durch das Prozessrisiko — mittlerweile die Kosten der Compliance übersteigen.
Meta lawsuit · Facebook child safety · social media lawsuit 2026
Für Metas Bilanz ist der Betrag von 375 Millionen Dollar beherrschbar. Das Unternehmen meldete für 2025 einen Umsatz von 164 Milliarden Dollar und verfügt über mehr als 50 Milliarden Dollar in liquiden Mitteln. Analysten von Bernstein warnten jedoch in einer Forschungsnotiz, dass die eigentliche Bedeutung des Urteils darin liegt, was es freisetzt: „Dies ist das erste Mal, dass eine Jury eines Bundesstaates Strafschadenersatz gegen ein Social-Media-Unternehmen auf Basis einer Produkthaftungstheorie zugesprochen hat. Wenn diese Theorie die Berufung übersteht, kann jeder Bundesstaat dieselbe Klage einreichen. Die kumulierte Haftung über alle 50 Bundesstaaten könnte 5 bis 10 Milliarden Dollar betragen — und das ohne private Sammelklagen." Die Meta-Aktie fiel nach den Nachrichten um 2,3 %, erholte sich jedoch und schloss mit einem Minus von 0,8 %.
Advertisement
Meta ist mit diesem Risiko nicht allein. TikTok (im Besitz von ByteDance), Snap, YouTube (Google) und X (ehemals Twitter) sehen sich alle ähnlichen staatsweiten Ermittlungen gegenüber. Florida, Texas und Kalifornien führen aktive Untersuchungen auf Basis von Rechtstheorien, die denen New Mexicos nahezu identisch sind. Das Urteil beantwortet eine Frage, die die Branche seit Jahren beschäftigt: Kann ein Bundesstaat eine Produkthaftung gegen eine Social-Media-Plattform vor einer Jury beweisen? Die Jury in New Mexico antwortete mit Ja.
Das Berufungsverfahren wird wahrscheinlich darüber entscheiden, ob dieses Urteil ein Einzelfall oder ein Wendepunkt ist. Die zentrale Rechtsfrage — ob die algorithmischen Design-Entscheidungen einer Plattform ein „Produkt" im Sinne des Produkthaftungsrechts darstellen — wurde von einem Bundesberufungsgericht noch nie abschließend geklärt. Metas Berufung wird den Tenth Circuit mit an Sicherheit grenzender Wahrscheinlichkeit um eine Entscheidung zu dieser Frage ersuchen, und die Antwort wird entweder eine neue Ära der Social-Media-Haftung beenden, bevor sie begonnen hat — oder sie weit aufstoßen.
**Was das für Sie bedeutet**
Wenn Sie Elternteil sind, erhöht das Urteil den Druck auf Meta, stärkere Altersverifikation und Kinderschutzfunktionen einzuführen — nicht nur durch regulatorische Anforderungen, sondern durch Prozessrisiken. Instagram hat erweiterte Aufsichtstools für Eltern angekündigt, doch Datenschutzexperten weisen darauf hin, dass die tatsächliche Durchsetzung von Altersgrenzen auf einer Plattform mit 2 Milliarden Nutzern weitgehend theoretisch bleibt.
Für Anleger in Meta, Google, Snap oder TikTok ist das Urteil ein neuer Posten in der Risikorechnung. Bernsteins Schätzung eines kumulierten Haftungsrisikos von 5 bis 10 Milliarden Dollar geht nur von Klagen staatlicher Generalstaatsanwälte aus; private Sammelklagen könnten diesen Betrag bei weitem übersteigen. Meta verfügt über 50 Milliarden Dollar in der Kasse, um Rechtsstreitigkeiten zu überstehen, doch Snap — kleiner und weniger profitabel — befindet sich in einer deutlich prekäreren Lage.
Advertisement
Die wichtigste kurzfristige Entwicklung, die es zu beobachten gilt, ist, ob Metas Berufung die Section-230-Frage direkt angreift oder einräumt, dass Produkthaftungsansprüche zulässig sind, und stattdessen auf sachlicher Ebene kämpft. Die Antwort wird signalisieren, wie die gesamte Branche zu reagieren gedenkt — und wie viel größer das nächste Urteil ausfallen könnte.
Continue reading to see the full article
#Meta lawsuit#Facebook child safety#social media lawsuit 2026#Meta verdict $375 million#Instagram child exploitation#Big Tech liability#Section 230#New Mexico court#child safety online#Meta stock#social media regulation#tech company liability
Worum ging es bei dem 375-Millionen-Dollar-Urteil gegen Meta?
Eine Jury in New Mexico befand Meta für schuldig, Nutzer über die Sicherheit seiner Plattformen Instagram und Facebook getäuscht zu haben, und für Design-Entscheidungen, die die sexuelle Ausbeutung von Minderjährigen ermöglichten. Der am 25. März 2026 verhängte Schadensersatz von 375 Millionen Dollar ist das größte Einzelurteil einer Jury gegen Meta in der gesamten Unternehmensgeschichte.
Kann Meta trotz Section 230 wegen Kinderschutzproblemen verklagt werden?
Section 230 schützt Plattformen vor der Haftung für von Dritten veröffentlichte Inhalte, nicht jedoch vor Klagen, die auf eigenen Design-Entscheidungen und aktiven Falschdarstellungen der Plattform beruhen. Die Klage New Mexicos konzentrierte sich auf Metas algorithmisches Design und Sicherheitsversprechen — nicht auf spezifische nutzergenerierte Inhalte — weshalb der Fall die Section-230-Verteidigung überstanden hat.
Werden andere Bundesstaaten Meta nach dem Urteil in New Mexico verklagen?
Mindestens 11 Bundesstaaten haben angekündigt, das Urteil aus New Mexico als Vorlage für eigene Klagen nutzen zu wollen. Florida, Texas und Kalifornien führen aktive Ermittlungen auf Basis ähnlicher Rechtstheorien. Das Urteil zeigt, dass eine Jury Strafschadenersatz gegen eine Social-Media-Plattform auf Basis einer Produkthaftungstheorie zusprechen kann, was die rechtliche Hürde für künftige Fälle senkt.
Wie wirkt sich das Meta-Urteil auf den Aktienkurs und die Finanzen von Meta aus?
375 Millionen Dollar sind für Meta, das 2025 einen Umsatz von 164 Milliarden Dollar meldete, ein beherrschbarer Betrag. Die Meta-Aktie fiel am Tag des Urteils um 0,8 %. Das größere finanzielle Risiko liegt in der kumulierten Haftung über alle 50 Bundesstaaten und privaten Sammelklagen, die Analysten von Bernstein auf 5 bis 10 Milliarden Dollar schätzen — zuzüglich Rechtskosten und möglicher Vergleiche.
Was können Eltern tun, um Kinder auf Instagram und Facebook zu schützen?
Meta hat erweiterte elterliche Aufsichtstools auf Instagram eingeführt, mit denen Eltern die Kontakte ihres Kindes überwachen, Nachrichten von Fremden einschränken und Zeitlimits setzen können. Datenschutzexperten weisen darauf hin, dass die Durchsetzung der Altersuntergrenze nach wie vor schwach ist. Eltern können zudem gerätebasierte Kindersicherungen nutzen, den Beaufsichtigungsmodus aktivieren und die Follower- und Kontaktlisten ihres Kindes regelmäßig überprüfen.