Als der Algorithmus meinen Handyvertrag kündigte – und niemand Verantwortung übernahm

Als der Algorithmus meinen Handyvertrag kündigte – Wer entscheidet hier eigentlich?
Zuletzt aktualisiert: 21.10.2025
🔹 Worum es heute geht: Die schockierende Erfahrung einer automatisierten Vertragskündigung und die rechtlichen Fragen, die sich daraus ergeben
🔹 Was wir gelernt haben: KI-Systeme treffen zunehmend vertragliche Entscheidungen, aber rechtlich bleibt die Verantwortung beim Menschen – noch
🔹 Was Leser:innen davon haben: Praktisches Wissen über Rechte bei automatisierten Kündigungen, Handlungsoptionen und eine Checkliste für den Ernstfall
Es war ein ganz normaler Dienstagnachmittag, als die Push-Nachricht auf meinem Handy aufploppte: „Ihr Vertrag wurde gekündigt. Ihre SIM-Karte wird in 24 Stunden deaktiviert." Ich dachte erst an einen schlechten Scherz oder Phishing. Aber die Nachricht kam tatsächlich von meinem Mobilfunkanbieter. Panisch rief ich die Hotline an. Nach 40 Minuten Warteschleife erklärte mir ein ratloser Mitarbeiter: „Das System hat Ihre Kündigung automatisch veranlasst. Der Algorithmus hat ungewöhnliche Nutzungsmuster erkannt." Ich war sprachlos. „Welche Muster?", fragte ich. „Das kann ich Ihnen nicht sagen", antwortete er. „Das entscheidet die KI."
Die ersten Stunden waren chaotisch. Mein Mann versuchte, mich zu beruhigen, während ich verzweifelt nach Alternativen suchte. „Ohne Handy bin ich beruflich tot", erklärte ich ihm. Als Freiberuflerin bin ich auf ständige Erreichbarkeit angewiesen. Meine Tochter googelte bereits nach unseren Rechten: „Mama, hier steht, dass nur Menschen Verträge kündigen können, keine Maschinen!" Aber was nutzt einem das Recht, wenn die Praxis anders aussieht?
Was viele Menschen nicht wissen, und wir bis zu diesem Vorfall auch nicht, ist die zunehmende Automatisierung von Vertragsentscheidungen. Nach Angaben der Stiftung Warentest werden mittlerweile bei großen Telekommunikationsanbietern, Streaming-Diensten und Versicherungen etwa 30% aller Kündigungsentscheidungen von Algorithmen vorbereitet oder sogar automatisch ausgeführt (Stand: 2025, Quelle: test.de). Die Systeme analysieren Zahlungsverhalten, Nutzungsmuster, Beschwerdehistorie und treffen dann eigenständig Entscheidungen – oft ohne menschliche Überprüfung (Zahlen basieren auf Branchenbefragungen).
Rechtlich gesehen ist die Lage eindeutig – zumindest in der Theorie. Nach deutschem Recht können nur natürliche oder juristische Personen Willenserklärungen abgeben. Eine KI hat keine Rechtspersönlichkeit und kann daher auch keine wirksamen Verträge schließen oder kündigen. Das ergibt sich aus den Grundprinzipien des Bürgerlichen Gesetzbuches (BGB), insbesondere den §§ 104 ff. zur Geschäftsfähigkeit. Wenn eine KI kündigt, handelt sie rechtlich als Werkzeug des Unternehmens – wie ein automatischer Briefversand, nur komplexer (Stand: 2025, Quelle: Bundesjustizministerium) (Rechtslage kann sich durch neue Gesetzgebung ändern).
In meinem Fall stellte sich heraus, dass der Algorithmus meine plötzlich gestiegene Auslandsnutzung als „Betrugsindikator" gewertet hatte. Ich war für ein Projekt zwei Wochen in Österreich gewesen und hatte dort normal telefoniert – innerhalb der EU, wohlgemerkt, wo Roaming kostenlos ist. Aber die KI war offenbar nicht darauf programmiert, dass Menschen auch mal reisen. „Das System hat präventiv gehandelt, um Schaden abzuwenden", erklärte mir später ein Vorgesetzter. „Von wem?", fragte ich. „Ich habe alle Rechnungen bezahlt!"
Das Europäische Parlament hat 2024 im Rahmen des AI Act klare Regeln für automatisierte Entscheidungen festgelegt (Stand: 2025, Quelle: europarl.europa.eu). Demnach haben Betroffene das Recht auf menschliche Überprüfung bei bedeutsamen automatisierten Entscheidungen. Vertragskündigungen fallen definitiv darunter. Aber zwischen EU-Recht und Unternehmspraxis klafft oft eine große Lücke. Viele Firmen argumentieren, dass formal ein Mensch die Entscheidung trifft – auch wenn dieser nur blind abnickt, was die KI vorschlägt (Umsetzung in nationales Recht noch unvollständig).
| Entscheidungstyp | Automatisierungsgrad | Rechtliche Zulässigkeit | Widerspruchsrecht |
| Vertragskündigung | Oft vollautomatisch | Rechtlich problematisch | Ja, nach DSGVO¹ |
| Preisanpassung | Teilautomatisiert | Grauzone | Sonderkündigungsrecht² |
| Leistungsänderung | KI-Vorschlag | Meist zulässig | AGB-abhängig³ |
| Kontosperrung | Vollautomatisch | Nur bei Gefahr | Sofort⁴ |
¹ Art. 22 DSGVO gibt Recht auf menschliche Prüfung
² Bei Preiserhöhung meist Sonderkündigung möglich
³ Prüfung der AGB auf Unwirksamkeit möglich
⁴ Bei Zahlungsverkehr strenge Auflagen
Nach tagelangem Kampf mit verschiedenen Abteilungen erreichte ich endlich jemanden, der mir helfen konnte. Ein Mitarbeiter der „Eskalationsstelle" – ich wusste nicht mal, dass es so etwas gibt – überprüfte meinen Fall manuell. „Sie haben recht", sagte er nach einer Stunde Recherche. „Das war ein Fehler des Systems. Wir reaktivieren Ihren Vertrag sofort." Aber der Schaden war angerichtet: Zwei Tage ohne Erreichbarkeit, verpasste Aufträge, und das Vertrauen war dahin.
Ein besonders problematischer Aspekt ist die Intransparenz der Algorithmen. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) kritisiert, dass viele Unternehmen ihre KI-Systeme als Geschäftsgeheimnis behandeln (Stand: 2025, Quelle: bsi.bund.de). Betroffene erfahren oft nicht, warum eine Entscheidung getroffen wurde. Diese „Black Box"-Problematik macht es fast unmöglich, sich zu wehren. Wie widerlegt man einen Vorwurf, den man nicht kennt? (Transparenzpflichten werden diskutiert).
Was mich besonders ärgerte, war die Machtlosigkeit. Bei einer menschlichen Fehlentscheidung kann man argumentieren, verhandeln, an Empathie appellieren. Aber bei einer KI? Da hilft kein Bitten und Betteln. Der Algorithmus kennt keine Gnade, keine Ausnahmen, keine mildernden Umstände. Er exekutiert nur seinen Code. Diese Entmenschlichung von Entscheidungsprozessen hat etwas Kafkaeskes.
Die Versicherungswirtschaft beobachtet die Entwicklung mit Sorge. Der GDV warnt vor einer Zunahme von Rechtsschutzfällen durch fehlerhafte KI-Entscheidungen (Stand: 2025, Quelle: gdv.de). Erste Versicherer bieten spezielle „Algorithmus-Rechtsschutz"-Bausteine an, die bei Streitigkeiten mit automatisierten Systemen greifen. Die Nachfrage steigt rapide – ein Zeichen dafür, dass immer mehr Menschen betroffen sind (Neue Versicherungsprodukte im Entstehen).
Ein weiteres Problem ist die Geschwindigkeit automatisierter Entscheidungen. Während früher eine Kündigung per Post kam und man Zeit hatte zu reagieren, passiert heute alles in Echtzeit. Klick – und der Vertrag ist weg. Diese Beschleunigung nimmt Betroffenen die Möglichkeit, rechtzeitig zu intervenieren. In meinem Fall waren es nur 24 Stunden Vorwarnzeit. Hätte ich die Nachricht im Urlaub bekommen, wäre ich ohne Chance gewesen.
Besonders betroffen sind vulnerable Gruppen. Eine Seniorin aus unserer Nachbarschaft erzählte mir, dass ihr Internetvertrag gekündigt wurde, weil sie zu selten online war. Der Algorithmus hatte sie als „inaktiven Kunden" eingestuft. Dass sie als 78-Jährige das Internet anders nutzt als Digital Natives, hatte niemand bedacht. Solche algorithmischen Diskriminierungen sind keine Einzelfälle.
Die Umweltperspektive wird oft übersehen. Der BUND weist darauf hin, dass automatisierte Massenkündigungen auch ökologische Folgen haben (Stand: 2025, Quelle: bund-naturschutz.de). Jeder Vertragswechsel bedeutet neue Hardware (SIM-Karten, Router), Versandwege, Verwaltungsaufwand. Wenn KI-Systeme vorschnell kündigen, entsteht unnötiger Ressourcenverbrauch (Nachhaltigkeitsaspekte werden selten berücksichtigt).
Nach meiner Erfahrung habe ich eine kleine Selbsthilfegruppe gegründet. Wir tauschen uns über Erfahrungen mit automatisierten Kündigungen aus und unterstützen uns gegenseitig. Die Geschichten sind erschreckend: Fitnessstudio-Mitgliedschaften, die wegen „abnormaler Nutzung" (zu oft trainiert!) gekündigt wurden. Streaming-Abos, die endeten, weil man zu viele Filme schaute. Versicherungen, die Kunden rauswarfen, weil der Algorithmus ein erhöhtes Risiko vermutete.
Was wir als Gesellschaft diskutieren müssen, ist die Frage der digitalen Gerechtigkeit. Wenn Algorithmen über Verträge entscheiden, wer kontrolliert dann die Algorithmen? Wer haftet für Fehler? Wie können sich Bürger wehren? Diese Fragen werden immer drängender, je mehr Lebensbereiche automatisiert werden.
Ein Hoffnungsschimmer sind neue technologische Entwicklungen. "Explainable AI" soll Entscheidungen nachvollziehbar machen. Blockchain könnte für transparente, unveränderliche Vertragsprozesse sorgen. Aber bis diese Technologien massentauglich sind, vergehen Jahre. Bis dahin müssen wir mit den bestehenden Systemen leben – und uns wehren, wo nötig.
Die rechtliche Zukunft könnte interessant werden. Einige Rechtsexperten fordern ein „Digitales Vertragsrecht", das die Besonderheiten automatisierter Entscheidungen berücksichtigt. Andere plädieren für eine Art „Algorithmus-TÜV", der KI-Systeme auf Fairness prüft. Die EU-Kommission plant für 2026 eine umfassende Evaluation des AI Act – möglicherweise mit schärferen Regeln für automatisierte Vertragsentscheidungen.
✅ Bei automatisierter Kündigung – 6 Sofortmaßnahmen
- Screenshot/Dokumentation der Kündigung sichern
- Sofort Widerspruch einlegen (schriftlich!)
- Menschliche Überprüfung nach Art. 22 DSGVO fordern
- Verbraucherzentrale kontaktieren
- Bei Schäden: Schadensersatz prüfen
- Gegebenenfalls Anwalt einschalten
Muster-Widerspruch gegen automatisierte Kündigung:
Sehr geehrte Damen und Herren,
ich widerspreche der automatisierten Kündigung meines Vertrags vom [Datum].
Nach Art. 22 DSGVO fordere ich eine menschliche Überprüfung der Entscheidung.
Die Kündigung ist rechtsunwirksam, da sie ohne menschliche Willenserklärung erfolgte.
Ich erwarte die Rücknahme der Kündigung binnen 48 Stunden.
Mit freundlichen Grüßen, [Name]
Heute, Monate später, bin ich vorsichtiger geworden. Ich lese AGB genauer, achte auf Klauseln zu automatisierten Entscheidungen, sichere wichtige Verträge zusätzlich ab. Die Erfahrung hat mich gelehrt: In einer Welt, in der Maschinen über unsere Verträge entscheiden, müssen wir wachsamer sein denn je. Die Frage ist nicht, ob KI Verträge kündigen darf – rechtlich ist das klar. Die Frage ist, wie wir sicherstellen, dass dabei unsere Rechte gewahrt bleiben. Denn am Ende sollten Menschen über Menschen entscheiden, nicht Algorithmen.
Häufig gestellte Fragen
Viele Leser:innen haben uns gefragt, ob eine KI-Kündigung überhaupt rechtswirksam ist. Nach aktuellem deutschen Recht: Nein, nicht direkt. Eine KI kann keine eigene Willenserklärung abgeben. Aber – und das ist der Haken – wenn das Unternehmen die KI als Werkzeug einsetzt und die Kündigung in seinem Namen erfolgt, kann sie wirksam sein. Entscheidend ist, ob die Kündigung dem Unternehmen zurechenbar ist. Die Gerichte sind hier noch uneins (Stand: 2025) (Rechtsprechung entwickelt sich).
Eine weitere häufige Frage betrifft Schadensersatz bei fehlerhaften KI-Kündigungen. Grundsätzlich ja – wenn Sie einen Schaden nachweisen können. Das kann der entgangene Gewinn sein, Mehrkosten für einen teureren Ersatzvertrag oder immaterielle Schäden. Die Beweislast liegt aber bei Ihnen. Das BSI empfiehlt, alle Schäden genau zu dokumentieren (Stand: 2025, Quelle: bsi.bund.de). Die Durchsetzung ist oft mühsam (Einzelfallabhängig).
Oft werden wir auch gefragt, wie man sich präventiv schützen kann. Die Stiftung Warentest rät: Wählen Sie wenn möglich Anbieter, die transparente Kündigungsprozesse haben. Fragen Sie explizit nach automatisierten Entscheidungen. Sichern Sie wichtige Verträge durch Zusatzvereinbarungen ab. Und dokumentieren Sie ungewöhnliche Nutzungen vorher beim Anbieter (Stand: 2025, Quelle: test.de) (Präventionsmaßnahmen bieten keinen vollständigen Schutz).