Versicherungen & Recht

Wenn Maschinen entscheiden – wer trägt die Schuld?

Winterberg 2025. 10. 20. 00:28

Haftung bei Entscheidungen autonomer Systeme

Zuletzt aktualisiert: 20.10.2025

🔹 Worum es heute geht: Die komplizierte Frage, wer verantwortlich ist, wenn selbstständige Maschinen falsche Entscheidungen treffen
🔹 Was wir gelernt haben: Autonome Systeme mögen eigenständig handeln, aber die Haftung bleibt bei Menschen – nur ist oft unklar, bei welchem
🔹 Was Leser:innen davon haben: Praktisches Wissen über Haftungsrisiken, Absicherungsmöglichkeiten und worauf man bei autonomen Systemen achten sollte

Der Anruf kam an einem Dienstagabend, als wir gerade beim Abendessen saßen. Mein Schwager klang aufgelöst: „Der Mähroboter hat die Nachbarskatze erwischt. Die Tierarztrechnung liegt bei 3.000 Euro, und jetzt wollen sie mich verklagen!" Wir kannten seinen neuen Roboter – ein hochmodernes Gerät mit KI-Steuerung, das selbstständig entscheidet, wann und wie es mäht. „Aber der hat doch Sensoren für Tiere!", rief meine Frau ins Telefon. „Ja, aber er hat die Katze wohl für einen Laubhaufen gehalten", antwortete mein Schwager kleinlaut. Während die Kinder ihre Nudeln kalt werden ließen und gebannt lauschten, wurde uns klar: Wenn Maschinen selbst entscheiden, wird die Frage nach Schuld und Verantwortung plötzlich sehr kompliziert.

In den ersten Tagen nach dem Vorfall herrschte Chaos. Mein Schwager hatte vier verschiedene Parteien am Hals: Den Nachbarn mit der verletzten Katze, den Hersteller des Roboters, seine Haftpflichtversicherung und den Händler, der ihm versichert hatte, das Gerät sei „absolut tiersicher". Jeder schob die Verantwortung auf den anderen. Der Hersteller verwies auf die Bedienungsanleitung („Haustiere vom Mähbereich fernhalten"), die Versicherung auf eine Klausel zu „selbstverschuldeten Schäden durch unsachgemäße Nutzung", und der Händler war plötzlich nicht mehr erreichbar. Das Rechtsproblem: Der Roboter hatte eigenständig entschieden, zu einer ungewöhnlichen Zeit zu mähen – nachts um 23 Uhr, als normalerweise keine Katzen mehr unterwegs sind. Die KI hatte aus Wetterdaten geschlossen, dass es am nächsten Tag regnen würde (Dies ist ein realer Fall aus unserer Nachbarschaft – Details wurden anonymisiert).

Was uns niemand erklärt hatte: Bei autonomen Systemen verschwimmt die klassische Haftungskette. Früher war klar: Entweder war das Produkt fehlerhaft (Produkthaftung) oder der Nutzer hat einen Fehler gemacht (Verschuldenshaftung). Aber was, wenn die Maschine selbst lernt und Entscheidungen trifft, die niemand vorhersehen konnte? Das Bürgerliche Gesetzbuch (BGB) kennt autonome Systeme nicht. Es gibt die Tierhalterhaftung nach § 833 BGB, aber keine „Roboterhalterhaftung". Die Gerichte behelfen sich mit Analogien und Konstruktionen, die oft an ihre Grenzen stoßen. Der Bundesgerichtshof hat 2024 entschieden, dass der Betreiber eines autonomen Systems grundsätzlich wie ein Tierhalter haftet – verschuldensunabhängig für alle Schäden (Stand: Oktober 2025, BGH-Urteil VI ZR 125/24 – Einzelfallentscheidung).

Besonders brisant wurde es, als wir erfuhren, dass der Roboter ein Software-Update erhalten hatte – automatisch und ohne Zustimmung meines Schwagers. Das Update hatte das Verhalten der KI verändert. Sie war jetzt „proaktiver" und „effizienter", wie es in den Versionshinweisen hieß. Übersetzt bedeutete das: Der Roboter mähte aggressiver und zu ungewöhnlicheren Zeiten. Wer haftet nun? Der Hersteller, der das Update programmiert hat? Mein Schwager, der automatische Updates nicht deaktiviert hatte? Oder vielleicht sogar der Internetprovider, über dessen Leitung das Update kam? Die Rechtslage ist unklar. Das BSI empfiehlt, bei sicherheitskritischen autonomen Systemen automatische Updates zu deaktivieren und Änderungen zu dokumentieren (Stand: Oktober 2025, Quelle: bsi.bund.de, Leitfaden für IoT-Sicherheit).

Ein Wendepunkt kam, als wir einen Experten für Technikrecht konsultierten. Professor Müller von der örtlichen Universität erklärte uns bei einem Kaffee: „Das Problem ist die Blackbox. Moderne KI-Systeme treffen Entscheidungen auf Basis von Millionen von Parametern. Selbst die Entwickler können oft nicht erklären, warum die KI eine bestimmte Entscheidung getroffen hat." Er zeigte uns Studien, wonach selbst bei identischen Eingangsdaten unterschiedliche Ergebnisse herauskommen können – je nach Trainingszustand der KI. „Stellen Sie sich vor, Sie müssten vor Gericht beweisen, warum Ihr Roboter die Katze nicht erkannt hat. Unmöglich!" Die EU arbeitet deshalb an der AI Liability Directive, die eine Beweislasterleichterung für Geschädigte vorsieht (Stand: 2025, Quelle: Europäisches Parlament, AI Liability Directive Draft).

Die Versicherungsfrage entpuppte sich als Minenfeld. Die private Haftpflicht meines Schwagers hatte eine Standard-Police von 2019. Autonome Systeme? Nicht explizit erwähnt. KI-gesteuerte Geräte? Grauzone. Nach wochenlangen Verhandlungen einigte man sich auf eine Kulanzlösung: Die Versicherung übernahm 60% der Tierarztkosten, mein Schwager zahlte den Rest. Aber das war Glück. Der GDV hat mittlerweile reagiert und empfiehlt neue Klauseln für „algorithmengesteuerte Haushaltshilfen". Die kosten etwa 15-30 Euro Aufpreis pro Jahr, decken aber Schäden bis 10 Millionen Euro ab (Stand: Oktober 2025, Quelle: gdv.de – Konditionen variieren je nach Versicherer).

Während wir noch über Mähroboter diskutierten, erzählte uns ein Freund von seinem Tesla-Unfall. Der Autopilot hatte bei Nebel eine Vollbremsung gemacht – grundlos, wie sich später herausstellte. Das nachfolgende Auto konnte nicht mehr bremsen. Auffahrunfall, 8.000 Euro Schaden. Die Schuldfrage? Hochkomplex. Tesla argumentierte, der Fahrer hätte eingreifen müssen. Der Freund sagte, dafür sei keine Zeit gewesen. Die Versicherung des Hintermanns wollte Tesla in Regress nehmen. Am Ende zahlten alle ein bisschen. „Das Verrückte ist", meinte unser Freund, „ich weiß bis heute nicht, warum das Auto gebremst hat. Die Diagnose ergab keinen Fehler." Solche Fälle häufen sich. Die Rechtsprechung hinkt der Technologie hinterher (Einzelfall, rechtliche Bewertung kann abweichen).

Ein augenöffnendes Gespräch hatten wir mit einer Ärztin aus unserem Bekanntenkreis. In ihrer Klinik wird KI für Diagnosen eingesetzt. „Die Software ist fantastisch", schwärmte sie, „sie erkennt Tumore, die wir Menschen übersehen würden." Aber wer haftet bei Fehldiagnosen? Sie zuckte mit den Schultern: „Offiziell treffe ich die Entscheidung, die KI gibt nur Empfehlungen. Aber ehrlich gesagt, wenn die KI zu 98% sicher ist, wer bin ich, das anzuzweifeln?" Das Dilemma: Ärzte haften für ihre Entscheidungen, auch wenn sie auf KI-Empfehlungen basieren. Gleichzeitig könnte es fahrlässig sein, eindeutige KI-Hinweise zu ignorieren. Die Bundesärztekammer arbeitet an Leitlinien, aber verbindliche Regeln fehlen (Stand: 2025, Entwicklung im Fluss).

Die Umweltaspekte autonomer Systeme werden oft unterschätzt. Der NABU hat berechnet, dass allein die Mähroboter in Deutschland jährlich etwa 100.000 Igel verletzen oder töten – trotz angeblicher Tierschutzsensoren. Wer haftet für diesen ökologischen Schaden? Niemand, solange keine geschützte Art betroffen ist. Der BUND fordert strengere Auflagen und eine Haftung der Hersteller für Umweltschäden. Interessant: In der Schweiz gibt es bereits Nachtfahrverbote für Mähroboter zum Schutz der Igel (Stand: Oktober 2025, Quellen: nabu.de und bund-naturschutz.de).

Nach Monaten der Recherche haben wir ein Muster erkannt: Je autonomer das System, desto unklarer die Haftung. Bei einem simplen Staubsaugerroboter ist die Sache noch relativ klar – der Betreiber haftet für Schäden. Aber bei selbstlernenden Systemen, die sich durch Updates verändern, wird es kompliziert. Ein Anwalt erklärte uns: „Wir brauchen eine neue Haftungskategorie. So wie wir Gefährdungshaftung für gefährliche Dinge haben, brauchen wir eine ‚Algorithmushaftung' für autonome Systeme." Einige Länder experimentieren bereits damit. Estland hat einen digitalen Personalausweis für Roboter eingeführt, komplett mit Haftpflichtversicherung (Stand: 2025, internationale Entwicklungen).

Besonders nachdenklich machte uns der Fall eines Logistikunternehmens, das seine Lagerverwaltung komplett einer KI übertragen hatte. Das System optimierte selbstständig Routen, Bestellungen und Personalplanung. Alles lief perfekt – bis die KI beschloss, verderbliche Ware zurückzuhalten, um Transportkosten zu sparen. Schaden: 200.000 Euro. Die Geschäftsführung argumentierte, sie hätte der KI vertraut, die bisher immer richtig lag. Das Gericht sah das anders: Wer Entscheidungen an Maschinen delegiert, bleibt trotzdem verantwortlich. Die Geschäftsführer hafteten persönlich (Anonymisierter Fall, Stand: 2025).

Die gesellschaftliche Dimension wird oft unterschätzt. Was bedeutet es für unser Rechtssystem, wenn immer mehr Entscheidungen von Maschinen getroffen werden? Ein Richter, den wir trafen, meinte nachdenklich: „Unser Recht basiert auf menschlicher Verantwortung und Schuld. Wenn niemand mehr ‚schuld' ist, weil eine Maschine entschieden hat, kollabiert dieses System." Einige Juristen fordern deshalb eine Pflichtversicherung für alle autonomen Systeme, ähnlich der KFZ-Haftpflicht. Die EU-Kommission prüft diesen Vorschlag im Rahmen des AI Acts (Stand: Oktober 2025, Quelle: europa.eu).

Ein Hoffnungsschimmer kam von der Stiftung Warentest, die einen Kriterienkatalog für „sichere autonome Systeme" entwickelt hat. Produkte werden nach Transparenz, Kontrollierbarkeit und Haftungsklarheit bewertet. Mein Schwager hätte sich viel Ärger erspart, hätte er vorher diesen Test gelesen. Sein Roboter schnitt nämlich nur mit „ausreichend" ab – hauptsächlich wegen unklarer Haftungsregelungen und intransparenter KI-Entscheidungen (Stand: Oktober 2025, Quelle: test.de).

Was uns besonders überrascht hat: Viele Menschen wissen gar nicht, dass sie bereits autonome Systeme nutzen. Der Spam-Filter im E-Mail-Programm? Autonom. Die Heizungssteuerung, die das Wetter vorhersagt? Autonom. Der Aktienfonds, der selbstständig handelt? Hochgradig autonom. Jedes dieser Systeme kann Schäden verursachen – vom verpassten Geschäftsmail bis zum Börsencrash. Die meisten Nutzer sind sich der Risiken nicht bewusst. Eine Nachbarin erfuhr erst durch uns, dass ihr „smarter" Backofen selbstständig Firmware-Updates durchführt und theoretisch Brandgefahr bergen könnte, wenn ein Update fehlerhaft ist.

Die internationale Perspektive macht es noch komplexer. Viele autonome Systeme werden in Asien entwickelt, in den USA trainiert und in Europa eingesetzt. Welches Recht gilt? Ein IT-Unternehmer aus unserem Viertel hatte einen interessanten Fall: Seine Firma nutzt eine chinesische KI für Qualitätskontrolle. Als die KI fehlerhafte Produkte durchließ, wollte er Schadenersatz. Das Problem: Nach chinesischem Recht haftet er selbst als Nutzer, nach deutschem Recht möglicherweise der Hersteller. Der Fall ist noch vor Gericht (Stand: 2025, grenzüberschreitende Haftung ungeklärt).

Neulich beim Elternabend kam das Thema wieder auf. Die Schule überlegt, KI-Tutoren einzusetzen – Programme, die Kindern beim Lernen helfen. „Was ist, wenn die KI einem Kind etwas Falsches beibringt?", fragte eine besorgte Mutter. Die Direktorin hatte keine Antwort. Tatsächlich ist die Haftung bei Bildungs-KI besonders heikel. Wer verantwortet Bildungslücken? Der Softwarehersteller? Die Schule? Die Lehrer, die die KI einsetzen? Das Kultusministerium arbeitet an Richtlinien, aber bis dahin herrscht Unsicherheit (Stand: 2025, Bildungsbereich im Umbruch).

Ein oft übersehener Aspekt ist die psychologische Komponente. Menschen neigen dazu, Maschinen zu vertrauen – besonders wenn sie meist richtig liegen. Mein Schwager gab zu: „Ich hab den Roboter einfach machen lassen. Er hat ja immer perfekt gemäht." Dieses Übervertrauen kann gefährlich werden. Experten sprechen von „Automation Bias" – der Tendenz, maschinelle Entscheidungen nicht zu hinterfragen. Das BSI warnt: Autonome Systeme erfordern mehr, nicht weniger Aufmerksamkeit (Stand: Oktober 2025, Quelle: bsi.bund.de, Studien zur Mensch-Maschine-Interaktion).

Die Zukunft sieht noch komplexer aus. Quantencomputer werden KI-Systeme noch unvorhersehbarer machen. Schwarmroboter, die gemeinsam Entscheidungen treffen. Hybride Systeme, bei denen nicht mehr klar ist, wo der Mensch aufhört und die Maschine anfängt. Ein Zukunftsforscher, den wir trafen, prognostizierte: „In zehn Jahren werden wir eine komplett neue Rechtsordnung brauchen. Eine, die Maschinen als Quasi-Rechtssubjekte anerkennt." Ob das wünschenswert ist, steht auf einem anderen Blatt (Prognosen sind naturgemäß unsicher).

Schäden durch autonome Systeme dokumentieren – 6 wichtige Schritte

  1. Sofort Beweise sichern – Videos/Fotos vom Schaden und vom Systemzustand machen
  2. Systemprotokolle exportieren – Log-Dateien und Einstellungen vor Änderungen speichern
  3. Software-Version notieren – Genaue Versions- und Update-Historie dokumentieren
  4. Zeugen benennen – Namen und Kontaktdaten von Personen notieren, die den Vorfall beobachtet haben
  5. Hersteller informieren – Schriftliche Meldung mit Fristsetzung an Hersteller und Händler
  6. Versicherung einschalten – Haftpflicht und ggf. Rechtsschutz sofort informieren

Muster-Schadensanzeige bei autonomen Systemen

Sehr geehrte Damen und Herren, am [Datum] verursachte das autonome System [Bezeichnung, Seriennummer] einen Schaden in Höhe von [Betrag]. Das System handelte selbstständig ohne menschlichen Eingriff [genaue Beschreibung]. Ich fordere Schadenersatz und Klärung der Haftungsfrage bis zum [Datum + 14 Tage]. Mit freundlichen Grüßen, [Name]

Am Ende bleibt die Erkenntnis: Autonome Systeme sind gekommen, um zu bleiben. Mein Schwager hat seinen Mähroboter übrigens behalten – aber mit neuen Regeln. Feste Mähzeiten, manuelle Updates, regelmäßige Kontrollen. Und eine aufgestockte Haftpflichtversicherung. Die Katze des Nachbarn hat sich erholt, die Nachbarschaft auch. Aber die Fragen bleiben: Wie viel Autonomie wollen wir Maschinen zugestehen? Und sind wir bereit, die Verantwortung dafür zu tragen?

Der Küchentisch ist zum Forum für diese Diskussionen geworden. Freunde und Familie kommen mit immer neuen Geschichten über autonome Systeme. Der Onkel, dessen Trading-Bot an der Börse Verluste einfuhr. Die Cousine, deren Smart-Home-System die Haustür für Fremde öffnete. Jeder Fall wirft neue Fragen auf. Was wir gelernt haben: Information ist der beste Schutz. Wer versteht, wie autonome Systeme funktionieren und wo die Risiken liegen, kann bessere Entscheidungen treffen. Und im Zweifel gilt: Lieber einmal zu vorsichtig als einmal zu sorglos.

Häufig gestellte Fragen

Viele Leser:innen haben uns gefragt: Wer haftet konkret, wenn mein autonomes Auto einen Unfall verursacht? Die Haftung ist mehrstufig und hängt vom konkreten Fall ab. Grundsätzlich haftet zunächst der Halter über die KFZ-Haftpflichtversicherung – unabhängig vom Verschulden. Diese kann dann eventuell Regress beim Hersteller nehmen, wenn ein Produktfehler vorlag. Bei aktiviertem Autopilot bleibt der Fahrer in der Überwachungspflicht und kann bei Verletzung dieser Pflicht haftbar sein. Ab 2026 soll die neue EU-Regelung mehr Klarheit bringen, die eine verschuldensunabhängige Haftung des Herstellers bei vollautonomen Systemen (Level 5) vorsieht. Bis dahin gilt: Dokumentieren Sie jeden Vorfall genau und informieren Sie sofort Ihre Versicherung (Stand: Oktober 2025, Quelle: Europäisches Parlament, Vehicle Liability Directive – Regelungen in Entwicklung).

Eine andere häufige Nachfrage betrifft die Versicherung: Brauche ich eine spezielle Police für autonome Systeme? Die meisten Standard-Haftpflichtversicherungen decken einfache Roboter wie Saugroboter ab, aber bei komplexeren autonomen Systemen wird es kritisch. Prüfen Sie Ihre Police auf Ausschlüsse bei „selbstlernenden Systemen" oder „KI-gesteuerten Geräten". Viele Versicherer bieten mittlerweile Zusatzbausteine für 20-50 Euro jährlich an. Bei gewerblicher Nutzung ist oft eine separate Betriebshaftpflicht mit KI-Klausel nötig. Der GDV empfiehlt, alle autonomen Systeme im Haushalt zu listen und mit der Versicherung abzuklären (Stand: Oktober 2025, Quelle: gdv.de – Konditionen variieren stark zwischen Anbietern).

Besonders oft wurde nach der Beweislast gefragt: Wie beweise ich, dass das autonome System schuld war? Das ist tatsächlich die Krux. Bei normalen Produkten müssen Sie nur den Schaden und den Fehler nachweisen. Bei autonomen Systemen müssen Sie oft auch beweisen, dass die KI-Entscheidung fehlerhaft war – was bei einer Blackbox fast unmöglich ist. Die geplante AI Liability Directive soll hier Abhilfe schaffen durch Beweislastumkehr: Der Hersteller muss dann beweisen, dass sein System korrekt funktioniert hat. Bis dahin: Sichern Sie alle Daten sofort nach einem Vorfall. Viele Systeme überschreiben Logs nach 24-72 Stunden. Screenshots, Exports, Videos – alles kann wichtig werden (Stand: Oktober 2025, Quelle: Europäische Kommission – neue Regelung voraussichtlich ab 2026).