Sollen Roboter haften?

Im Zuge der Entwicklung zur Industrie 4.0 erreicht die umfassende Digitalisierung sämtliche Branchen und stellt diese nicht nur vor neue Möglichkeiten, sondern auch Herausforderungen. Zudem wird die Automatisierung von verschiedensten Prozessen die Arbeitswelt vollkommen verändern. Auch produktbezogene Faktoren, wie die Qualität und Effizienz von Fertigungs- und Instandhaltungsprozessen bergen Optimierungspotential, welches beispielsweise zukünftig durch das sog. Predictive Maintenance autonom genutzt werden kann.

Mit den Vorteilen dieses tiefgreifenden Wandels geht allerdings auch das Erfordernis der Veränderung zahlreicher Verantwortungsbereiche sowie das Überdenken der Grundlagen unserer Vorstellung von Haftung für Schäden einher. Der einzelne Mitarbeiter sieht sich nicht mehr nur mit der Durchführung eines einzelnen Fertigungsschrittes konfrontiert, sondern hat vielmehr oft umfassende und vielschichtige Strukturen aufzusetzen und zu überwachen.

Insbesondere steigen die Anforderungen an die IT-Sicherheit der Unternehmen. Diesen wird in zahlreichen Fällen nicht genügt, obwohl dies bereits durch Standardmaßnahmen realisierbar wäre. Der Gesetzgeber hat auf diese Situation mit der Einführung eines Mindestniveaus reagiert, dessen Unterschreitung bußgeldbewährt sein wird. Die KRITIS-Verordnung wird für die betroffenen Betriebe, die eine kritische Infrastruktur in Deutschland darstellen, zukünftig bindende Vorgaben zur IT-Sicherheit formulieren.

Obgleich Sicherheitsrisiken nicht selten durch Mitarbeiter im ausführenden Bereich verursacht werden, liegt die Verantwortung zur Vorbeugung und die Haftung beim Eintritt von Rechtsgutsverletzungen im Endeffekt nach wie vor bei der Führungsetage eines Unternehmens. Im Sinne des Konzepts des „tone-from-the-top“ liegt es an dieser, die Einhaltung von Sicherheitsrichtlinien sowie einen verantwortungsvollen Umgang mit sensiblen Daten vorzuleben. Grundsätzlich soll der Gedanke des „Security by Design“ Betriebe bereits während der Entwicklung eines Prozesses oder Produktes dazu führen, den Fokus auf deren IT-Sicherheit zu legen und so späteren Sicherheitslücken vorbeugen.

Problematisch aber jedoch gleichermaßen herausfordernd wird sich aber die Frage nach der Haftung im Falle autonomer Systeme, denen es an einem durch vorwerfbares Verhalten haftenden Menschen fehlt, gestalten. Weder Mitarbeiter noch Geschäftsführung können hier vorab eingreifen und daher kaum zur Verantwortung gezogen werden. Auch der bis dato propagierte Rückgriff auf den fehlerhaft arbeitenden Programmierer der Software wird bei dem wachsenden Maß an Autonomie und Komplexität der Prozesse zunehmend schwierig.

Spätestens im Falle eines Fehlers eines vollkommen autonom arbeitenden Roboters, der im Rahmen seiner künstlichen Intelligenz eigene neue Prozesse erschafft, finden diese Ansätze ihre Grenze. Kann unsere Sichtweise von haftungsbegründender und haftungsausfüllender Kausalität in diesen Fällen noch greifen? Wie weit sollen diese reichen? Eine Überdehnung dieser Grundsätze würde auch Rückwirkungen auf die Betrachtung „normaler“ Haftungsfälle befürchten lassen und das Regulativ der Adäquanztheorie ad absurdum führen.

Folglich werden zukünftig neue Grundsätze der Haftung im konkreten Fall autonom schadensbegründener Technologien geschaffen werden müssen.

Literatur: Dirksen, Hans Hermann, „Können Roboter haften?“, Cleanroom Magazine, 01/2017, S.44-47.