Doch dem Voranschreiten von KI in der Versicherung sind Grenzen gesetzt: durch das Datenschutzrecht, die strenge Regulierung des Versicherungswesens, für die in Deutschland die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) zuständig ist, sowie durch die Rechtsprechung. Und nicht zuletzt wollen die Verbraucher wissen, was mit den Daten geschieht, die von ihnen von ihrem Versicherer, aber beispielsweise auch in ihrem modernen Auto erhoben werden, und wann in ihrem konkreten Versicherungsfall von einem Algorithmus entschieden wird.

Digitale Assistenten gehören in vielen Bereichen inzwischen zu unserem Alltag, sei es im Auto, zu Hause in Form eines Sprachassistenten oder am Handgelenk als Fitness-Armband. Sie alle registrieren persönliche Daten, die es zum Beispiel „Alexa“ ermöglicht, Vorschläge bei bestimmten Entscheidungen zu unterbreiten, oder den Bordcomputer im Auto in die Lage versetzen, sicherheitsrelevante Hinweise zu geben. Doch bei aller gern angenommenen Unterstützung und zum Teil unreflektierten Bereitschaft zur Weitergabe persönlicher Daten, nehmen viele Verbraucher automatisierte Entscheidungen über sich hingegen als Gefahr wahr, insbesondere wenn die Prinzipien dabei unklar sind. Das machte jüngst eine Befragung im Auftrag des Verbraucherzentrale Bundesverbandes (vzbv) exemplarisch deutlich, in der 75 Prozent der Befragten ihre Besorgnis über solche „Blackbox-Algorithmen“ äußerten. Darin gaben zudem 77 Prozent der Teilnehmer an, dass der Staat prüfen können soll, ob automatisierte Entscheidungen geltendem Recht entsprechen. Deshalb dürfen aus Sicht der Verbraucherschützer Entscheidungsprozesse auf Basis von KI oder Algorithmen (Algorithmic Decision Making bzw. ADM-Prozesse) nicht in einer sogenannten „Blackbox“ stattfinden, sprich intransparent für den Versicherungskunden.

Vor diesem Hintergrund fordert der vzbv Regeln für den Einsatz von Algorithmen und KI in Form von Auskunftsrechten, Kennzeichnungs- und Publikationspflichten. Demnach muss der Verbraucher das Recht haben, zu erfahren, ob ein Algorithmus über ihn entscheidet oder ob dieser bei der Vorbereitung einer Entscheidung eine bedeutende Rolle spielt. Außerdem soll jeder, der ADM-Prozesse geschäftlich einsetzt, um wichtige Entscheidungen über Verbraucher vorzubereiten oder zu treffen, verpflichtet werden, „deren Entscheidungslogik zu erläutern und Verbrauchern die betreffende Datengrundlage transparent zu machen“. Zudem soll eine Kennzeichnungspflicht deutlich machen, ob der Kunde beim Kontakt mit seinem Versicherer mit einem Menschen oder einer Maschine interagiert. Darüber hinaus plädieren die Verbraucherschützer für ein staatlich legitimiertes Kontrollsystem, das die Möglichkeit erhalten soll, Einblick in relevante ADM-Prozesse zu nehmen, um sicherzustellen, dass das Diskriminierungsverbot sowie das Lauterkeits- und Datenschutzrecht eingehalten und richtig angewendet werden.

Wie verunsichert die Mehrzahl der Verbraucher angesichts des zunehmenden Einsatzes von KI und ADM-Prozessen ist, wird daran deutlich, dass in der vzbv-Befragung lediglich 18 Prozent angaben, mehr Chancen als Risiken zu sehen, wenn Entscheidungen auf der Grundlage von Algorithmen getroffen werden. Vor diesem Hintergrund warnen Fachleute denn auch davor, dass der Vormarsch und der Erfolg von KI in der Versicherungsbranche wesentlich davon abhängen wird, ob es gelingt, die Ergebnisse von KI-Entscheidungsprozessen so aufzubereiten, dass Kunden in der Lage sind, sie nachzuvollziehen und zu überprüfen. Dies bedeutet, dass der Einsatz von KI nicht nur regulatorischen Anforderungen und dem Datenschutzrecht entsprechen, sondern auch für den Verbraucher transparent gestaltet werden muss. Dazu gehört letztlich ebenfalls, zu vermeiden, dass beim Kunden der Eindruck entsteht, seine persönlichen Belange und möglichen Probleme im Versicherungsfall würden Robotern anvertraut, die ohne jegliche Empathie und ohne Kulanz streng nach den Buchstaben des Versicherungs-Kleingedruckten entscheiden.

Gefordert ist stattdessen eine „Explainable Artificial Intelligence“, wie es die Experten nennen – zu Deutsch eine „Erklärbare Künstliche Intelligenz“. Wenn sie Entscheidungen in der „Blackbox“ verhindert, dürfte das wesentlich dazu beitragen, KI und ADM-Prozessen den Weg in der Versicherungsbranche zu ebnen.

Links

Alle Recherche-Tipps

Den Recherche-Tipp jeden Mittwoch als E-Mail

Hinweise zum Datenschutz: Bei der Anmeldung werden verschiedene personenbezogene Daten erhoben. Personenbezogene Daten sind Daten, mit denen Sie persönlich identifiziert werden können. Die Datenschutzerklärung erläutert, welche Daten wir erheben und wofür wir sie nutzen. Sie erläutert auch, wie und zu welchem Zweck das geschieht. Die Austragung aus unseren Verteilern ist jederzeit mit einer formlosen E-Mail an info@goslar-institut.de möglich.