BaFin - Navigation & Service

Bild von Exekutivdirektorin Versicherungsaufsicht, Julia Wiens BaFin/Matthias Sandmann

Erscheinung:06.03.2025 KI in der Versicherungsbranche: „Die Verantwortung liegt bei den Unternehmen“

Rede von Exekutivdirektorin Julia Wiens beim Vorlesungstag des Instituts für Versicherungswissenschaften e. V. an der Universität Leipzig, 06. März 2025

Es gilt das gesprochene Wort!

Sie alle beschäftigen sich mit Künstlicher Intelligenz. Zumindest mehr oder weniger. Und auch mit den Chancen und Risiken dieser Technologie.

Als Aufseherin habe ich ja vor allem die Risiken im Blick. Aber bei der Vorbereitung dieser Rede dachte ich mir, ich nutze mal die Chancen und mache es mir ganz einfach: Ich lasse mir diese Rede von einem Chatbot schreiben. Dazu ein kleiner Disclaimer: Natürlich auf einem Privatgerät. Und natürlich ohne Nutzung konkreter dienstlicher Informationen. Und das ist das Ergebnis:

Sehr geehrter Herr Professor Wagner,
sehr geehrte Damen und Herren,

„es ist mir eine große Ehre, heute vor Ihnen zu stehen und über ein Thema zu sprechen, das unsere Branche grundlegend verändert: Künstliche Intelligenz.“ Ich weiß nicht, wie es Ihnen geht – ich finde diesen Einstieg ziemlich hölzern. Mehr davon möchte ich Ihnen nicht zumuten. Also werde ich Ihnen heute keine KI-generierte Rede vortragen.

Mein kleiner, oberflächlicher Versuch hat mir aber wieder einmal gezeigt: einfach übernehmen darf man Inhalte generativer KI nicht. Aber wirklich schlecht war das Ergebnis auch nicht. Und genau darin liegt ja die Crux dieser Systeme. Sie bieten großartige Möglichkeiten. Man muss sich jedoch der Risiken bewusst sein, die man in Kauf nimmt, wenn man sie nutzt. Das gilt natürlich erst recht für die Unternehmen der Versicherungsbranche.

Doch lassen Sie uns erstmal kurz innehalten: Was verstehen wir eigentlich unter KI? Diese Frage ist wirklich nicht einfach zu beantworten. Bei Wikipedia lesen wir: „Künstliche Intelligenz ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen befasst.“ Aber schon im nächsten Satz heißt es auch hier: „Der Begriff ist schwierig zu definieren (…)“. Nach der KI-Verordnung der Europäischen Union ist ein KI-System „ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann (…).“ Auch das ist eine recht weitreichende Definition.

Sie sehen: Künstliche Intelligenz ist ein eher unscharfer Begriff. Er beschreibt eine Vielzahl an mathematischen Methoden und fortgeschrittener statistischer Verfahren. Auch wir als BaFin haben keine allgemeingültige Definition von KI. Stattdessen schauen wir vor allem auf die Risiken und die Veränderungen, die KI mit sich bringt. Es gibt zum Beispiel Eigenschaften, die in KI-Methoden stärker zutage treten als in klassischen mathematischen Modellen. Nehmen wir beispielweise die Daten, auf deren Basis Berechnungen durchgeführt werden. Klassische Modelle benötigen eher strukturierte Daten. KI kann dagegen auch mit unstrukturierten Daten in verschiedenen Formaten umgehen. Zudem kann KI eine viel größere Menge an Daten verarbeiten als klassische Methoden. Darüber hinaus gehen mit KI neue Fragestellungen einher. Beispielsweise hinsichtlich der Erklärbarkeit der Ergebnisse. Gerade die Frage der Erklärbarkeit wird durch die Dynamik selbstlernender Systeme noch einmal verstärkt.

In der Praxis beobachten wir sehr unterschiedliche Ansätze von Künstlicher Intelligenz. Nur mal kurz einige Beispiele: Wir sehen etwa Methoden maschinellen Lernens, die auf fortgeschrittenen statistischen Algorithmen beruhen. Das Deep Learning, eine besondere Form des maschinellen Lernens, kommt zum Einsatz. Es ermöglicht, komplexe Datenmuster zu analysieren und Anomalien zu erkennen. Und auch die generative KI, die Inhalte erkennen, zusammenfassen, übersetzen und generieren kann, sehen wir in der Unternehmenspraxis.

Künstliche Intelligenz ist ja per se nichts Neues. Der Begriff Artificial Intelligence wurde zum ersten Mal für ein wissenschaftliches Seminar am US-amerikanischen Dartmouth College 1956 genutzt. Damals, vor 69 Jahren, traf sich eine Gruppe von Forschern zum Dartmouth Summer Research Project on Artificial Intelligence. Die Idee, menschliches Denken zu automatisieren oder zu mechanisieren, ist sogar noch viel älter. Solche Ansätze finden sich bereits in der Literatur des 18. Jahrhunderts. Und auch in der Pop-Kultur des 20. Jahrhunderts finden wir viele intelligente, Menschen-ähnliche Geräte und Apparate. Erinnern Sie sich noch an C-3PO aus Star Wars?

Die Grundsteine der heutigen KI wurde natürlich nicht im Kino gelegt, sondern in der Mathematik. Viele der Methoden, auf denen die heutigen KI-Systeme beruhen, sind seit Jahrzehnten bekannt. Sie haben erst in den vergangenen Jahren durch rasche Fortschritte in der Computertechnik an Bedeutung gewonnen. Nehmen Sie die Spracherkennung auf Ihrem Mobiltelefon. Sie wurde erst durch die Verbreitung leistungsstarker und effizienter Prozessoren in den Geräten möglich. Ein anderes Beispiel ist die automatische Bildbearbeitung auf dem Mobiltelefon.

Heute spielen bahnbrechende Technologien wie Künstliche Intelligenz eine extrem wichtige Rolle. Für unsere wirtschaftliche Zukunft. Und sogar für die geopolitischen Machtverhältnisse. Dass Technologie die Verteilung politischer Macht erheblich beeinflussen kann, das ist nichts Neues. Und das gilt natürlich auch für KI. Wir sehen ja gerade so etwas wie ein globales Wettrennen um die Vorherrschaft in puncto Künstliche Intelligenz. Vor einigen Wochen haben die Vereinigten Staaten das Stargate-Programm angekündigt. Sie erinnern sich sicherlich: US-amerikanische Tech-Firmen planen, rund 500 Milliarden US-Dollar in den Aufbau einer KI-Infrastruktur zu investieren. Auf dem Pariser KI-Gipfel gab auch die EU-Kommission zusätzliche Investitionen bekannt. Zudem sorgte der neue chinesische Chatbot Deepseek für Furore, weil er angeblich mit relativ wenig finanziellen Mitteln entwickelt wurde – was die Bedeutung möglichst großer Ressourcen im globalen Wettbewerb ein Stück weit relativieren würde.

Klar ist auf jeden Fall: Künstliche Intelligenz beeinflusst und prägt unseren Alltag auf vielfältige Art und Weise. Immer mehr Unternehmen nutzen KI-Systeme. Nach Angaben des Statistischen Bundesamts mittlerweile jedes fünfte Unternehmen mit mindestens zehn Beschäftigten. Auch unter den Versicherern sehen wir eine immer intensivere Nutzung.

Gleichzeitig gilt aber auch: Wir alle lernen zurzeit noch sehr, sehr viel über die Möglichkeiten und die Grenzen des Einsatzes von KI. Wir diskutieren mit der Industrie, der Wissenschaft und vielen anderen Partnerinnen und Partnern über Künstliche Intelligenz. Darüber, was damit schon heute geht. Welche Anwendungen künftig sinnvoll erscheinen. Und welche Regeln und Grenzen es geben muss. Auch als Aufsicht haben wir auf einige Fragen noch keine abschließenden Antworten. Sollten Sie diese heute erwartet haben, muss ich Sie leider enttäuschen.

Ich gehe heute auf die relevantesten Fragen ein, die sich uns stellen:

  • Wie nutzen die Unternehmen Künstliche Intelligenz?
  • Welche Risiken sehen wir, wenn Versicherer KI nutzen?
  • Was bedeuten die Risiken, die mit KI einhergehen, aus Perspektive der Aufsicht?
  • Und welche Technologie müssen wir – neben KI – ebenfalls auf der Agenda haben?

Beginnen wir mit der ersten Frage: Wie nutzen die Unternehmen KI-Systeme? Aus unseren Gesprächen wissen wir, dass die Unternehmen KI-Anwendungen entlang der gesamten Wertschöpfungskette nutzen möchten. Sie sehen darin viele Vorteile. Sie erhoffen sich, Prozesse effizienter zu gestalten, die Kundenzufriedenheit zu steigern und mehr Umsatz zu erwirtschaften.

So klar, so theoretisch. Schauen wir doch mal in die Praxis. Da sehen wir unterschiedliche Use Cases für KI. In den vergangenen Monaten haben wir uns in einigen Unternehmen KI-Anwendungen einmal genauer angesehen. Und wir haben intensiv mit den Beschäftigten der Unternehmen gesprochen, die für diese Systeme verantwortlich sind. Weil wir natürlich auch als Aufsicht lernen müssen, was es heißt, wenn KI in den Unternehmen eine immer wichtigere Rolle einnimmt.

Also, werfen wir einen ersten Blick in den Maschinenraum. Starten wir mit einem Beispiel aus der Krankenversicherung. In diesem Fall ging es um die Klassifikation von Eingangsschriftgut. Sie können sich sicherlich vorstellen: Bei einem Krankenversicherer geht pro Tag einiges an Schriftgut ein. Im konkreten Fall zigtausend Dokumente. Arztrechnungen, Rezepte oder auch Änderungen der Stammdaten von Versicherten. Für eine schnelle Bearbeitung der Kundenanliegen ist es daher wichtig, dass die Daten dieser Dokumente schnell dem richtigen Folgesystem zugeordnet werden. Dafür müssen sie richtig klassifiziert werden. Mit Hilfe von KI konnte dieser Krankenversicherer die Automatisierung der Klassifikation über fast alle Dokumentenarten steigern.

Bei einem weiteren Use Case ging es um die Verbesserung der Dunkelverarbeitung von Leistungsanträgen. Also der automatisierten Bearbeitung dieser Anträge ohne menschliches Zutun. Vor dem Einsatz von KI war es so: Ein Regelwerk entschied anhand bestimmter Kriterien, ob beispielsweise eine Rechnung direkt in die Dunkelverarbeitung geht oder zunächst einer Sachbearbeiterin bzw. einem Sachbearbeiter vorgelegt wird. Das starre Regelwerk steuerte tausende Rechnungen zur Nachverfolgung aus. Dabei war nur ein Bruchteil davon wirklich weiter zu prüfen. Der manuelle Aufwand war weiterhin sehr hoch. Durch die Kombination von Methoden des maschinellen Lernens und einer neuen KI-Anwendung konnte das Unternehmen die Dunkelverarbeitung bestimmter Rechnungsarten deutlich ausbauen. Und damit den manuellen Aufwand entsprechend reduzieren.

Ein weiterer Anwendungsfall greift auf generative KI zu. Hier ging es um eine cloudbasierte Entwicklungsplattform für Erst- und Rückversicherungsprodukte. Underwriter können die Plattform nutzen, um digitale Antragsstrecken zu erstellen und Produktmerkmale zu konfigurieren. Grundlage sind gleich mehrere GPT-Modelle. Grob vereinfacht funktioniert das zum Beispiel so: Das GPT-Modell baut eigenständig ein Produkt mit bestimmten Merkmalen zusammen, wenn der Produktdesigner einen geeigneten Prompt eingibt. Es kann auch einen Code generieren, den die Nutzerin oder der Nutzer in das Produktdesign einfügen kann. Das bedeutet ein Plus an Effizienz.

Sie sehen: Unternehmen nutzen KI an ganz unterschiedlichen Stellen der Wertschöpfungskette. Vielfach testen sie den Einsatz auch noch. Und das ist ja auch verständlich. Das machen wir als Finanzaufsicht nicht anders. Denn natürlich kann Künstliche Intelligenz auch unsere Arbeit erleichtern, verbessern und beschleunigen. Unsere Kolleginnen und Kollegen in der Wertpapieraufsicht nutzen zum Beispiel bereits seit mehreren Jahren KI-Technologien, um Marktmanipulationen zu erkennen. Als Aufsichtsbehörde erhalten wir naturgemäß sehr viele Berichte von den beaufsichtigten Unternehmen. KI hat für uns daher großes Potenzial in der Analyse von Dokumenten und Texten. So könnten wir effizienter arbeiten und zudem noch neue analytische Einblicke erhalten. Daher haben wir bereits vor einigen Jahren damit begonnen, beispielsweise Risikoberichte mittels KI auszuwerten. Und natürlich sehen wir auch viele Einsatzmöglichkeiten für große und kleine Sprachmodelle. Wir haben daher unsere KI-Plattform zur Nutzung generativer KI erweitert. Da unsere Mitarbeiterinnen und Mitarbeiter mit vielen vertraulichen Daten umgehen müssen, nutzen wir keine Open-Cloud-Technologien, sondern eine private Cloud-Plattform „on premise“.

Ich denke, es ist klar: Künstliche Intelligenz bietet sehr viele Möglichkeiten. Aber sie geht eben auch mit Risiken einher. Und damit sind wir bei der zweiten Frage angelangt: Welche Risiken sehen wir als Aufsicht, wenn Unternehmen Künstliche Intelligenz nutzen?

Wenn Maschinen Entscheidungen treffen, folgen sie scheinbar einer neutralen Logik. Aber eben nur scheinbar. Stattdessen gilt: Hochgradig automatisierte Entscheidungsprozesse mit geringer menschlicher Überwachung können bestehende Diskriminierungsrisiken verstärken. Sie können für einige Menschen den Zugang zu Finanzprodukten und -dienstleistungen erschweren. Oder gar unmöglich machen. Und zwar ohne, dass dies gerechtfertigt wäre.

Solche Diskriminierung müssen Finanzdienstleister vermeiden. Eine ganz wichtige Rolle spielen hier zum Beispiel die Datensätze, die Unternehmen für das Training ihrer Systeme nutzen. Wenn diese Datensätze etwa bestimmte Kundengruppen nicht enthalten, kann das ungewollt zu Diskriminierung führen. Wenn ein System über die betroffenen Kundengruppen nicht genug „gelernt“ hat, muss es Bewertungen ohne entsprechende empirische Basis vornehmen. Dann kann es zu ungerechtfertigter Diskriminierung kommen. Wenn dann noch generative KI zum Einsatz kommt, kann sich dieses Problem weiter verstärken. Denn die Unternehmen beziehen Large Language Models ja in der Regel von Drittanbietern. Die Konsequenz ist: Sie kennen weder die Trainingsdaten, noch die genaue Funktionsweise des Modells.

Bei generativer Künstlicher Intelligenz besteht darüber hinaus das Risiko, dass die Modelle halluzinieren. Dass sie also Falschinformationen herausgeben, die fachfremde Nutzerinnen und Nutzer für wahr halten. Und weil Versicherer diese Modelle aufgrund ihrer Komplexität häufig nur noch von externen Anbietern beziehen, entstehen Abhängigkeiten. Und gegebenenfalls auch Know-how-Defizite.

Das bringt mich zu meiner dritten Frage. Was bedeuten diese Risiken aus Perspektive der Aufsicht? Grundsätzlich gelten für Künstliche Intelligenz die gleichen Regeln wie für alle anderen IT-Systeme und -Anwendungen auch. Zudem ist die Finanzmarktregulierung unabhängig von dem Einsatz von Technologie.

Nur ein Aspekt kommt hier noch hinzu: die europäische KI-Verordnung oder der AI Act. Sie ist im August 2024 in Kraft getreten. Ziel der Verordnung ist es, die verantwortungsvolle Entwicklung und Verwendung von Künstlicher Intelligenz in der EU zu fördern. Sie soll insbesondere die potenziellen Risiken von KI für die Gesundheit, die Sicherheit und die Grundrechte der Bürgerinnen und Bürger adressieren. Die KI-Verordnung ist ein sogenannter horizontaler Rechtsakt. Das heißt sie ist nicht sektorspezifisch. Sie verfolgt einen risikoorientierten Ansatz. Demnach gibt es etwa KI-Systeme mit geringem Risiko. Hier sind die Nutzerinnen und Nutzer beispielsweise darüber zu informieren, dass sie es mit einer Maschine zu tun haben.

Am anderen Ende der Risiko-Skala stehen zum Beispiel Anwendungen, von denen eine klare Bedrohung der Grundrechte ausgehen würde. Sie sind verboten. Denken Sie zum Beispiel an ein Social-Scoring-System, das das Verhalten von Menschen bewertet. So etwas geht in der EU nicht. Und dann sind da noch die Hochrisiko-KI-Systeme. Hochrisiko-KI bedeutet, dass diese Systeme mit klaren Risiken für die Gesundheit, die Sicherheit oder die Grundrechte der Europäerinnen und Europäer einhergehen. Ihr Nutzen überwiegt aber diese Risiken. Solche Hochrisiko-KI-Systeme sieht die EU auch im Versicherungssektor. Nämlich KI-Systeme, die für die Risikobewertung und Preisbildung für Lebens- und Krankenversicherungen verwendet werden sollen. An diese Hochrisiko-KI-Systeme stellt die KI-Verordnung umfangreiche Pflichten.

Wir arbeiten zurzeit in einer Arbeitsgruppe der EIOPA mit daran, noch offene Aspekte der KI-Verordnung zu klären. Auch dabei geht es um Hochrisiko-Systeme – und, darüber hinaus, um die Einordnung von KI-Systemen in die bestehende Regulierung wie Solvency II. Denn, wie gesagt, für KI-Systeme gelten die gleichen Regeln, wie für andere IT Systeme. Ein Aspekt ist mir mit Blick auf KI ganz grundsätzlich wichtig: Nämlich, dass Unternehmen, wenn sie KI einsetzen, eine adäquate Governance haben. Und dass sie diese Governance, wo das notwendig ist, auch weiterentwickeln und anpassen. Diese Governance muss alle aufsichtlich relevanten Risiken erfassen. Und sie muss alle einschlägigen gesetzlichen und regulatorischen Vorgaben beinhalten. Das ist die klare Verantwortung der Unternehmen.

Ich weiß, das ist keine triviale Aufgabe. Denn zu einer solchen Governance gehört es auch, regelmäßig zu prüfen: Sind die Ergebnisse unserer Systeme nachvollziehbar? Kann das Modellverhalten erklärt werden? Und: Sind die Daten, die wir verwenden, repräsentativ, hochwertig und ausgewogen? Außerdem müssen Menschen die Entscheidungsprozesse weiterhin kontrollieren können. Und bei Bedarf müssen sie auch eingreifen können.

Diese Fragen sind bei generativer Künstlicher Intelligenz gar nicht so einfach zu beantworten. Und die Anforderungen sind auch gar nicht so leicht zu erfüllen. Daher erarbeiten wir in der EIOPA-Arbeitsgruppe aufsichtliche Mindestanforderungen für eine solche Governance. Damit Regulierung dem technischen Fortschritt nicht im Wege steht. Wir wollen ja auch, dass die Branche innovativ bleibt und sich weiterentwickelt. Im Sinne besserer Produkte und Leistungen für Kundinnen und Kunden. Aber klar ist auch: Die Verantwortung für den redlichen und ordnungsgemäßen Einsatz von KI, die liegt bei den Unternehmen.

Ein ganz wichtiges Thema für alle, die Künstliche Intelligenz nutzen, ist Transparenz – gerade angesichts der Anforderungen an die Governance für diese Systeme. Generative KI ist in diesem Zusammenhang eine besonders harte Nuss. Weil die Modelle und der Output, den sie produzieren, so komplex sind. Und weil ihre Lernprozesse dynamisch verlaufen. Es kommt also darauf an, die Modelle ganzheitlich zu betrachten. Und alle potenziellen Risiken aus den verschiedenen Bereichen zu berücksichtigen. Also etwa die Risiken im Zusammenhang mit den Daten, mit dem Modell selbst und seinem Einsatz. Es gibt ja heute schon eine Reihe von Verfahren, mit der die Transparenz von KI-Modellen erhöht werden kann. Sie stehen unter dem Oberbegriff Explainable AI. Bestimmte Ansätze von Explainable-AI-Verfahren versuchen die Modellentscheidungen und die Modellarchitektur besser nachvollziehbar zu machen.

Ich denke, es ist wichtig zu betonen, dass wir hier noch ganz am Anfang stehen. Auch als Aufsicht haben wir hier noch sehr viele Fragen. Fragen, über die wir mit anderen Aufsichtsbehörden, mit der Wissenschaft und natürlich auch mit den beaufsichtigten Unternehmen diskutieren. Denn wir sind nicht die einzigen, die Antworten auf diese Fragen finden müssen.

Wie geht es nun konkret weiter? Die BaFin wird mit hoher Wahrscheinlichkeit den Einsatz von Hochrisiko-KI-Systemen bei Banken und Versicherungen überwachen. Sofern die genutzte Künstliche Intelligenz in direktem Zusammenhang mit der Erbringung einer erlaubnispflichtigen Finanzdienstleistung steht. Darauf bereiten wir uns in diesem Jahr sehr intensiv vor.

Wir tauschen uns schon heute mit Vertreterinnen und Vertretern von Banken und Versicherern über die Auswirkungen der KI-Verordnung aus. Bei unseren AI-Roundtables. Und wir beobachten auch, dass sich viele Banken und Versicherungsunternehmen auf die Anforderungen der KI-Verordnung vorbereiten – damit sie diese rechtzeitig erfüllen. Also ab dem 2. August 2026.

Und natürlich bleiben wir mit der Finanzbranche im Dialog. Wir wollen noch besser verstehen: Wie setzen die Unternehmen KI ein? Welche Projekte nehmen Sie als nächstes in Angriff? Und wohin geht die Reise in Sachen KI mittelfristig?

Meine Damen und Herren,

der Fortschritt in Sachen KI ist eng verbunden mit der Entwicklung der Computer-Technologie. Dass wir Künstliche Intelligenz heute für viele Aufgaben nutzen können, verdanken wir den technologischen Durchbrüchen der vergangenen Jahre. Denn wie gesagt: Die theoretischen Grundlagen sind teilweise schon lange bekannt.

Die Technik war ein limitierender Faktor. Und sie ist es noch heute. Denn auch heute stoßen die KI-Systeme an Kapazitätsgrenzen und an zeitliche Grenzen, etwa bei der Simulation molekularer Reaktionen. Die Möglichkeiten, wie wir KI einsetzen können, werden weiterhin auch durch die Fähigkeiten der verfügbaren Computer begrenzt.

Doch hier zeichnet sich zumindest am Horizont eine technologische Revolution ab: Das Quantencomputing. Quantencomputer könnten die Anwendungsmöglichkeiten von KI potenziell erheblich erweitern. Auch, weil sie viel leistungsfähiger sind als die bisherige Computer-Technologie. Quantencomputing ist daher auch die Antwort auf die vierte Frage, die ich eingangs aufgeworfen habe. Nämlich: Welche Technologie müssen wir ebenfalls auf der Agenda haben? Diese Technologie sollten wir alle auf der Agenda haben – vor allem aber die Unternehmen der Finanzbranche.

Ich finde es wichtig, dass sich Versicherer schon heute mit dem Thema Quantencomputing beschäftigen. Natürlich auch, weil diese Technologie großes Potenzial verspricht. Im Bereich der Künstlichen Intelligenz und darüber hinaus. Für uns steht derzeit aber ein anderer Aspekt im Vordergrund: Quantencomputer werden etablierte Verschlüsselungstechnologien überwinden können. Das wird die Datensicherheit in der Finanzindustrie massiv bedrohen. Diese Gefahr ist schon heute relevant. Denn schon heute können Kriminelle Daten klauen und speichern, um sie später zu entschlüsseln. Vor dieser „Harvest Now, Decrypt Later“-Methode warnt auch das BSI, das Bundesamt für Sicherheit in der Informationstechnik.

Manch einer mag jetzt einwenden: Es gibt doch noch gar keine massentauglichen Quantencomputer. Ja, das stimmt. Es sind noch einige technologische Hürden zu überwinden. Aber Forschung und Entwicklung machen auch auf diesem Feld rasante Fortschritte. Sie erinnern sich vielleicht: Im Dezember hat Google einen neuen Quantenchip vorgestellt. Einen Chip, der in weniger als fünf Minuten eine Berechnung durchgeführt hat, für die einer der schnellsten heute verfügbaren Supercomputer zehn Quadrillionen Jahre benötigen würde. Zehn Quadrillionen, das ist eine Eins mit 25 Nullen. Eine unvorstellbar große Zahl. Und gerade vor einigen Tagen, im Februar hat auch Microsoft einen Quantencomputerchip vorgestellt. Medienberichten zufolge könnte die Technologie, die ihm zugrunde liegt, die Zeit bis zum Durchbruch des Quantencomputings erheblich verkürzen.

Natürlich kann heute niemand genau sagen, ob und wann leistungsfähige und fehlertolerante Quantencomputer zur breiten Verfügung stehen werden. Aber einiges spricht dafür, dass wir einen Durchbruch erleben werden. Und das bedeutet: Die Unternehmen des Finanzsektors müssen sich darauf einstellen. Und zwar heute.

Sie müssen Schutzmaßnahmen entwickeln. Damit ihre sicherheitsrelevanten Daten langfristig sicher sind. Wer bei einem Versicherer Verantwortung für die IT-Sicherheit trägt, muss sich fragen: Welche quantengefährdeten Daten haben wir? Und dann ein konkretes Schutzkonzept erstellen. Ein Konzept, das auch flexibel auf künftige Entwicklungen reagieren kann. Es gibt bereits heute klare Post-Quanten-Kryptographie-Standards für den Schutz vor Quanten-Hacking. Das U. S. National Institute of Standards and Technology hat sie 2024 erstmals definiert. Auch das BSI empfiehlt erste Post-Quanten-Verfahren. Jede und jeder, der im Versicherungssektor IT-Verantwortung trägt, sollte dieses Thema ernst nehmen. Noch einmal: Die Zeit zu handeln ist jetzt. Abwarten ist keine Option.

Sehr geehrte Damen und Herren,

lassen Sie mich noch einmal zusammenfassen: Versicherer nutzen KI an unterschiedlichen Stellen der Wertschöpfungskette. Sie hilft ihnen unter anderem, Prozesse effizienter zu gestalten und Produkte schneller zu entwickeln. Künstliche Intelligenz birgt aber auch Risiken. Zum Beispiel ungerechtfertigte Diskriminierung. Uns ist es deshalb wichtig, dass die Versicherer eine angemessene Governance für ihre KI-Anwendungen etablieren. Eine Governance, die alle aufsichtlich relevanten Risiken erfasst. Darüber hinaus müssen sie bereits heute neue Technologien in den Blick nehmen, die gerade erst entstehen. Vor allem das Quantencomputing. Weil es eine potenziell sehr mächtige Technologie ist. Eine Technologie, die heute zwar noch nicht zur breiten Verfügung steht, von der aber bereits heute Risiken ausgehen.

Ich weiß ja nicht, wie es Ihnen geht, aber ich schaue auf die technologischen Umbrüche mit einer Mischung aus Neugier, Faszination und Respekt. Auch mit Respekt vor den vielen offenen Fragen, die diese technologischen Umbrüche aufwerfen und für die wir noch keine Antworten haben. Denn wir alle müssen bezüglich der Möglichkeiten und der Grenzen des Einsatzes von KI noch viel lernen.

Ich muss sicherlich noch besser Prompten lernen. Und damit bin ich wieder beim eingangs erwähnten Redeentwurf, den mir der Chatbot vorgeschlagen hatte. Er schloss mit einem Appell: „Lassen Sie uns gemeinsam daran arbeiten, eine Versicherungsbranche zu schaffen, die nicht nur technologisch fortschrittlich, sondern auch fair, transparent und verantwortungsvoll ist. Nur so können wir das Vertrauen der Kundinnen und Kunden gewinnen und die Zukunft der Versicherungswirtschaft nachhaltig gestalten.“ Auch hier wieder eine eher künstliche, stellenweise recht pathetische Sprache. Aber im Kern richtig. Denn es ist doch ganz egal, ob wir Künstliche Intelligenz, Quantencomputer oder irgendein anderes fortschrittliches System nutzen – es gilt stets: Auch die beste Technologie entlässt uns nicht aus der Verantwortung. Was wir daraus machen, das liegt an uns – den Menschen.

Vielen herzlichen Dank.

Fanden Sie den Beitrag hilfreich?

Wir freuen uns über Ihr Feedback

Es hilft uns, die Webseite kontinuierlich zu verbessern und aktuell zu halten. Bei Fragen, für deren Beantwortung wir Sie kontaktieren sollen, nutzen Sie bitte unser Kontaktformular.

Wir freuen uns über Ihr Feedback