Highlights:

  • Bei KI-Systemen sind Zuverlässigkeit, Erklärbarkeit, Transparenz und Verantwortung für die Außenwirkung und bei Haftungsfragen von großer Wichtigkeit.
  • Die durch die Europäische Kommission in Auftrag gegebenen Ethik-Leitlinien für eine vertrauenswürdige KI leiten als Rahmenwerk die Grundprinzipien und Kernanforderungen ab.

  • Zur Prüfung von KI-Systemen entwickelt das Institut der Wirtschaftsprüfer den Prüfungsstandard IDW PS 861.

  • Explainable AI ist ein wichtiges Forschungsgebiet, das sich mit der Entwicklung von KI-Systemen befasst, die ihre Entscheidungen und Prozesse verständlicher und nachvollziehbarer machen können.

In vielen Bereichen sind durch den Einsatz von künstlicher Intelligenz (KI) Vorteile und Erfolge zu verzeichnen. Doch gleichzeitig werden auch Risiken und Herausforderungen deutlich. Obwohl KI-Systeme in der Lage sind, Geschäftsprozesse zu optimieren oder neu zu gestalten, ist in sensiblen Anwendungsfällen nicht ausschließlich die Leistungsfähigkeit der KI-Systeme von Bedeutung. Auch Aspekte wie Zuverlässigkeit, Erklärbarkeit, Transparenz und Verantwortung sind für die Außenwirkung und bei Haftungsfragen von großer Wichtigkeit.

Ethik-Leitlinien für eine vertrauenswürdige KI

Die Europäische Kommission hat zum Thema künstliche Intelligenz eine hochrangige Expertengruppe eingesetzt. Die Gruppe hat kürzlich Ethik-Leitlinien veröffentlicht und leitet darin anhand dreier Grundprinzipien sieben Kernanforderungen für eine vertrauenswürdige KI ab: 

Die Grundprinzipien:

  1. Sie sollte rechtmäßig sein und somit geltendes Recht und alle gesetzlichen Bestimmungen einhalten. 
  2. Sie sollte ethisch sein und somit die Einhaltung ethischer Grundsätze und Werte garantieren.
  3. Sie sollte robust sein, und zwar sowohl in technischer als auch in sozialer Hinsicht, da KI-Systeme möglicherweise unbeabsichtigten Schaden verursachen, selbst wenn ihnen gute Absichten zugrunde liegen.

Die Kernanforderungen:

  1. Vorrang menschlichen Handelns und menschliche Aufsicht
  2. Technische Robustheit und Sicherheit 
  3. Schutz der Privatsphäre und Datenqualitätsmanagement
  4. Transparenz
  5. Vielfalt, Nichtdiskriminierung und Fairness 
  6. Gesellschaftliches und ökologisches Wohlergehen 
  7. Rechenschaftspflicht 

Die Umsetzung dieser Anforderungen bedingen eine verstärkte Zusammenarbeit zwischen Regierung, Unternehmen, Forschungseinrichtungen und der Gesellschaft und erfordern eine Regulierung und Überwachung von KI-Systeme.

Prüfungsstandards für KI-Systeme

Im Kontext der zunehmenden Verbreitung von künstlicher Intelligenz wird die Prüfung und Bewertung von KI-Systemen als Teil des Risikomanagements wichtiger. In diesem Zusammenhang entwickelt das Institut der Wirtschaftsprüfer den Prüfungsstandard IDW PS 861, der sich an dem International Standard on Assurance Engagements (ISAE) 3000 (Revised) orientiert und auf die Prüfung von KI-Systemen ausgerichtet ist.

Darüber hinaus bietet das Artificial Intelligence Risk Management Framework einen internationalen Ansatz für die Bewertung und Verbesserung der Vertrauenswürdigkeit von künstlicher Intelligenz. Das Framework setzt sich aus den drei Bereichen Governance und Ethik, Risikobewertung- und Management sowie Transparenz zusammen und soll Unternehmen und Organisationen dabei unterstützen, Risiken im Zusammenhang mit KI-Systemen zu identifizieren und zu managen.

Um die Sicherheit von KI-Systemen in der Cloud zu gewährleisten, hat das Bundesamt für Sicherheit in der Informationstechnik den Kriterienkatalog AIC4 veröffentlicht. Dieser Katalog definiert Anforderungen an die Sicherheit von KI-Cloud-Diensten und soll Unternehmen dabei unterstützen, geeignete Cloud-Anbieter auszuwählen und entsprechende Sicherheitsmaßnahmen zu implementieren.

Explainable AI (XAI)

Erklärbare KI oder Explainable AI ist ein wichtiger Bereich der künstlichen Intelligenz, der sich auf die Schaffung von Systemen konzentriert, die ihre Entscheidungen und Prozesse verständlich und nachvollziehbar machen können. Durch die Erklärbarkeit von Entscheidungen können Benutzer:innen das Verhalten von KI-Systemen besser verstehen und Vertrauen in getroffene Entscheidungen entwickeln. Derzeit werden viele KI-Systeme eingesetzt, die komplexe Entscheidungen auf der Grundlage von Machine-Learning-Algorithmen treffen, deren Entscheidungsprozesse für Menschen schwer oder gar nicht zu verstehen sind. Dies kann zu Problemen führen, da Benutzer:innen Vertrauen in die Entscheidungen von KI-Systemen haben wollen, um ihre Verwendung zu rechtfertigen und ihre Akzeptanz zu fördern.

Die Integration von Explainable AI in die unterschiedlichsten Systeme kann auch dazu beitragen, das Potenzial von künstlicher Intelligenz zu maximieren und gleichzeitig sicherzustellen, dass ihre Auswirkungen für die Gesellschaft positiv sind. Zum Beispiel können durch Explainable AI medizinische Diagnosen genauer und verständlicher gemacht werden, was bessere Behandlungen und Ergebnisse für Patienten ermöglichen kann. In anderen Anwendungsbereichen können die Erklärbarkeit von Entscheidungen und Prozessen dazu beitragen, Vorurteile und Diskriminierung durch KI-Systeme zu vermeiden oder zu verringern.

Unsere Lösung: AI in Control

Um die Risiken zu minimieren und ein effektives Management von KI-Lösungen zu ermöglichen, haben wir das „AI in Control“-Framework entwickelt, das wir kontinuierlich ausbauen. Das Framework befasst sich mit dem Management von Risiken und der Kontrolle von KI-Lösungen entlang der Bereiche Unternehmen, Lösung & Daten, Technologie und Projekt. Ergänzend dazu bieten wir technisches Know-how und Analyse-Tools an, die für eine umfassende Steuerung und Kontrolle von KI-Lösungen in bestehende Systemumgebungen integriert werden können. Unsere KI-Expert:innen unterstützen Kunden dabei, ein auf ihre Anforderungen zugeschnittenes, eigenes Framework zu konzipieren und zu implementieren, um ihre individuellen KI-Lösungen transparent und nachvollziehbar zu gestalten.