Vertrauen ist gut, KI-Kontrolle besser
Hybride Graph-KI optimiert den Materialeinsatz entlang der Wertschöpfung und Prüftools kontrollieren KI-Systeme auf mögliche Schwachstellen
Fraunhofer IAIS / SBN Data Technologies
Fraunhofer IAIS
Doch wie funktioniert so ein Materialgraph genau? »Wir können ihn uns wie ein Straßennetz der Materialwirtschaft vorstellen, durch das uns die Künstliche Intelligenz wie eine Art Navigationssystem leitet. Möchten die Expert*innen, dass der Weg vom Start zum Ziel möglichst ökologisch verläuft, empfiehlt die KI im übertragenen Sinne eine Route, bei der zum Beispiel durch die Einsparung von Fahrten, etwa zur Auslieferung oder Verwendung des Materials, Kohlenstoffdioxid eingespart werden kann. Wünschen die Expert*innen umgehend eine zielgerichtete Wirkung, wird ihnen die Graph-KI quasi die beste Route in Form eines optimierten Materialmixes vorschlagen«, erklärt Stange.
Auf der Hannover Messe können Besucher*innen des Fraunhofer-Gemeinschaftsstands am Beispiel eines Wundversorgers einen Materialgraphen kennenlernen. »Unser Lösungsansatz stellt die industrielle KI auf ganz neue Füße. Von der vorgeschalteten Lieferkette bis zur Anwendung lässt sich der gesamte Einsatz des Materials optimieren, um die Wirtschaftlichkeit zu verbessern und die Wundheilung im besten Falle zu verkürzen. Gleichzeitig werden voraussichtlich benötigte Materialmengen im Kontext der Therapie sichtbar, um Überschuss und Transportkosten so gering wie möglich zu halten«, erklärt der Experte.
Es ist möglich, Materialgraphen auf verschiedene Branchen anzupassen: Dank hybrider KI, die maschinelle Intelligenz mit menschlicher Intelligenz von Expert*innen verbindet, kann die KI-Anwendung auch mit wenig vorhandenen Daten trainiert werden. Ihr Einsatzzweck ist es, Verschwendung bei Materialverbrauch zu vermeiden, Kosten zu senken und vorausschauend Lieferengpässe zu umgehen. Hendrik Stange: »Die KI ist ein Sparringspartner für Fachleute, um sie dabei zu unterstützen, anhand von Fakten und Vorschlägen schnelle und fundierte Entscheidungen zu treffen. Nicht die KI entscheidet, ob Route A oder B in Frage kommt. Das liegt im Ermessen der Menschen.«
Prüftools für einen sicheren und vertrauenswürdigen Einsatz von KI
Mit einem anderen Schwerpunkt ist Dr. Maximilian Poretschkin am Fraunhofer-Gemeinschaftsstand vertreten. Der Leiter KI-Absicherung und Zertifizierung am Fraunhofer IAIS stellt dort mehrere Prüftools und Verfahren vor, die Künstliche Intelligenzen in Bezug auf ihre Verlässlichkeit, Fairness, Robustheit und Transparenz untersuchen und bewerten. Die Prüfkriterien basieren auf dem KI-Prüfkatalog, einem Leitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz, der von den Fraunhofer IAIS-Expert*innen 2021 veröffentlicht wurde. Seit Anfang 2023 ist er auch in englischer Übersetzung verfügbar.
Doch warum ist es wichtig, die Güte von KI-Anwendungen systematisch prüfen zu können? »Insbesondere in sensiblen Anwendungsfeldern, wie etwa der medizinischen Diagnostik, dem HR-Management, dem Finanzwesen, der Strafverfolgung oder in sicherheitskritischen Bereichen müssen KI-Systeme absolut zuverlässige Ergebnisse liefern. Der AI Act – der Europäische Entwurf zur Regulierung von KI-Systemen – stuft viele dieser Beispiele in die Hochrisiko-Kategorie ein und sieht für sie Prüfungen sogar verpflichtend vor«, erklärt Dr. Poretschkin. »Unternehmen, die Hochrisiko-KI-Anwendungen entwickeln oder einsetzen, müssen sich spätestens jetzt dringend mit der Qualitätssicherung ihrer Anwendungen auseinandersetzen.«
Die Herausforderung dabei: KI funktioniert anders als herkömmliche Software. Letztere ist regelbasiert programmiert, was ein systematisches Durchtesten ihrer Funktionalität erlaubt – also ob die Antworten bzw. Ausgaben in Abhängigkeit der Eingaben korrekt sind. Dies funktioniert bei KI-Anwendungen nicht ohne Weiteres, insbesondere wenn sie auf Neuronalen Netzen basieren.
Das Werkzeug »ScrutinAI« des Fraunhofer IAIS befähigt Prüfer*innen, systematisch nach Schwachstellen von Neuronalen Netzen zu suchen und somit die Qualität der KI-Anwendungen zu testen. Ein konkretes Beispiel ist eine KI-Anwendung, die Anomalien und Krankheiten auf CT-Bildern erkennt. Hier stellt sich die Frage, ob alle Arten von Anomalien gleichermaßen gut erkannt werden oder einige besser und andere schlechter. Diese Analyse hilft Prüfer*innen zu beurteilen, ob eine KI-Anwendung gut genug für ihren vorgesehenen Einsatzkontext ist. Gleichzeitig können auch Entwickler*innen profitieren, indem sie Unzulänglichkeiten ihrer KI-Systeme frühzeitig erkennen und entsprechende Verbesserungsmaßnahmen ergreifen, wie etwa die Anreicherung der Trainingsdaten um spezifische Beispiele. Der Einsatz des Werkzeugs ist dabei für viele Use Cases denkbar, etwa bei einer KI-Anwendung, die Schwachstellen und Materialfehler in sicherheitskritischen Bauteilen detektiert.
Modulares Software-Framework bietet Unterstützung bei der Auswahl und Prüfung von KI-Systemen
Weitere Prüftools und Verfahren sind in ein Software-Framework eingebettet und modular miteinander kombinierbar. So lässt sich mit dem sogenannten »Benchmarking«-Werkzeug untersuchen, welches KI-Modell sich am besten für eine bestimmte Aufgabe eignet. »Es gibt eine Flut neuer KI-Anwendungen, die Unternehmen in ihre Prozesse integrieren können. Benchmarking kann bei der geeigneten Auswahl unterstützen«, so Dr. Poretschkin. Mit der Methode »uncertAInty« kann zudem gemessen werden, wie sicher sich ein neuronales Netz mit seiner Ausgabe ist. Es kann sein, dass sich ein neuronales Netz sehr unsicher ist, weil es Eingangsdaten erhalten hat, die es aus vorherigen Trainingsdaten noch nicht kennt. »Ein autonomes Fahrzeug muss beispielsweise Objekte und Menschen in seiner Umgebung zuverlässig erkennen können, damit es angemessen darauf reagieren kann. Die Unsicherheitsbewertung hilft in solchen Situationen zu messen, wie stark man der Entscheidung des Systems vertrauen kann oder ob bestimmte Fallback-Mechanismen aktiviert werden müssen, also zum Beispiel, ob ein Mensch die finale Entscheidung treffen muss«, erklärt Dr. Poretschkin.
Vom 17. bis 21. April können Besucher der Hannover Messe 2023 am Fraunhofer-Gemeinschaftsstand (Halle 16, Stand A12) Tools und Anwendungen von Expert*innen des Fraunhofer IAIS erleben. Hendrik Stange verantwortet den Bereich Auto Intelligence, der sich mit automatisierter KI in der Materialwirtschaft befasst. Die Stärke dieser KI basiert auf neuartigen Materialgraphen, die die Ressourcenintelligenz von Unternehmen steigern. Dr. Poretschkin, Leiter KI-Absicherung und Zertifizierung, zeigt anhand diverser Prüftools auf, wie man die Qualität von KI-Anwendungen testen kann.