News

Nachrichten > Wie Künstliche Intelligenz ihre Entscheidungen erklären kann
Sie haben die scheinbar unvereinbare induktive Vorgehensweise von maschinellem Lernen mit deduktiver Logik zusammengebracht: Stephanie Schörner, Axel Mosig und David Schuhmacher (von links). © RUB, Marquard

Wie Künstliche Intelligenz ihre Entscheidungen erklären kann

Wenn ein Algorithmus in einer Gewebeprobe einen Tumor ausmacht, verrät er bislang nicht, wie er zu diesem Ergebnis gekommen ist. Das ist wenig vertrauenswürdig. Bochumer Forschende verfolgen daher einen neuen Ansatz.

Künstliche Intelligenz (KI) kann so trainiert werden, dass sie erkennt, ob ein Gewebebild Tumor enthält. Wie sie ihre Entscheidung trifft, bleibt bislang jedoch verborgen. Ein Team des Forschungszentrums für Protein-Diagnostik, kurz PRODI, der Ruhr-Universität Bochum entwickelt einen neuen Ansatz: Mit ihm wird die Entscheidung einer KI erklärbar und somit vertrauenswürdig. Den Ansatz beschreiben die Forschenden um Prof. Dr. Axel Mosig in der Zeitschrift „Medical Image Analysis“, online veröffentlicht am 24. August 2022.

Für die Arbeiten kooperierte Bioinformatiker Axel Mosig mit Prof. Dr. Andrea Tannapfel, Leiterin des Instituts für Pathologie, der Onkologin Prof. Dr. Anke Reinacher-Schick vom St. Josef Hospital der Ruhr-Universität sowie dem Biophysiker und PRODI-Gründungsdirektor Prof. Dr. Klaus Gerwert. Die Gruppe entwickelte ein neuronales Netz, also eine KI, die einordnen kann, ob eine Gewebeprobe Tumor enthält oder nicht. Dazu fütterten sie die KI mit vielen mikroskopischen Gewebebildern, von denen einige tumorhaltig, andere tumorfrei waren.

„Neuronale Netze sind zunächst eine Black Box: Es ist unklar, welche Unterscheidungsmerkmale ein Netzwerk aus den Trainingsdaten lernt“, erläutert Axel Mosig. Im Vergleich zu menschlichen Expertinnen und Experten fehlt ihnen die Fähigkeit, Entscheidungen zu erklären. „Gerade bei medizinischen Anwendungen ist es aber wichtig, dass die KI erklärbar und somit vertrauenswürdig ist“, ergänzt der an der Studie beteiligte Bioinformatiker David Schuhmacher.

KI basiert auf falsifizierbaren Hypothesen

Die erklärbare KI des Bochumer Teams basiert daher auf der einzigen Art von sinnvollen Aussagen, die die Wissenschaft kennt: auf falsifizierbaren Hypothesen. Ist eine Hypothese falsch, so muss das durch ein Experiment nachweisbar sein. Künstliche Intelligenz folgt normalerweise dem Prinzip des induktiven Schließens: Aus konkreten Beobachtungen, den Trainingsdaten, erstellt die KI ein allgemeines Modell, auf dem basierend sie alle weiteren Beobachtungen bewertet.

Das Problem dahinter hat der Philosoph David Hume bereits vor 250 Jahren beschrieben und lässt sich leicht veranschaulichen: Wenn man noch so viele weiße Schwäne beobachten würde, könnte man aus diesen Daten trotzdem niemals schließen, dass alle Schwäne weiß sind und dass es keine schwarzen Schwäne gibt. Die Wissenschaft bedient sich daher der sogenannten deduktiven Logik. Bei diesem Vorgehen ist eine allgemeine Hypothese der Ausgangspunkt. Zum Beispiel wird die Hypothese, dass alle Schwäne weiß sind, durch die Beobachtung eines schwarzen Schwans falsifiziert.

Aktivierungskarte zeigt, wo der Tumor erkannt wird

„Auf den ersten Blick erscheinen die induktiv arbeitende KI und die deduktive wissenschaftliche Methode fast unvereinbar“, sagt die ebenfalls an der Studie beteiligte Physikerin Stephanie Schörner. Aber die Forschenden fanden einen Weg. Ihr neu entwickeltes neuronales Netz liefert nicht nur eine Klassifikation, ob eine Gewebeprobe tumorhaltig oder tumorfrei ist. Sie erzeugt zusätzlich eine Aktivierungskarte des mikroskopischen Gewebebildes.

Die Aktivierungskarte orientiert sich an einer falsifizierbaren Hypothese, nämlich dass die vom neuronalen Netz abgeleitete Aktivierung genau den Tumorregionen in der Probe entspricht. Mit ortsspezifischen molekularen Methoden kann diese Hypothese überprüft werden.

Ein neuronales Netz wird zunächst mit vielen Datensätzen trainiert, um tumorhaltige von tumorfreien Gewebebildern unterscheiden zu können (Input von oben in der Grafik). Anschließend bekommt es ein neues Gewebebild aus einem Experiment präsentiert (Input von links). Über induktives Schließen erzeugt das neuronale Netz die Klassifizierung in „tumorhaltig“ oder „tumorfrei“ für das vorliegende Bild. Gleichzeitig erstellt es eine Aktivierungskarte von dem Gewebebild. Die Aktivierungskarte ist aus dem induktiven Lernprozess hervorgegangen und hat zunächst keinen Bezug zur Realität. Dieser Bezug wird hergestellt durch die falsifizierbare Hypothese, dass Bereiche mit hoher Aktivierung genau den Tumorregionen in der Probe entsprechen. Diese Hypothese kann mit weiteren Experimenten überprüft werden. Der Ansatz folgt somit der deduktiven Logik.

© PRODI

„Dank der interdisziplinären Strukturen am PRODI haben wir beste Voraussetzungen, um den hypothesenbasierten Ansatz zukünftig in die Entwicklung vertrauenswürdiger Biomarker-KI einfließen zu lassen, beispielsweise um bestimmte Therapie-relevante Tumor-Subtypen unterscheiden zu können“, resümiert Axel Mosig.

Förderung

PRODI wird gefördert vom Ministerium für Kultur und Wissenschaft des Landes NRW (Grantnummer 111.08.03.05-133974). Das Bundesministerium für Bildung und Forschung förderte einen Teil der Arbeiten im Rahmen des Projekts „Slide2Mol“ unter dem Förderkennzeichen 031L0264.

Originalveröffentlichung

David Schuhmacher et al.: A framework for falsifiable explanations of machine learning models with an application in computational pathology, in: Medical Image Analysis, 2022, DOI: 10.1016/j.media.2022.102594