4. Keine Revolution ohne Hürden
So gross das Potenzial von KI in der Medizin ist, so gross sind auch die Herausforderungen. Damit ein KI-Tool überhaupt trainiert werden kann und «gute» Ergebnisse liefert, braucht es sehr viele und hochwertige Daten. Diese sind nicht immer so einfach zu bekommen – zum Beispiel,
- weil Patientendaten aus guten Gründen geschützt sind.
- weil es für bestimmte Fragestellungen (seltene Krankheiten) gar nicht viele Daten gibt.
- weil Daten nicht standardisiert erfasst und zentral gesammelt werden.
Weil zuverlässige Daten nicht überall vorhanden sind, wird schon heute teilweise auf synthetische Daten zurückgegriffen. Die eine KI produziert also Daten für die andere KI.
«Auch bei lernenden Systemen wie der Künstlichen Intelligenz gilt, dass wir nur mit guten zugrundeliegenden Daten auch gute Ergebnisse erzielen können. Doch genau diese Daten existieren noch nicht so, wie wir Wissenschaftler:innen sie gerne hätten. Dadurch geht ein Teil des Potenzials der Technologie verloren.»
Sylvia Thun, Ärztin und Ingenieurin für Biomedizinische Technik,
Hochschule Niederrhein und Berliner Institut für Gesundheitsforschung (BIH)
Bewertung von KI-Ergebnissen und Validierung von Modellen
KI-Tools wie ChatGPT liefern zwar schnell Ergebnisse. Wie gut diese Ergebnisse sind und was wir damit anfangen können, müssen aber immer noch Menschen beurteilen. Die Arbeit geht den Forschenden trotz KI also bestimmt nicht aus. Zudem heikel ist, dass wir kaum nachvollziehen können, wie genau eine KI auf das jeweilige Ergebnis kommt. Was in einem Modell passiert, bleibt eine Blackbox. Wieso ist es ein Problem, wenn wir nicht nachvollziehen können, wie ein KI-Tool zu seinem Ergebnis kommt?
1. Wenn wir den «Denkprozess» der KI nicht nachvollziehen können, können wir ein System, das falsche Ergebnisse liefert, schlecht «reparieren». Wir wissen ja nicht, wo das System falsch abbiegt.
2. Aufgrund der Blackbox wissen wir auch nie, wie robust unsere KI ist. Wird sie mit jeder erdenklichen Situation umgehen können?
3. Wenn wir nicht wissen, was die KI genau tut, erkennen wir auch schlecht, wenn sie dabei eine verzerrte Wahrnehmung (einen Bias, siehe Folgeabschnitt) hat. Die Blackbox ruft also auch eine ethische Problematik hervor. Wir wissen nie, ob sie auch wirklich «fair» arbeitet.
KI-Systeme mit Bias
Dieses Problem entsteht aus der Kombination des Blackbox-Phänomens und dem Mangel an guten Daten: Ein Bias, also eine Verzerrung der Untersuchungsergebnisse, entsteht laut Sylvia Thun, Expertin für Interoperabilität und IT-Standardisierung, eigentlich immer. Wichtig ist, diesen Bias zu erkennen und herauszurechnen. Das Problem entsteht da, wo selbstlernende Systeme solche Verzerrungen nicht erkennen können.
Ein grosses Problem ist beispielsweise, wenn die Daten einer klinischen Studie überwiegend von männlichen Studienteilnehmern stammen. Dann leitet die KI Ergebnisse ab, die eben nur für Männer gelten, aber nicht für Frauen. Im schlimmsten Fall könnten die KI-Ergebnisse für Frauen sogar gefährlich sein, weil ihre Biologie anders funktioniert (vgl. Kapitel zur Gendermedizin).
Ressourcenbedarf
Wie hoch der Energieverbrauch von KIs tatsächlich ist, wissen wir heute nicht. Aber wir wissen, dass die Systeme viel Energie brauchen und dass es stetig mehr wird. Das Beratungsunternehmen Gartner schätzt, dass bis Ende des Jahrzehnts 3,5 % des weltweiten Stroms von KI-Systemen verbraucht werden.
Datenschutz
Woher die KI die Daten hat, wo sie gesammelt, aufbewahrt und analysiert werden – das sind wichtige Fragen und es gibt oft noch keine abschliessenden Antworten. Es gilt zu regulieren, welche Daten gesammelt werden dürfen und wer, was und wie damit machen darf.