Vorurteile und Diskriminierung: Was kann KI in der Medizin leisten?

8 Juni, 2022 - 15:15
Miriam Mirza
Künstliche Intelligenz

Die Möglichkeiten der Digitalisierung in der Medizin scheinen unbegrenzt. Ein Trendthema, das in den letzten Jahren immer mehr an Bedeutung gewonnen hat, ist das der Künstlichen Intelligenz (KI). Die Hoffnung: Durch die Analyse von medizinischen Daten mithilfe intelligenter Algorithmen sollen beispielsweise Krankheiten besser erkannt oder die Entwicklung von Medikamenten und die Therapie verbessert werden. Diese Erwartungen sind durchaus gerechtfertigt, doch es gibt auch Nachteile und mit diesen müssen sich auch Ärztinnen und Arzte auseinandersetzen.

Ein ethisch-moralisches Thema, das nach Meinung vieler Expertinnen und Experten angegangen werden muss, ist die Tatsache, dass KI keineswegs so neutral ist, wie man vielleicht meinen könnte. Die Technik lernt nämlich unsere Vorurteile und wiederholt sie. Der Grund: KI operiert nicht im luftleeren Raum, sondern reproduziert die Realität – und diese ist geprägt durch Vorurteile. Unser aller Leben ist jedoch inzwischen so sehr durchdrungen von KI, dass es eigentlich keinen Bereich mehr gibt, den sie nicht berührt. Folglich kann sie die Vorurteile auch in alle Bereiche unseres Lebens hineintragen, sie unbegrenzt wiederholen und dazu beitragen, sie zu zementieren.

Diskriminierung aufgrund von Geschlecht und Hautfarbe

Inzwischen sind auch schon zahlreiche Beispiele öffentlich geworden, bei denen sich herauskristallisierte, dass Algorithmen diskriminierend sein können. Ein in der Presse bekannt gewordener Fall war ein Algorithmus von Amazon. Dieser sollte anhand von Lebensläufen entscheiden, welche Bewerber oder Bewerberinnen eingestellt werden. Die Technik schlug hauptsächlich Männer vor, weil die KI im Trainingsdatensatz erlernt hatte, dass in der Vergangenheit häufiger Männer eingestellt wurden. So hatte der Algorithmus ein Vorurteil gelernt und dieses prompt weitergegeben.

In der Medizin kann das fatale Konsequenzen haben, denn hier wird KI etwa eingesetzt, um Krankheiten möglichst früh zu erkennen. Auch über den weiteren Behandlungsbedarf können KIs schon Entscheidungen treffen. Seit einigen Jahren ist allerdings klar, dass Algorithmen Menschen mit dunkler Hautfarbe diskriminieren und etwa Hauterkrankungen schlechter detektieren. Das hat einen direkten Einfluss auf den Gesundheitszustand dieser Personengruppen. Das US-Gesundheitssystem ist davon besonders betroffen, weil es von Vorherein eine strukturelle Ungleichheit zwischen Menschen unterschiedlicher Hautfarbe aufweist.

KI muss sich weiterentwickeln können

Medizinerinnen und Mediziner sollten sich dieser Probleme bewusst sein. Inzwischen forschen weltweit verschiedene Arbeitsgruppen an der sogenannten „explainable AI“. Diese soll aufzeigen, wie Algorithmen zu ihren Entscheidungen kommen. Sprich: Mit welchen Daten wurde trainiert? Was macht der Algorithmus und warum? Das ist für die Anwendenden wichtig, um die Voraussagen der Technik besser nachvollziehen zu können.

Gleichzeitig sind die Entwickler und Entwicklerinnen solcher Systeme aufgefordert, sich des Problems anzunehmen. Unternehmen wie z.B. Microsoft und Google haben reagiert und arbeiten an der Entwicklung eigener ethischer Richtlinien für KI. Allerdings ist das ein schwieriges Unterfangen, denn es gibt zahlreiche kulturelle und soziale Nuancen, die sich auf die unterschiedliche Auslegung von ethischem Verhalten auswirken. Dennoch ist das langfristige Ziel, diskriminierungsfreie KI in die Anwendung zu bringen, die flexibel genug ist, um sie sich im Zuge des kulturellen und sozialen Wandels weiterentwickeln zu können.

Das könnte Sie auch interessieren: