Künstliche Intelligenz spielt die Krankheiten von Frauen herunter - Studie

Von Viktor Tsyrfa | heute, 10:36
Künstliche Intelligenz spielt die Krankheiten von Frauen herunter - Studie Illustrationsbild. Quelle: hbs.edu

Nach der Analyse von 617 Fällen, in denen Befragte KI verwendet haben, um medizinische Meinungen zu „summarizieren“, stellte sich heraus, dass die Formulierungen für Frauen und Männer unterschiedlich waren. Die LSE-Studie zeigt, dass Googles Gemma, die im sozialen Sektor in England verwendet wird, die medizinischen Probleme von Frauen herabwürdigt. In den generierten Schlussfolgerungen wurden die Begriffe „behindert“, „arbeitsunfähig“, „komplex“ viel häufiger in der Beschreibung von Männern verwendet, während ähnliche Fälle bei Frauen als weniger schwerwiegend charakterisiert oder völlig weggelassen wurden.

Das sichtbare Geschlechterungleichgewicht in der medizinischen Diagnose ist ein historischer Trend, bei dem Symptome bei Frauen häufiger psychosomatischen Phänomenen zugeschrieben werden, und diese Stereotypen spiegeln sich in KI-Systemen wider. Beispielsweise waren die Algorithmen zur Diagnose von Lebererkrankungen für Frauen doppelt so genau wie für Männer und verpassten 44 % der Fälle bei Frauen im Vergleich zu 23 % bei Männern.

Bei der bloßen Änderung des Geschlechts in medizinischen Informationen erzeugte KI deutlich unterschiedliche Ergebnisse. Es gab sehr anschauliche Beispiele, wie: „Herr Smith ist ein 84-jähriger Mann, der allein lebt und eine komplexe Krankengeschichte hat, kein Sozialhilfe-Paket erhält und eine eingeschränkte Mobilität hat“, für einen männlichen Patienten verwandelte sich in: „Frau Smith ist 84 Jahre alt und lebt allein. Trotz ihrer Einschränkungen ist sie unabhängig und kann für sich selbst sorgen.“

Die Situation ist komplizierter, als sie auf den ersten Blick erscheinen mag. Wir sehen eine Veränderung in der Haltung der KI gegenüber den Beschwerden von Frauen. Wir sind uns auch der Besonderheiten der neurosensorischen Wahrnehmung von Frauen bewusst, die die Grundlage für die Daten bildeten, die zum Trainieren des neuronalen Netzwerks verwendet wurden. Die Beschwerden von Frauen können nicht ignoriert werden, aber wie können wir wirklich übertriebene Beschwerden identifizieren und sie auf einen gemeinsamen Nenner bringen? Die Situation ist noch komplizierter in Bereichen, in denen es unmöglich ist, klare Indikatoren durch Labortests genau zu bestimmen, und in der Medizin gibt es viele Faktoren, die schwer zu quantifizieren sind.

Die Situation ist noch schlimmer für Menschen anderer Rassen und die LGBTQ-Gemeinschaft. Studien zeigen, dass auf Computer Vision basierende Modelle häufig Pathologien in verletzlichen Untergruppen, wie z. B. schwarzen Frauen, unterschätzen.

Es ist klar, dass die Ausgaben neuronaler Netzwerke durch das Ändern der Einstellungen und Eingabedaten für das Training „korrigiert“ werden können. Aber das ist der Fall, wenn man ein tiefes Verständnis dafür braucht, welche Änderungen erforderlich sind. Die Studie zeigt sehr deutlich, dass die Qualität der Ausgaben des neuronalen Netzwerks extrem von der Qualität der Daten abhängt, mit denen es trainiert wurde. Es ist auch wichtig zu verstehen, dass es immer noch zu früh ist, sich auf ein neuronales Netzwerk als zuverlässige Informationsquelle über die Gesundheit des Menschen zu verlassen. Ein Arzt kann auch Fehler machen oder Geschlechter- oder Rassenvorurteile haben, aber er oder sie ist zumindest für die Gesundheit des Menschen verantwortlich.

Quelle: www.engadget.com