Information, Evidenz

Künstliche Intelligenz - Lost in Translation
Möglicherweise werden die Inhalte automatisch übersetzt.

Am 27. Januar 2023 überrascht der Startbildschirm von Windows 11 mit einer im Deutschen trivialen Aussage:

Breitmaulnashörner sind nicht weiss, sondern eher gräulich. Vielleicht wurden sie nach Ihrem Maul benannt.

Die Ursache dieser in der deutschen Sprache trivialen Aussage erschliesst sich aus dem Kontext des mutmasslichen Englischen Originaltextes:

Im Englischen heißen Breitmaulnashörner White Rhinos, also „Weiße Nashörner“, obwohl sie nicht weiß sind. Es wird angenommen, dass die Bezeichnung „White Rhinos“ auf ein Missverständnis zurückzuführen ist. Das Afrikaans-Wort „wyd“ bedeutet übersetzt „breit“, klingt aber dem englischen „white“ sehr ähnlich. Vermutlich wurden die Breitmaulnashörner von englischen Siedlern so White Rhinos genannt.
(WWF, 2023)



Wo ist der Bezug zu Pflege/Aging in Place?

Die Qualität des Kontextes bzw. der Bildbeschreibungen kann im Kontext der Barrierefreiheit relevant werden. Und schlägt im Kontext der Künstlichen Intelligenzz etwa nieder in automatisch generierten Bildsbeschreibungen (weiterführend: The Verge 2022)

Weiterlesen

Bias in der Künstlichen Intelligenz
Martina Mara erläutert Verzerrungen in der KI am Beispiel von Geschlechtszuschreibungen.


Eingangsrätsel: Wie ist das möglich?

  • Ein Vater und sein Sohn sind gemeinsam im Auto unterwegs und haben einen furchtbaren Autounfall. Der Vater verstirbt leider an Ort und Stelle.
  • Der Sohn wird mit Blaulicht ins Krankenhaus gefahren und sofort in den Operationssaal gebracht
  • Der Artzt sieht ihn kurz an und meint, hier müsse man eine Koryphäe zu Rate ziehen.
  • Die Koryphäe kommt, sieht den jungen man auf dem Operationstisch und sagt: " Ich kann ihn nicht operieren, er ist mein Sohn"

Bei der Koryphäe handelt es sich um die Mutter des jungen Mannes. Argumentation: Der Begriff der Koryphäe ist meist mit einer männlichen Vorstellung hinterlegt. Deshalb entsteht meist ein Widerspruch zwischen der Vorstellung "Der Vater ist verstorben" und (mutmasslich) "Der Vater ist die Koryphäe"

Bias - Abweichen vom Prototypen

  • Abweichungen vom traditionellen Schema benötigen Abweichungen (Bananen - Grüne Bananen)
  • Prototypen halten sich hartnäckig, auch wenn sich werte verändern.


Vier Herausforderungen (18:00)

  • Challenge 1: Stereotype Rollenbilder in Datensätzen (18:10)
    • Kurzgeschichte von ChatGPT - männlich vs weiblich
    • Automatisierte Übersetzung - Problem unbestimmter Personalpronomen und fehlenden Kontextes
  • Challenge 2: Mangelnde Repräsentanz in Datensätzen (32:05)
    • Spracherkennugnssysteme & Dialekt, Lokal- und Generationscolorit
    • Mozilla Common Voice & Transparenz der Datensatz-Zusammensetzung
    • Mangelhaftes oder falsches Daten-Labeling - Hochzeit in verschiedenen Kulturen
    • Mangel an Partizipation in der Produktentwicklung - Mobile aus Baby-Sicht
  • Challenge 3: Ungleichverteilung von Wissen und Möglichkeiten zur Mitgestaltung (43:20)
    • Wer kennt den Algorithmus?
    • Alters- und Geschlechtsunterschiede im Bereich KI/MINT
  • Challenge 4: Stereotype Gestaltung von Technologie (50:52)
    • Sprachassistenten sind in der Grundeinstellung weiblich.
    • Kontra-stereotpe Technologie-Gestaltung: Rehabilitations-Roboter

Forderungen im Fazit (59:53): Wir brauchen:

  • Bewusstsein über die Herausforderungen
    • bei gleichzeitiger Anerkennung, dass sie sich nicht rein technisch lösen lassen.
  • Mehr Diversität
    • in den Daten, aus denen wir KI-Systeme lernen lassen
    • in der demografischen Zusammensetzung von Entwicklungs-Teams
    • in Perspektiven, Expertisen und Mindsets
    • in der Ansprache von Zielgruppen für digitale Bildungsangebote
Weiterlesen