Lektion 4: Bias in der Computerlinguistik
Definition:
Die Forschung zu Bias ist ein wichtiger Teilbereich der computerlinguistischen Forschung, welcher die sprachliche Verzerrung beim maschinellen Lernen, ihrer eigenen Techniken sowie in der digitalen Sprache online analysiert.
Schlüssel-konzepte
-
Bias in Machine Learning
-
Historischer Bias
-
Repräsentationsbias
-
Messbias
-
Aggregierungsbias
-
Evaluierungsbias​
-
​
-
Verzerrte Sprache
-
Framing Bias
-
Epistemologische Verzerrung
-
EINHEIT 1: BIAS IN COMPUTERLINGUISTISTISCHEN PROZESSEN
Bias könnte ein neues Wort für dich sein, es beschreibt eine Neigung/Vorurteil/Verzerrung gegenüber einer bestimmten Gruppe/Idee. Bias beim maschinellen Lernen, der Entwicklung von aus Daten lernenden Computersystemen, kann in fünf verschiedene Kategorien unterteilt werden: historischer, Repräsentations-, Mess-, Aggregations- und Bewertungsbias. Diese Kategorien schliessen sich nicht gegenseitig aus und Sprachmodelle sind oft von einer Kombination dieser Faktoren betroffen. Sie sind unten in Abbildung 1 dargestellt, die dir einen Überblick über die Quellen der Verzerrungen sowie der Schritte gibt, in denen sie in das System einfliessen.
Historischer Bias
Alltagsanalogie: Wenn du deine Vorhersage zu einem Thema auf Tendenzen stützt, die du in der Vergangenheit beobachtet hast, auch wenn sie nicht unbedingt die aktuelle Situation widerspiegeln.
Historischer Bias, wie in Abbildung (1) dargestellt, ist ein Problem bei datengesteuerten Modellen, bei denen sich bestehende Verzerrungen in den Daten in den Ergebnissen des Modells widerspiegeln. Er tritt häufig auf, wenn die für das Training verwendeten historischen Daten bereits verzerrt sind, was dazu führen kann, dass das Modell Stereotypen in Bezug auf bestimmte Identitätsgruppen aufrechterhält.
Wenn beispielsweise bei der Online-Übersetzung die historischen Daten mehr Fälle von männlichen Ärzten enthalten, wird das Modell wahrscheinlich den englischen Ausdruck "the doctor" in die maskuline Form "der Arzt" im Deutschen übersetzen.
Repräsentationsbias
Alltagsanalogie: Wenn du nur mit deinen Freunden über Politik sprichst, hast du vielleicht Schwierigkeiten, die Positionen anderer zu verstehen.
Repräsentationsbias (2) entsteht, wenn die Trainingsdaten die Bevölkerung nicht genau repräsentieren, was zu einer Über- oder Unterrepräsentation bestimmter Gruppen führt.
Wenn zum Beispiel ein Sprache-zu-Text-System hauptsächlich auf Hörbüchern trainiert wird, die von weissen Männern mittleren Alters gesprochen werden, kann es Schwierigkeiten haben, unterschiedliche Sprechende zu transkribieren. Auch das Fehlen von Schweizerdeutsch in den Sprachoptionen von Spracherkennungsprogrammen ist ein Beispiel von Repräsentationsbias.
Messbias
Alltagsanalogie: Wenn du eine alte Karte zum Navigieren verwendest, wirst du das Ziel möglicherweise nicht erfolgreich erreichen, da sich die Gestaltung des Ortes geändert hat.
Messbias (3) entsteht, wenn die Merkmale und Bezeichnungen der Trainingsdaten nicht mit dem übereinstimmen, wonach die Benutzer suchen, oder wenn die Datenqualität und die Bezeichnungen uneinheitlich sind.
Beispielsweise kann die Verwendung archaischer Bibeltexte für das Training von Übersetzungs-modellen dazu führen, dass Online-Übersetzer Ergebnisse produzieren, die nicht dem Stil des heutigen Sprachgebrauchs entsprechen.
Aggregationsbias
Alltagsanalogie: Wenn du dieselbe Strategie für verschiedene Spiele anwendest, obwohl sie unterschiedliche Regeln und Herausforderungen haben, wird sie nicht für alle gut funktionieren.
Die Aggregationsbias (4) bezieht sich auf die Modellausgabe und tritt auf, wenn ein einzelnes Modell nicht in der Lage ist, verschiedene Datengruppen effektiv zu verarbeiten.
Ein Beispiel für eine Aggregationsbias ist die Sentimentanalyse, die darauf abzielt, den emotionalen Ton oder die Stimmung in einem Text mithilfe der Verarbeitung natürlicher Sprache automatisch zu bestimmen. Eine Verzerrung tritt in diesem Zusammenhang auf, wenn Daten aus mehreren Sprachen kombiniert werden, ohne sprachspezifische Nuancen zu berücksichtigen, was aufgrund kultureller und sprachlicher Unterschiede zu einer ungenauen Bestimmung der emotionalen Stimmung führt.
Evaluationsbias
Alltagsanalogie: Wenn du deine Fussballfähigkeiten danach beurteilst, wie oft du den Ball mit deinen Füssen jonglieren kannst, ohne zu bedenken, dass es noch viele andere Fähigkeiten gibt, die man braucht, um erfolgreich zu spielen.
Evaluationsbias (5) tritt auf, wenn der Erfolg eines Modells anhand von Datensätzen getestet wird, die nicht ausreichend repräsentativ für die realen Szenarien sind, auf die das Modell ausgerichtet ist.
Ein Beispiel für einen solchen Bias ist bei Spracherkennungsmodellen dialogfähige Modellen künstlicher Intelligenz wie Siri oder Alexa zu finden. Da sie in erster Linie mit Standardakzenten getestet werden, wird ihre Leistung für Nicht-Standardsprachen nicht angemessen geprüft, was zu einer unzureichenden Leistung für Sprechende regionaler Dialekte führen kann.
Aktivität 1: Diskussion
Dein Kontakt mit Bias
Nun kannst du die folgende Frage in Zweiergruppen diskutieren (3 Minuten):
-
Fällt dir ein anderes Beispiel für diese Arten von Bias ein?
​
Nun kannst du dich mit einem/einer anderen Partner:in zusammentun und zusammenfassen, was Ihr zuvor besprochen habt und die folgende Frage beantworten (7 Minuten):
-
Warum sind diese Bias problematisch?
Fertig mit der Übung? 1) ANDERE BEISPIELE DIESER ARTEN VON BIAS Historische Bias - z. B. Chatbots: könnten stereotype/sexistische/rassistische Antworten erzeugen, wenn bereits die Trainingsdaten bestimmte Vorurteile enthalten Repräsentationsbias - z. B. maschinelle Übersetzungsmodelle: Slangwörter könnten nicht erkannt werden, wenn die Trainingsdaten des Modells hauptsächlich aus Standardsprache bestehen Messbias - z. B. Sprachmodelle: inkonsistente Annotation aufgrund unterschiedlicher Kontexte und Hintergründe der Mitarbeiter Aggregationsbias - z. B. Sprachlernsoftware: könnte nicht für alle Sprachen gleich effektiv funktionieren, wenn sie sich nicht an sprachspezifische Lehrmethoden und Herausforderungen anpasst wurde Evaluationsbias - z. B. Chatbots: könnten schlechte Leistungen erbringen, wenn sie gebeten werden, Umgangssprache nachzubilden, wenn sie anhand der Standardsprache evaluiert wurden (und so ihre Schwäche nicht erkannt wurde) 2) GRÜNDE, WARUM DIESE BIAS BEDENKLICH SIND - Reproduktion von Stereotypen - Beeinträchtigung von Fairness und Gerechtigkeit, Verursachung von Diskriminierung - Negative Auswirkungen vor allem auf (bereits) vulnerable Bevölkerungsgruppen - Missbilligung und Vertrauensverlust gegenüber Computerprogrammen und Technologie im Allgemeinen - Ungenauigkeit und Fehlerhaftigkeit der Ergebnisse von Modellen (die unbemerkt bleiben könnten und zu Fehlentscheidungen führen könnten) - Innovative Herausforderungen (der Umgang mit Verzerrungen ist schwierig und kann das Modelltraining sehr komplex und zeitaufwändig machen) - Rechtliche Herausforderungen (Tools könnten gegen Gesetze zum Schutz der Privatsphäre oder zur Diskriminierung verstossen)
EINHEIT 2: COMPUTERLINGUISTISCHE ANSÄTZE ZUR VERMEIDUNG VON BIAS
Wie wir im ersten Teil des Moduls gesehen haben, steht die Computerlinguistik vor der Herausforderung, Verzerrungen in ihren praktischen Anwendungen zu reduzieren. Die Disziplin bietet jedoch auch vielversprechende Ansätze zur Erkennung und Vermeidung von Bias. Linguistische Theorie kann Computertools mit Wissen darüber unterstützen, wie verzerrt Sprache in Text oder Sprache realisiert wird und wie dieser Bias beseitigt werden können.
Biasierte Sprache ist vor allem in Referenzquellen wie Lehrbüchern oder Enzyklopädieartikeln unerwünscht, durch die wir uns informieren und neues Wissen erwerben. Daher haben Recasens, Danescu-Niculescu-Mizil und Jufarsky (2013) versucht, ein Programm zu entwickeln, das automatisch biasierte Sprache in Texten erkennen kann, und dies auf Wikipedia angewendet. Diese Studie ist ein Beispiel dafür, wie Techniken der Computerlinguistik auf reale sprachbezogene Herausforderungen angewendet werden.
​
Das Forschungsprojekt
Der erste Schritt dieses Projekts bestand darin, verzerrte Sätze zu finden und dann die sprachlichen Indikatoren, wie z. B. Wörter oder Phrasen, zu identifizieren, die die Bias verursachen. Diese Hinweise können als Indikatoren für Bias verwendet werden. Wie sind sie dabei vorgegangen? Wie du wahrscheinlich weisst, können Nutzer:innen Änderungen in Wikipedia-Artikeln vornehmen und angeben, warum sie diese korrigiert haben. Deshalb untersuchten die Autor:innen die Änderungen, die zur Beseitigung von Bias vorgenommen wurden, und analysierten die Änderungen linguistisch. Sie fanden heraus, dass verzerrte Sprache in zwei Haupttypen eingeteilt werden kann: Framing Bias und epistemologischer Bias.
Framing Bias ist durch die Verwendung subjektiver oder einseitiger Worte oder Phrasen gekennzeichnet.
Alltagsanalogie: Wenn du einen Filter auf ein Foto anwendest, kannst du es schöner oder dramatischer aussehen lassen.
-
Er ist ein perfekt/streng organisierter Kollege. (subjektive Verstärkungspartikel)
-
Die Öko-Aktivisten/Öko-Terroristen versammelten sich in Bern. (einseitige Begriffe)
Epistemologischer Bias ist etwas subtiler und äussert sich in Worten oder Sätzen, die davon ausgehen, dass etwas mit einem unterschiedlichen Grad an Gewissheit wahr/falsch ist, oft in Form von Propositionen.
Alltagsanalogie: Wenn du ein Gerücht hörst, kannst du es glauben oder skeptisch sein, was dich dazu bringt, in der entsprechenden Weise darüber zu sprechen.
-
Die Ergebnisse zeigen/suggerieren, dass junge Menschen an Fremdsprachen interessiert sind. (faktive Verben)
-
Der Politiker erklärte/behauptete, dass das neue Gesetz die Bedingungen verbessern wird. (affirmative Verben)
-
Das Kind hat der Versuchung nachgegeben/nicht widerstanden und die Süssigkeiten gegessen. (semantische Implikationen)
-
Sie wird wahrscheinlich nicht zurückkommen. (Heckenausdrücke)
Auf der Grundlage dieser Erkenntnisse trainierten sie ihr Computerprogramm, um biasierte Sprache zu erkennen, indem sie die Maschine mit Listen der identifizierten biasierende Wörter fütterten. Darüber hinaus gaben sie die Eigenschaften dieser Ausdrücke an, wie z. B. die Zugehörigkeit des Wortes zu den oben genannten linguistischen Stichworten, seine Position im Satz oder die grammatikalische Beziehung.
Beim Testen des Modells an neuen Sätzen erreichte das Programm eine Genauigkeit von 34,35 % bei der Identifizierung des am stärksten verzerrten Wortes. In einem letzten Schritt verglichen die Forschenden die Leistung des Bias-Detektors mit menschlichen Testpersonen. Dabei fiel auf, dass die Teilnehmenden mit 37,39 % nur geringfügig besser abschnitten, was die Schwierigkeit der Erkennung von Bias sowohl für Menschen als auch für Computerprogramme verdeutlicht. Automatische Bias-Detektoren können daher ein nützliches Werkzeug für die Redakteur:innen von Nachschlagewerken sein, indem sie ihnen helfen, Bias zu finden, die sie selbst nicht bemerkt haben, und ihre Arbeit effizienter zu gestalten.
​
Warum ist diese Forschung ein relevantes Beispiel für angewandte Computerlinguistik?
Die Studie zeigt, wie die Computerlinguistik reale Sprachbias adressiert, indem sie einen interdisziplinären Ansatz nutzt, der linguistische Theorien, Datenanalyse und maschinelles Lernen miteinander verbindet. Es untersucht verschiedene Arten von Bias, beleuchtet die Komplexität der Sprachanalyse und zeigt die Herausforderungen sowie Chancen des Feldes auf.
Aktivität 2: Textanaylse
Finde den Bias
Jetzt bist du dran. Kannst du alle alle Fälle von Framing Bias und epistemologischer Verzerrung im folgenden Text identifizieren?
(10 Minuten)
​
Tipp: Notiere für beide Kategorien die biasierten Sätze, identifiziere die Wörter, die den Bias einführen, und gib die Zeilennummer an, um die Selbstkorrektur zu erleichtern.
Fertig mit der Übung? Positiver Framing Bias: - Der Text beschreibt die Computerlinguistik positiv, indem er Wörter wie "wertvolles" (Zeile 1), "spannende" (Z. 3) und "faszinierendes" (Z. 27) verwendet, um das Gebiet zu beschreiben, was zu einem positiven Framing Bias führt. - Zudem enthält er optimistischen Formulierungen mit Ausdrücken wie "immense Arbeitserleichterung" (Z. 5), "enormen Potenzial" (Z. 28) und "grenzenlosen Möglichkeiten" (Z. 16). Die Worte "immens", "enorm" und "grenzenlos" führen zu dieser positiven Verzerrung. - Die Behauptung, die Computerlinguistik könne "das Gesundheitswesen revolutionieren" (Z. 14-15) und "den Kundendienst verbessern" (Z. 15), führen zu einer positiven Bias. Die Wörter "revolutionieren" und "verbessern" führen zu dieser Verzerrung. - Darüber hinaus ist die Formulierung "brillante Köpfe anzieht, die eifrig seine Grenzen ausloten" (Z. 23-24) ebenfalls positiv biasiert. Der Ausdruck "brillante Köpfe" ist einseitig und stellt die Akademiker in einer positiven Weise dar. Negativer Framing Bias: - Jedoch beinhaltet der Text auch negativen Framing Bias, indem er betont, dass die Computerlinguistik zu "schwerwiegender Bias in Sprachmodellen" (Z. 20), "der fatalen Untergrabung der Privatsphäre" (Z. 20-21) und einer "drohenden digitalen Kluft"(Z. 21) führen könnte. Die Worte "schwerwiegend", "fatal" und "drohend" führen in diesem Zusammenhang zu einem negativen Framing Bias. EPISTEMOLOGISCHER BIAS: Epistemologischer Bias, der Wahrheit/Gewissheit impliziert: - Der Text argumentiert, die Computerlinguistik "erweist sich eine zentrale Rolle bei der Gestaltung der Zukunft der Sprachverarbeitung zu spielen" (Z. 1-2), was die Wahrheit dieser Aussage voraussetzt. Das Verb "sich erweisen" erzeugt diesen Bias. - Ein weiteres Beispiel für diesen Bias ist die Aussage "dass die Computerlinguistik zweifellos ein faszinierendes Gebiet [...] ist" (Z. 27-28), in dem das Wort "zweifellos" den Bias erzeugt. Epistemologischer Bias, der Unwahrheit/Ungewissheit impliziert: - Ein Bias, der eine gewisse Unwahrheit und Ungewissheit voraussetzt, findet sich in den Phrasen "Vertreter*innen dieser Disziplin argumentieren, dass" (Z. 2-3) und "Einige Skeptiker*innen argumentieren, dass" (Z. 9-10). Das Wort "argumentieren" sorgt für diesen Bias. - Auch in der Formulierung "suggerieren, dass sie das Gesundheitswesen revolutionieren" (Z. 14-15) liegt ein epistemologischer Bias vor. Er rührt von dem Wort "suggerieren" her, das auf die Unsicherheit der Aussage hinweist. - Darüber hinaus gibt es auch einen epistemologischen Bias in der Formulierung "was vermutlich unsere eigenen sprachlichen Fähigkeiten und unsere Kreativität beeinträchtigen könnte" (Z. 11-12), der durch "vermutlich" eingeleitet wird.
Abschliessende Gedanken für diese Lektion
Wie wir gesehen haben, ist Bias eine komplexe Angelegenheit und es ist schwer, sie beim maschinellen Lernen auszuschliessen und schwierig in Texten zu erkennen – für uns Menschen, aber auch für computerlinguistische Werkzeuge.
​
Wann wirst du das nächste Mal auf Bias in diesen Kontexten stossen?
Verwendete Quellen
TEXTE
​
Çıtak, E. (2023, July 27). Bias in Machine Learning: Concepts, Causes, and How to Fix It. Dataconomy. https://dataconomy.com/2023/07/27/how-to-fix-bias-in-machine-learning/
CrashCourse (Director). (2021, January 15). Computational Linguistics: Crash Course Linguistics #15. https://www.youtube.com/watch?v=3npuPXvA_g8
​
John-Mathews, J.-M. (2021, November 9). Measurement bias in Machine Learning. Giskard. https://www.giskard.ai/knowledge/where-do-biases-in-ml-come-from-3-n-measurement
​
Leidner, J. L., & Plachouras, V. (2017). Ethical by Design: Ethics Best Practices for Natural Language Processing. Proceedings of the First ACL Workshop on Ethics in Natural Language Processing, 30–40. https://doi.org/10.18653/v1/W17-1604
​
Recasens, M., Danescu-Niculescu-Mizil, C., & Jurafsky, D. (2013). Linguistic Models for Analyzing and Detecting Biased Language. Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, 1, 1650–1659.
Shee, E. (2021, October 12). 6 Types of AI Bias Everyone Should Know. Seldon. https://www.seldon.io/6-types-of-ai-bias
SuperAnnotate (2022, March 17). Bias in machine learning: Types and examples. https://www.superannotate.com/blog/bias-in-machine-learning
​
Suresh, H., & Guttag, J. V. (2021). A Framework for Understanding Sources of Harm throughout the Machine Learning Life Cycle. Equity and Access in Algorithms, Mechanisms, and Optimization, 1–9. https://doi.org/10.1145/3465416.3483305
TELUS International (2021, February 4). Seven Types Of Data Bias In Machine Learning. TELUS International. https://www.telusinternational.com/insights/ai-data/article/7-types-of-data-bias-in-machine-learning
Towards AI (2023, March 28). A Guide to Computational Linguistics and Conversational AI. Towards AI. https://towardsai.net/p/machine-learning/a-guide-to-computational-linguistics-and-conversational-ai
​
ILLUSTRATIONEN
​
Dialani, P. (2019, January 10). Challenges Associated with AI Bias. Analytics Insight. https://www.analyticsinsight.net/challenges-associated-with-bias-ai/
Samuels, K. (2022, May 4). Women in AI: Breaking the Internet Glass Ceiling. Black Women Talk Tech. https://www.blackwomentalktech.com/women-in-ai