Witty Works Blog

Wenn die künstliche Intelligenz denkt, dass er die Vernunft und sie das Gefühl hat

Geschrieben von Nadia Fischer | Sep 7, 2020 10:00:00 PM

Künstliche Intelligenz entscheidet nicht neutral

Beispiele aus den letzten Jahren sagen etwas anderes. So tauchten etwa ein Recruiting Tool auf, welches Frauen aussortierte [1] oder Bilderkennungssoftware, die sich rassistisch gegenüber Afro-Amerikaner*innen verhielt [2]. Und vermutlich ist dies nur die Spitze des Eisbergs. Neben Herkunft und Geschlecht können Faktoren wie Alter, Religion, sozio-ökonomischer Hintergrund, sexuelle Orientierung und vieles mehr eine Rolle spielen. Die Stereotypen und Vorurteile sind tief in den Datenbergen, welche wir in der digitalen Gesellschaft hinterlassen, verankert. Es konnte gezeigt werden, dass Stereotypen aus dem 18. Jahrhundert in heutigen Sprachmodellen noch immer vorhanden sind [3]. So beispielsweise werden dort Charaktereigenschaften wie Gefühl, Empfinden und Verstehen den Frauen zugeordnet, und Eigenschaften wie Vernunft, Denken und Urteilen den Männern. Eine denkbar schlechte Voraussetzung für ein Computerprogramm, faire Entscheidungen zu treffen!

Maschinen können sich selbst nicht reflektieren

Während Menschen sich, idealerweise, selber reflektieren können und auch versuchen können, gegen ihren sogenannten unconscious bias (also unbewusste Voreingenommenheit) anzukämpfen, reflektieren sich Maschinen in keinerlei Art und Weise. Vorurteile, welche sie einmal gelernt haben, können dadurch durch wiederholte Anwendung verstärkt anstatt abgebaut werden. Doch wie können wir einer Maschine beibringen, sich zu reflektieren?

Augmented Intelligence - Schlüssel zu objektiveren Entscheidungen

Der Schlüssel zu diesem Problem liegt in der Zusammenarbeit zwischen Menschen und Maschinen. Wenn Computer den Menschen als Entscheidungsträger ersetzen sollen, ist die fehlende Reflexion ein gravierender Mangel. Andererseits können die Informationen, welches ein solches System automatisiert beschaffen und analysieren kann, einer menschlichen Entscheidungsträger*in eine wertvolle Hilfestellung sein, und der Mensch kann diese Informationen vor der Entscheidung nochmals reflektieren und gegebenenfalls hinterfragen.

Diese Arbeitsteilung zwischen Computern und Menschen nennen wir deswegen augmented intelligence. Menschen profitieren von den Fähigkeiten des Computers, und lassen die Maschine das tun, was sie am besten kann. Und die Maschine überlässt die Reflexion dem Menschen.

Doch was bedeutet das jetzt für die Entwicklung oder den Einsatz von solcher Software?

Erster Schritt: Awareness beim Einsatz von Künstlicher Intelligenz

Ein wichtiger Punkt ist hier die Awareness; also das Bewusstsein, dass solche Tools unfair sein können und dass die automatisierten Entscheidungen reflektiert werden müssen. Es sollten daher in solchen Projekten die richtigen Fragen gestellt werden, zum Beispiel die folgenden:

  • Welche Vorurteile können potentiell in unseren Daten vorkommen?
  • Welche Diskriminierungen könnten dadurch in den Entscheidungen entstehen?
  • Trifft unser System Entscheidungen, welche Menschen oder deren Zugang zu Ressourcen oder deren Inklusion in der Gesellschaft betreffen?
  • Wie werden diese Entscheidungen reflektiert und validiert? Gibt es dafür einen Prozess?
  • In welchem Kontext könnte die Software in Zukunft auch noch angewendet werden, den wir bisher eventuell nicht berücksichtigt haben?

Durch die Berücksichtigung dieser potentiellen Diskriminierungen in Projekten und dem laufenden Betrieb solcher Anwendungen können die Synergien zwischen Menschen und Maschinen vollumfänglich ausgeschöpft werden. Damit wird ein wichtiger Beitrag zu einer fairen und inklusiven digitalen Gesellschaft geleistet.

 

 

Sind Sie auf der Suche nach einem digitalen Schreibassistenten für inklusive Sprache?  Dann probieren Sie Witty kostenlos aus. Witty erkennt nicht inklusive Sprache und bietet fortlaufende Schulungen zu unbewusster Voreingenommenheit und Operationalisierung von Inklusion.

 

[1] https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

[2] https://eu.usatoday.com/story/tech/2015/07/01/google-apologizes-after-photos-identify-black-people-as-gorillas/29567465/ 

[3] https://www.societybyte.swiss/2020/08/19/gesellschaftliche-stereotypen-in-vortrainierten-sprachmodellen/ 

Prof. Dr. Mascha Kurpicz-Briki ist als Dozentin und Forscherin am Institute for Data Applications and Security IDAS der Berner Fachhochschule tätig. Sie beschäftigt sich in ihrer Forschung unter anderem mit dem Thema Fairness und der Digitalisierung von sozialen und gesellschaftlichen Herausforderungen.

mascha.kurpicz@bfh.ch
Twitter @SocietyData