• Nadia Fischer

Wenn die Künstliche Intelligenz denkt, dass er die Vernunft und sie das Gefühl hat

Von Gastautorin Mascha Kurpicz


Oftmals werden Systeme mit Künstlicher Intelligenz mit dem Hintergedanken eingesetzt, dass Maschinen objektivere Entscheidungen treffen können als Menschen. Doch stimmt das wirklich?


Künstliche Intelligenz entscheidet nicht neutral

Beispiele aus den letzten Jahren sagen etwas anderes. So tauchten etwa ein Recruiting Tool auf, welches Frauen aussortierte [1] oder Bilderkennungssoftware, die sich rassistisch gegenüber Afro-Amerikaner*innen verhielt [2]. Und vermutlich ist dies nur die Spitze des Eisbergs. Neben Herkunft und Geschlecht können Faktoren wie Alter, Religion, sozio-ökonomischer Hintergrund, sexuelle Orientierung und vieles mehr eine Rolle spielen. Die Stereotypen und Vorurteile sind tief in den Datenbergen, welche wir in der digitalen Gesellschaft hinterlassen, verankert. Es konnte gezeigt werden, dass Stereotypen aus dem 18. Jahrhundert in heutigen Sprachmodellen noch immer vorhanden sind [3]. So beispielsweise werden dort Charaktereigenschaften wie Gefühl, Empfinden und Verstehen den Frauen zugeordnet, und Eigenschaften wie Vernunft, Denken und Urteilen den Männern. Eine denkbar schlechte Voraussetzung für ein Computerprogramm, faire Entscheidungen zu treffen!

Maschinen können sich selbst nicht reflektieren

Während Menschen sich, idealerweise, selber reflektieren können und auch versuchen können, gegen ihren sogenannten unconscious bias (also unbewusste Voreingenommenheit) anzukämpfen, reflektieren sich Maschinen in keinerlei Art und Weise. Vorurteile, welche sie einmal gelernt haben, können dadurch durch wiederholte Anwendung verstärkt anstatt abgebaut werden. Doch wie können wir einer Maschine beibringen, sich zu reflektieren?


Augmented Intelligence - Schlüssel zu objektiveren Entscheidungen

Der Schlüssel zu diesem Problem liegt in der Zusammenarbeit zwischen Menschen und Maschinen. Wenn Computer den Menschen als Entscheidungsträger ersetzen sollen, ist die fehlende Reflexion ein gravierender Mangel. Andererseits können die Informationen, welches ein solches System automatisiert beschaffen und analysieren kann, einer menschlichen Entscheidungsträger*in eine wertvolle Hilfestellung sein, und der Mensch kann diese Informationen vor der Entscheidung nochmals reflektieren und gegebenenfalls hinterfragen.

Diese Arbeitsteilung zwischen Computern und Menschen nennen wir deswegen augmented intelligence. Menschen profitieren von den Fähigkeiten des Computers, und lassen die Maschine das tun, was sie am besten kann. Und die Maschine überlässt die Reflexion dem Menschen.


Doch was bedeutet das jetzt für die Entwicklung oder den Einsatz von solcher Software?


Erster Schritt: Awareness beim Einsatz von Künstlicher Intelligenz

Ein wichtiger Punkt ist hier die Awareness; also das Bewusstsein, dass solche Tools unfair sein können und dass die automatisierten Entscheidungen reflektiert werden müssen. Es sollten daher in solchen Projekten die richtigen Fragen gestellt werden, zum Beispiel die folgenden:

  • Welche Vorurteile können potentiell in unseren Daten vorkommen?

  • Welche Diskriminierungen könnten dadurch in den Entscheidungen entstehen?

  • Trifft unser System Entscheidungen, welche Menschen oder deren Zugang zu Ressourcen oder deren Inklusion in der Gesellschaft betreffen?

  • Wie werden diese Entscheidungen reflektiert und validiert? Gibt es dafür einen Prozess?

  • In welchem Kontext könnte die Software in Zukunft auch noch angewendet werden, den wir bisher eventuell nicht berücksichtigt haben?

Durch die Berücksichtigung dieser potentiellen Diskriminierungen in Projekten und dem laufenden Betrieb solcher Anwendungen können die Synergien zwischen Menschen und Maschinen vollumfänglich ausgeschöpft werden. Damit wird ein wichtiger Beitrag zu einer fairen und inklusiven digitalen Gesellschaft geleistet.

[1] https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

[2] https://eu.usatoday.com/story/tech/2015/07/01/google-apologizes-after-photos-identify-black-people-as-gorillas/29567465/

[3] https://www.societybyte.swiss/2020/08/19/gesellschaftliche-stereotypen-in-vortrainierten-sprachmodellen/


Prof. Dr. Mascha Kurpicz-Briki ist als Dozentin und Forscherin am Institute for Data Applications and Security IDAS der Berner Fachhochschule tätig. Sie beschäftigt sich in ihrer Forschung unter anderem mit dem Thema Fairness und der Digitalisierung von sozialen und gesellschaftlichen Herausforderungen.

mascha.kurpicz@bfh.ch

Twitter @SocietyData

FOR COMPANIES

FOR WOMEN IN TECH

WITTY WORKS

FOLLOW US

VISIT US

  • White LinkedIn Icon
  • White Twitter Icon
  • White Facebook Icon
  • White Instagram Icon

Witty Works GmbH

Rotwandstrasse 63

CH-8004 Zurich

+41 44 291 00 22

© 2020 witty works