ChatGPT und andere sogenannte "generative Sprachmodelle" haben ein enormes Potenzial, um zu verändern, wie wir arbeiten und schreiben. Diese helfen Mitarbeitenden in den Bereichen Marketing und Kommunikation, schneller und kreativer zu sein. Es ist klar: Solche Sprachmodelle werden stark beeinflussen, wie wir miteinander kommunizieren.
Allerdings bergen solche Sprachmodelle auch ein Risiko: Sie neigen dazu, Stereotypen und Vorurteile zu replizieren, die tief in unserer Gesellschaft und Geschäftswelt verwurzelt sind. Warum? Weil sie sich von vergangenen, von Menschen generierten Inhalten ernähren. OpenAI, die Firma hinter ChatGPT, weist sogar in ihren FAQs darauf hin.
Eine von mehreren Warnhinweisen, die nach der Anmeldung bei ChatGPT angezeigt werden.
Für Mitarbeitende aus den Bereichen Marketing und Kommunikation gibt es ein entscheidendes Risiko: Solche Sprachmodelle replizieren Vorurteile, die unsere Zielgruppen abschrecken könnten, insbesondere solche mit diversem Hintergrund. Wir wissen aus einer Studie von Microsoft, dass 70% der Generation Z Marken vertrauen, die inklusive Werbekampagnen haben. Besonders in unserer Marketing- und Vertriebskommunikation müssen wir sehr sensibel sein, wie wir kommunizieren. Deshalb wurde inklusive Sprache überhaupt erst erfunden: um Vorurteile und Stereotypen - oft unbewusst - abzulegen. Wir sollten niemanden diskriminieren oder ausschließen. Das schadet unserem Geschäft und unserem Ruf und wir werden für neue Talente unattraktiv.
In Marketing- oder Employer-Branding-Kampagnen ist es zentral sicherzustellen, dass wir alle ansprechen und alle das Gefühl haben, dass sie dazugehören. Inklusive Sprache ist ein Hebel, um in einer so vielfältigen Welt wie heute mehr Inklusion zu erzeugen. Aber die Verwendung solcher Sprachmodelle könnte diesem Ziel entgegenwirken.
Da wir die breite Verwendung von Texten, die von ChatGPT produziert werden, voraussehen - und damit das Risiko besteht, dass Stereotypen repliziert und Zielgruppen ausgeschlossen werden, wollten wir ChatGPT testen. Erstellt ChatGPT, wenn wir explizit dazu auffordern, inklusive Inhalte erstellen? Oder anders gesagt: Sind generative Sprachmodelle in der Lage, inklusive Sprache zu produzieren?
Um dies herauszufinden, führten wir eine experimentelle Studie zu folgenden Fragen durch:
- Kann ChatGPT inklusive Sprache generieren, wenn man ChatGPT darauf hinweist?
- Kann ChatGPT seine Entscheidungen erklären?
- Wenn ChatGPT mit einer inklusiven Sprach-KI kombiniert wird, können wir sicherstellen, dass der Inhalt inklusiv geschrieben ist?
In der Studie geben wir einen Überblick darüber, wie ChatGPT funktioniert, was seine Stärken und Schwächen sind, speziell mit Fokus auf Vorurteile, und wie sich Witty davon abhebt. Wir erläutern unser Experiment, um diese Stärken und Schwächen in der Praxis zu veranschaulichen. Am wichtigsten ist, dass wir zeigen, wie ChatGPT von der Kombination mit Witty profitieren kann, um Inhalte mit inklusiver Sprache zu produzieren.
