Abschlussreflexion
Zum Abschluss des Workshops setzen sich alle Teilnehmenden zusammen und reflektieren gemeinsam über die Erkenntnisse des Tages. Was wurde gelernt? Feedback? Fragen?
Wie kann man eine “faire” KI schaffen?
- Erfassung von Daten ohne Vorurteile
Es wird oft gefordert, dass die verwendeten Daten frei von Vorurteilen sein sollten. Allerdings ist dies leichter gesagt als getan, da Daten die Realität abbilden, wie sie ist – einschließlich bestehender gesellschaftlicher Ungleichheiten und Diskriminierungen. Die Herausforderung liegt darin, Daten so zu bereinigen, dass sie gerechtere Ergebnisse ermöglichen, ohne dabei relevante Kontexte oder Zusammenhänge zu verzerren. - Regelmäßige Überprüfung und Aktualisierung der Daten
Daten und Algorithmen sollten kontinuierlich geprüft und aktualisiert werden, um Verzerrungen zu erkennen und zu beheben. Doch selbst regelmäßige Updates können Vorurteile nicht vollständig beseitigen, da auch die Menschen, die die Updates vornehmen, eigene Perspektiven und unbewusste Annahmen einbringen. - KI als Hilfsmittel in der Personalabteilung
Die Nutzung von KI sollte auf unterstützende Funktionen beschränkt sein und darf keine alleinige Entscheidungsgewalt haben. Es ist wichtig, dass Menschen in der Personalabteilung die Ergebnisse der KI kritisch hinterfragen, anstatt sie ungeprüft zu übernehmen. Dennoch bleibt die Gefahr, dass die scheinbare Objektivität der KI dazu führen könnte, dass Vorurteile auf subtilere Weise reproduziert werden. - Schaffung gesetzlicher Grundlagen, beispielsweise durch den „AI Act“ der Europäischen Union
Der AI Act ist ein Gesetz der EU, das KI-Systeme je nach Risiko für Gesundheit, Sicherheit und Grundrechte reguliert und verbietet Anwendungen mit unannehmbarem Risiko. Es fordert Transparenz und strenge Anforderungen für hochriskante Systeme, um Innovation zu fördern und die Bürger zu schützen.
Vorurteile und Diskriminierung sind tief in der Gesellschaft verankert und können nicht allein durch technische Lösungen oder „faire“ KI beseitigt werden. Eine KI spiegelt immer die Welt wider, aus der ihre Daten stammen, und diese Welt ist weder neutral noch gerecht. Die Vorstellung, Daten vollständig „vorurteilsfrei“ zu gestalten, ist daher äußerst komplex und oft unrealistisch.
Um tatsächlich Fortschritte zu erzielen, ist es notwendig, die gesellschaftlichen Strukturen und Denkmuster zu hinterfragen, die Diskriminierung und Ungleichheit hervorbringen. KI kann hierbei nur ein Werkzeug sein, das Teil einer umfassenderen, interdisziplinären und gesellschaftlichen Anstrengung ist. Ohne diese breitere Perspektive besteht die Gefahr, dass technische Lösungen als Ersatz für tiefgreifende gesellschaftliche Veränderungen gesehen werden.