Warum KI keine Emotionen kennt: Professorin Moore über die Gefahren des KI-Booms und Datensammlung
Der KI-Boom weckt große Hoffnungen – doch Professor Moore mahnt zur Vorsicht. Im Interview erklärt die Wissenschaftlerin, warum künstliche Intelligenz noch weit von menschlichen Fähigkeiten entfernt ist und weshalb uns ein gewisses Unbehagen gegenüber der Technologie sogar guttut. Sie warnt vor übermäßiger Datenerfassung am Arbeitsplatz und plädiert dafür, den Menschen statt die Maschine in den Mittelpunkt zu stellen.
Professor Moore, was war die letzte Frage, die Sie ChatGPT gestellt haben?
Moore: Die letzte Frage, die ich ChatGPT gestellt habe, war, ob es Updates oder Plug-ins gibt, die dabei helfen können, herauszufinden, ob Studierende ChatGPT verwenden. Ein großer Teil meiner Nutzung besteht darin, zu analysieren, inwieweit KI für Essays genutzt wird. Wir beobachten an Universitäten zunehmend, dass Studierende möglicherweise solche Tools einsetzen. Zum Beispiel fällt uns auf, dass, wenn Studierende auf eine Frage antworten, ohne Material aus dem Kurs oder dem Modul zu nutzen, sondern eine Art standardisierte Liste von Antworten finden, diese Listen oft in mehreren Essays gleich sind. Daher versuche ich, die Nutzung durch Studierende zu identifizieren. Das war bisher mein Hauptanliegen bei der Nutzung von ChatGPT.
Manche sagen, dass das Aufkommen von KI, die jetzt für alle leicht zugänglich ist, vergleichbar ist mit der Einführung des Internets. Es hat damals alles verändert. Sehen Sie das ähnlich?
Moore: Tatsächlich existiert KI im Sinne einer universellen, allgemeinen Intelligenz noch nicht. Was wir derzeit haben, ist ein Fortschritt in diese Richtung, aber letztlich basiert es immer noch auf Regressionsmodellen. Die Datenbanken, die Bilder oder Texte sammeln, dienen als Grundlage für maschinelles Lernen. Wir neigen dazu, die Intelligenz, die durch KI demonstriert wird, mit menschlicher Intelligenz gleichzusetzen. Das ist jedoch problematisch, da selbst menschliche Intelligenz komplex und nicht einheitlich ist. Der derzeitige „Hype“ um KI spiegelt meiner Meinung nach eine Verwirrung über die Natur der menschlichen Intelligenz wider. Es geht weniger darum, dass KI die Gesellschaft verändern könnte, sondern vielmehr darum, dass sie unser kritisches Denken und unser Verständnis vom Menschsein beeinflussen könnte. Das ist besonders wichtig in einer Zeit, in der rechtsextreme Strömungen in vielen Teilen der Welt zunehmen. Deshalb glaube ich, dass wir uns eher auf die menschliche als auf die künstliche Intelligenz konzentrieren sollten.
Sie beschäftigen sich in Ihrer Forschungsarbeit mit Datenerfassung. Können Sie ein konkretes Beispiel nennen, wie das in der Praxis bereits genutzt wird?
Moore: Im Vereinigten Königreich wurden Daten über die Stresslevel von Arbeitnehmer:innen gesammelt. Wenn Mitarbeitende Zugang zu solchen Daten haben, können sie sie nutzen, um Arbeitsbedingungen zu verbessern. Sie könnten etwa belegen, dass Stress mit negativen Arbeitsbedingungen oder Überlastung zusammenhängt. Allerdings gibt es oft keinen Zugang zu solchen Daten, obwohl sie personenbezogen sind. Selbst wenn Zugang gewährt wird, bedeutet das nicht, dass man damit auch Veränderungen bewirken kann. Es braucht kollektive Diskussionen und Mobilisierung, um diese Daten sinnvoll einzusetzen.
Gibt es Beispiele für problematische Datenerfassung?
Moore: Sentiment-Analyse ist ein weit verbreitetes Beispiel. Dabei wird Text aus Kommunikation, etwa zwischen IT-Support und Kunden, analysiert. Wörter werden kodiert, klassifiziert und so bewertet. Sprache ist aber sehr persönlich und das kann dazu führen, dass bestimmte Mitarbeiter:innen benachteiligt werden. Noch kritischer wird es bei der Erkennung von Emotionen. Diese kann physiologisch und physisch ausgedrückt werden, aber auch hier bleibt vieles unklar. Unternehmen sollten nicht nur transparente Gründe für Datenerfassung angeben, sondern auch sicherstellen, dass diese Daten nicht für andere Zwecke missbraucht werden – ein Prinzip, das in der DSGVO verankert ist, aber oft nicht konsequent umgesetzt wird.
Wie sollten Arbeitnehmende auf Überwachung am Arbeitsplatz reagieren?
Moore: Überwachung wird oft als „gruselig“ oder „unangenehm“ empfunden – Begriffe, die zunehmend verwendet werden. Das hängt stark davon ab, ob es eine offene Kommunikation und Mitspracherechte gibt. In idealen Arbeitsumgebungen, wo Mitarbeitende gut bezahlt werden und Rechte haben, fühlen sie sich eher ermächtigt, Fragen zu stellen und Forderungen zu stellen. Ich plädiere für mehr Diskussionen über Zweckmäßigkeit und Verhältnismäßigkeit neuer Technologien. Unternehmen sollten ihre Investitionen in Technologie rechtfertigen und Mitarbeitende in Entscheidungsprozesse einbinden.
Wie stehen Sie persönlich zu dem Thema – eher skeptisch oder optimistisch?
Moore: Ich werde oft als skeptisch wahrgenommen, da ich gerne die Schattenseiten beleuchte. Aber ich denke, es ist wichtig, dass wir uns in dieser historischen Phase unwohl fühlen. Denn dieses Unbehagen weist uns auf grundlegende Probleme hin.Technologie sollte nicht als alleinige Lösung gesehen werden. Stattdessen sollten wir menschliche Intelligenz priorisieren. Der Fokus auf Datenextraktion und algorithmische Prozesse kann dazu führen, dass wir uns von unserer eigenen Rolle als Datenproduzenten entfremden. Es entsteht eine Rückkopplungsschleife, die uns letztlich entmachtet. Deshalb halte ich Skepsis für angebracht und betone, dass soziale Beziehungen ohne Technologie gefördert werden sollten.
Prof. Dr. Phoebe V. Moore ist Professorin für Management und die Zukunft der Arbeit an der University of Essex Business School und Senior Fellow am Institute for the Future of Work sowie an der Internationalen Arbeitsorganisation. Auf ihrem Blog „The Quantified Worker“ schreibt sie regelmäßig über KI und die Arbeitswelt.