Der Kolonialismus hinter der KI-Infrastruktur

Künstliche Intelligenz (KI) ist der große Gamechanger unserer Zeit und verspricht uns in vielen Bereichen eine strahlende Zukunft. Doch was oft als rein technischer Fortschritt gefeiert wird, ist trotzdem noch von Machtverhältnissen geprägt, die Jahrzehnte, wenn nicht Jahrhunderte zurückreichen. Ein entscheidender Begriff, um dieses Zusammenspiel zu verstehen, ist Daten-Kolonialismus (Data Colonialism). Dabei geht es um die Aneignung digitaler Ressourcen – Daten und Arbeitskraft – vorrangig aus dem Globalen Süden, die von Tech‑Giganten im globalen Norden kontrolliert und zur Profitmaximierung genutzt werden.

Doch die Ausbeutung beschränkt sich nicht auf Arbeitskraft – sie betrifft globale Ressourcen wie Wasser und Rohstoffe. So zogen etwa Google und Microsoft große Rechenzentren an Standorte in Indien, in Gegenden, in denen Wassermangel zur Tagesordnung gehört. Diese profitieren dabei selbst kaum großen KI-Geschäft. Zudem benötigt die Produktion der Rechenchips Unmengen seltener Ressourcen, die ebenfalls oft unter unwürdigen Bedingungen und ohne Blick auf die Umwelt abgebaut werden.

Auch wenn wir Netzpiloten selbst die neuen Möglichkeiten begeistert nutzen, gehört diese andere Seite ebenso gesehen. Es sind Strukturen die auch schon beim Smartphone-Boom existierten und noch aus der Zeit herrührten, in der die großen europäischen Nationen begannen, die Welt außerhalb mit Kolonien unter sich aufzuteilen. Dabei scheint es mit unseren modernen Werten doch eigentlich unvereinbar.

Koloniale Strukturen in der Gegenwart

Um die kolonialen Strukturen hinter künstlicher Intelligenz zu verstehen, muss man zunächst klären, was mit „Kolonialismus“ in diesem Zusammenhang gemeint ist. Klassischer Kolonialismus bezeichnete die politische und wirtschaftliche Beherrschung großer Teile der Welt durch europäische Mächte. Die Folgen: Ausbeutung von Menschen, Rohstoffen und Territorien. Diese Machstrukturen wirken auch noch heute nach.

So gehört Australien noch immer zum Vereinigten Königreich, wenn auch quasi unabhängig mit eigener Regierung. Grönland und die Färöer Inseln sind auch noch immer autonome Teile Dänemarks. Frankreich hat als einziges Land sogar noch mehrere kleine Inselkolonien, die heute allerdings als „Übersee-Départements“ bezeichnet werden und für die auch die selben Einreisebestimmungen gelten und in denen der Euro die Nationalwährung ist.

Doch obwohl die meisten ehemaligen Kolonien inzwischen unabhängig sind, wirken diese Strukturen bis heute nach – in globalen Machtverhältnissen, Handelsbeziehungen, Bildungssystemen und nicht zuletzt in der Verteilung von Technologie und Wissen. Mittlerweile werden diese Strukturen allerdings in erster Linie von Unternehmen ausgebeutet. Noch immer zählen Bodenschätze, aber auch landwirtschaftliche Produkte wie Baumwolle, Kaffee, Kakao oder Kautschuk zu den wichtigsten Ressourcen. Mit Kobalt, Platin und Uran verfügt Afrika aber auch über große Vorkommen wichtiger Ressourcen des Technologie- und Energiesektors. Hinzu kommen nun Daten als neue Ressource. Obwohl die großen Unternehmen wirtschaftlich profitieren, haben die Datenlieferanten kaum Mitbestimmung oder Teilhabe an der Wertschöpfung.

Daten als Rohstoff – Wer produziert, wer profitiert?

Im Zentrum des Datenkolonialismus steht nämlich nicht nur die digitale Datenernte, sondern vor allem die unsichtbare Arbeit. Diese leisten oft Menschen im Globalen Süden – und das häufig unter prekären Bedingungen. Millionen von Menschen in Ländern wie Kenia, Ghana, Venezuela oder Indien arbeiten als Daten-Labeler oder Content-Moderatoren und verdienen dabei oft nur wenige Dollars pro Stunde. Laut einem Bericht der Brookings Institution verdienen diese Arbeiter oft weniger als 2 Dollar pro Stunde, während sie für internationale Tech-Konzerne lebenswichtige Trainingsdaten aufbereiten. Auch Branchenführer Scale AI lagert durch seine eigene Arbeits-Plattform Remotasks diese Arbeit billig aus.

Diese niedrigen Löhne gehen nicht nur mit physischen Belastungen, sondern oft auch mit psychischen Traumata einher. Content-Moderatoren in Ghana und Kenia berichten von starkem emotionalem Stress, PTSD-Symptomen und sogar Suizidversuchen. Diese sind oft bedingt durch den Umgang mit extrem gewalttätigen und sexualisierten Inhalten. Kürzlich forderte die Global Trade Union Alliance of Content Moderators die großen Tech-Unternehmen zu acht globalen Standards auf. Zu diesen zählen realistische Zielvorgaben, psychische Gesundheitsversorgung und existenzsichernde Löhne. 

Die globale Lieferkette von KI‑Datenarbeit funktioniert nach dem gleichen Muster wie historische Rohstoffausbeutung: Arbeiter*innen im Globalen Süden stehen ganz unten, während Konzerne in Nordamerika und Europa die Gewinne einstreichen. Plattformen wie Appen, Sama oder Teleperformance vermitteln diesen Arbeitern Mikroaufträge – doch die Bezahlung ist minimal und die Arbeitsverhältnisse unsicher. Laut eines Wired-Berichts aus 2023, verdient eine Appen-Mitarbeiterin in Venezuela nur circa 1 USD pro 1½ Stunden. Gleichzeitig wächst der Markt für Datenannotation von etwa 2,2 Mrd. USD im Jahr 2022 auf geschätzte 17 Mrd. USD im Jahr 2030 – ein enormes Wirtschaftspotenzial, von dem die Plattformen zentral profitieren. Auch Netzpolitik.org analysierte bereits 2022 deutlich: „Die Beschäftigten in der Datenetikettierungsbranche sind „langweiliger“, „repetitiver“ und „nicht enden wollender Arbeit“ ausgesetzt“ und „Arbeiter bei Sama verdienten nur etwa 8 US-Dollar pro Tag”.

KI-Infrastrukturen und ihre geopolitische Verortung

Die kolonialen Infrastrukturen betreffen aber nicht nur die Arbeitskräfte der Datenaufbereitung, sondern auch physische Infrastrukturen. Tech-Giganten und neuere KI-Unternehmen ziehen immer häufiger Rechenzentren in Regionen hoch, in denen Energie, Wasser und Land relativ günstig sind – häufig im Globalen Süden, aber auch in Wasserstressgebieten des globalen Nordens.

Ein zentrales Problem dabei ist der exorbitante Wasserverbrauch durch Kühlung. In Lateinamerika, etwa in Dürreregionen Brasiliens, errichten TikTok und andere große Player riesige Datenzentren. Bei diesen verdunstet oft bis zu 80 % der entnommenen Wassermengen – obwohl die Bevölkerung ohnehin unter Wasserknappheit leidet. Diese Entwicklung hat gravierende Folgen: Der Wasserentzug aus Ökosystemen gefährdet Landwirtschaft, Trinkwasserversorgung und lokale Lebensräume – ein erschreckendes Spiegelbild kolonialer Ressourcenausbeutung. Aber auch in den USA wachsen Datenzentren wie Pilze aus dem Boden – auch hier oft in Regionen mit Wasserknapptheit. Neben dem subtropischen Virginia, gehören auch Texas und Kalifornien zu den US-Staaten mit den meisten Rechenzentren.

Hinzu kommt der enorme Energiebedarf – oft gedeckt durch fossile Energiequellen– der zur Kühlung und zum Betrieb dieser Anlagen nötig ist. Laut Business Insider wächst das Strombedürfnis so rasch, dass Datenzentren bald mehr verbrauchen könnten als manche Länder, während gleichzeitig die Luftverschmutzung enorme gesellschaftliche Kosten verursacht: jährlich zwischen 5,7 und 9,2 Milliarden US‑Dollar.

Das Ergebnis ist ein zweifaches Ungleichgewicht: Tech-Konzerne verlegen ihre Infrastrukturen gezielt in Regionen mit niedrigen Betriebskosten – unabhängig davon, wie stark diese Regionen unter Wasser- oder Energieknappheit leiden. Die negativen Auswirkungen – Umweltzerstörung, Landnutzungskonflikte, steigende Kosten für Anwohner – bleiben auf der Strecke. Währenddessen genießen die Konzerne Skalenvorteile und sichern ihre globale AI-Dominanz.

Nachhaltigkeit: Wenn aus Einsparung Wachstum wird

Einige Großkonzerne reagieren bereits mit Bemühungen um Nachhaltigkeit. Google und Microsoft investieren etwa in erneuerbare Energien und versprechen, ihren Wasserverbrauch bis 2030 vollständig aufzufüllen. Doch bisher wurden nur etwa 6 % des entnommenen Wassers ersetzt. Andere setzen auf technische Innovationen wie wasserlose Kühlung oder neuartige Kühlsysteme, unter anderem auch Unterwasser-Rechenzentren – doch diese befinden sich meist noch in Pilotprojekten.

Das gute bei der Sache: Nachhaltigkeit ist mittlerweile attraktiv. Zum einen ist es gesellschaftlich gefordert, zum anderen kann es etwa im Fall von Rechenzentren aber auch enorm viel Geld sparen.

Die Wahrheit ist aber auch, dass gerade im Fall der Künstlichen Intelligenz ein riesiger Wettbewerb herrscht. Wenn man also die gleiche Rechenpower ressourcensparender umsetzen kann, gibt man sich nicht damit zufrieden, sondern investiert das gesparte direkt in noch mehr Rechenkapazitäten. Da führt mit unter dazu, dass die Einsparung zu mehr Belastungen führt, weil das noch günstigere Verhältnis von Preis zu Leistung das Wachstum befeuert.

Epistemische Gewalt und westliche Wissenshegemonie

Neben Lohndumping und IT-Infrastruktur findet sich der Kolonialismus der Künstlichen Intelligenz aber auch in den Trainingsdaten selbst. Die sind geprägt von dem, was man als epistemische Gewalt bezeichnet: bestimmte Wissensformen und Weltbilder werden übernommen, andere marginalisiert oder ganz ausgelöscht.

Wie Joy Buolamwini und Timnit Gebru bereits 2018 zeigten, basieren viele KI-Modelle auf Datensätzen mit überwiegend hellhäutigen Männern – als Folge erreichen Systeme Zursorgungsrate von unter 1 % für diesen Kreis, aber bis zu 47 % Fehler bei dunkelhäutigen Frauen. In England wächst derweil der Druck, Live-Erkennung zu regulieren oder gar zu verbieten. Studien zeigen dort, dass Menschen mit dunkler Haut überproportional häufig falsch identifiziert werden – ein klarer Fall epistemischer und sozialer Gewalt.

Das Problem geht allerdings weit über Gesichtserkennung hinaus. Im Finanzsektor etwa haben Algorithmen mögliche Diskriminierung in Kreditvergabe und Versicherungen verstärkt – weil sie auf historischen Daten beruhen, die systematische Benachteiligung bestimmter Gruppen reflektieren. Diese Verzerrungen sind Ausdruck eines westlichen Wissenshegemonismus: KI-Entwickler*innen verwenden Kategorien, Normen und Daten aus ihrem eigenen kulturellen Kontext – oft ohne systemische Berücksichtigung alternativer Perspektiven. Das geschieht nicht einmal bewusst, sondern oft durch die Herkunft der Datenquellen. So fehlen lokale, indigene oder nicht-westliche Wissenssysteme fast vollständig in gängigen Trainingsdaten. Wissenschaft und Technologie bestimmen so, welche Geschichten erzählt, welche Realitäten abgebildet werden – und welche ausgeblendet bleiben.

Aktuell mehren sich kritische Stimmen, die eine dekoloniale Perspektive fordern. Der Begriff “Decolonial AI” versteht KI als interdisziplinäres Projekt, das ethnische, kulturelle und epistemologische Diversität braucht, um gerecht zu sein. Beispielsweise schlägt der Decolonial Intelligence Algorithmic-Ansatz vor, KI-Systeme gezielt auf Basis indigener und Süd-Global-Daten zu entwickeln – als Gegenentwurf zu normativer Westzentriertheit.

Wege aus dem KI-Kolonialismus

Inmitten der Ausbeutungsstrukturen formiert sich zunehmend Widerstand – sowohl von den Betroffenen selbst als auch von zivilgesellschaftlichen Gruppen, Forscher*innen und Organisationen weltweit. Immer lauter werden Stimmen aus dem Globalen Süden, die Daten-Gerechtigkeit, technologische Souveränität und dekoloniale KI fordern.

In ländlichen Regionen Afrikas und Lateinamerikas gibt es bereits Initiativen, datenbasierte Genossenschaften und Gemeinschaftsnetzwerke, die eigenen Daten kontrollieren und lokal für KI-Anwendungen nutzen – etwa für Landwirtschaft oder Bildung .Indigene Bewegungen, beispielsweise unter Otomí-Gemeinschaften in Mexiko, bauen autonome Server und verteidigen ihre digitale Selbstbestimmung gegen Big Tech.

Payal Arora entwickelte das Konzept Creative Data Justice, das indigene und globale Süd-Kulturen als gleichwertige Quellen für künstliche Kreativität anerkennt. Afrikanisch inspiriertes „Black Decolonial Data Science“ postuliert Prinzipien wie Selbstbestimmung, Gemeinwohl und Jugendförderung – um antikoloniale Perspektiven ins Zentrum von KI zu rücken. Aktivist*innen wie die Algorithmic Justice League (gegründet von Joy Buolamwini) treibenzudem  Öffentlichkeitsarbeit, politische Regulierung und Audits gegen algorithmische Vorurteile voran. Darunter fällt etwa das „DumpID.me“-Verfahren zur Regulierung von Gesichtserkennung

Auch bei den Arbeitsbedingungen gibt es Bewegung. So gründete sich zuletzt in Nairobi die „Global Trade Union Alliance of Content Moderators“ (GTUACM), die in Ländern wie Kenia, Ghana und den Philippinen aktiv ist. In Kenia haben 150 Moderator:innen eine Gewerkschaft gegründet – unter anderem wegen Traumatisierung durch Darstellung gewalttätiger Inhalte und extrem niedriger Löhne (< 2 USD/Stunde).

Da in diesen Ländern oft jedoch die finanzielle Not der Taskworker ausgenutzt wird, muss auch in der westlichen Welt überhaupt ein breiteres Bewusstsein für den Daten-Kolonialismus geschaffen werden. Das gilt allerdings auch viele andere Produkte. Für das Gewissen ist es oft bequemer, nicht so genau zu wissen, warum wir sie so günstig kaufen können.


Image via ChatGPT (KI-generiert)

Das Internet ist sein Zuhause, die Gaming-Welt sein Wohnzimmer. Der Multifunktions-Nerd machte eine Ausbildung zum Programmierer, schreibt nun aber lieber Artikel als Code.


Artikel per E-Mail verschicken