Dein smartes Zuhause will dich umprogrammieren

Ein Vater findet heraus, dass seine Tochter schwanger ist, weil Algorithmen die entlarvenden Muster in einer Kundenkarte der Familie herausfiltern. Die Polizei findet Verdächtige in zwei verschiedenen Mordfällen anhand ihres Fitbit-Trackers und eines smarten Wasserzählers. Ein Mann verklagt Uber für das Auffliegen seiner Affäre.

Solche Geschichten geschehen immer häufiger, weil sich die Technik immer mehr in unser Alltagsleben integrieren. Sie sind Teil des Internet of Things (IoT) – dem Einbetten von Sensoren und Internetverbindungen in den Stoff der Welt um uns herum. Im letzten Jahr hat die Technik, allen voran Alexa von Amazon und Home von Google, begonnen, ihre Präsenz in unseren Haushalten in Form von Smart-Home-Geräten spürbar werden zu lassen, die uns alles durch unsere Stimme kontrollieren lassen

Wir mögen Geschichten noch als technische Fehler abtun, oder als Ereignisse, die der Gerechtigkeit Genugtuung verschaffen. Doch verbirgt sich dahinter etwas Größeres: Die Entwicklung einer ganzen Klasse von Technologien, die die Fundamente unseres täglichen Lebens auf den Kopf stellen werden.

Das soziale Gefüge brechen

Die Technik will physisch und psychisch allgegenwärtig sein und uns die Kontrolle über alle Bereiche geben. Smart Homes versprechen eine Zukunft, in der versteckte Technologien Services bieten, von denen wir zuvor gar nicht wussten, dass wir sie wollen. Sie verwenden Sensoren, um die Welt um uns herum begreifbar zu machen und uns darin anzuleiten. Es ist ein Versprechen fast grenzenlosen Ausmaßes und Praktikabilität ohne Aufwand.

Es ist auch komplett inkompatibel mit der sozialen Realität: Das Problem ist, dass unser Leben recht eingeschränkt ist. Das zeigt sich nirgendwo so gut wie im eigenen Zuhause, dem Hauptziel der neuen Technologien. Von innen fühlen sich diese Orte chaotisch an – aber sie sind dennoch klar geordnet. Hier herrschen Grenzen und Hierarchien: Wer darf in welches Zimmer, wer bekommt die Fernbedienung, mit wem teilen wir unsere Geheimnisse und vor wem verbergen wir sie?

Vieles davon mag banal erscheinen, aber wenn man sehen möchte, wie wichtig diese Systeme der Hierarchien sind, sollte man die Experimente des Soziologen Harold Garfinkel aus den 1960ern beachten: Garfinkel hat dabei absichtlich die sozialen Regeln gebrochen, um diese sichtbar zu machen. Die meisten Interaktionen fehlerhaft durchzuführen, löste eine Bandbreite von Reaktionen in den Testpersonen aus, die von Stresssymptomen bis hin zu Gewalt reichten. Man kann das auch ganz einfach selbst ausprobieren: Beim nächsten Abendessen verhalte man sich ganz normal – nur dass man jedes Mal, wenn jemand etwas sagen möchte, denjenigen mit einem lauten Summen unterbricht. Dann beobachte man, wie lange es dauert, bis dem jeweiligen gegenüber der Geduldsfaden reißt.

Die Smart-Home-Technologien fordern unsere sozialen Regeln und Normen auf unzählige Arten heraus. Oft sind es kleine Dinge. Und die erste Limitierung ist, dass die Systeme die Gesetze nicht erkennen können, die für uns selbstverständlich sind. Ich selbst hatte eine solche Erfahrung: Vor einer Woche saß ich in meinem Zimmer. Unabsichtlich streamte ich ein YouTube-Video, bei dem ziemlich viel geflucht wurde, auf den Fernseher meines Nachbarn. Seine 4-jährige Tochter war ziemlich überrascht, als plötzlich mein Video statt der Kinderserie Paw Patrol über den Bildschirm flimmerte.

Es war wortwörtlich nur ein einziger Knopfdruck nötig – und es konnte nicht abgeschaltet werden. Das und der Umstand, dass ich ihr WLAN-Passwort habe, weil ich öfters für sie babysitte. Derjenige, der sein WIFI hergibt, opfert alles.

Natürlich haben wir immer noch Passwörter, um wenigsten ein paar Grenzen aufrechtzuerhalten. Dennoch haben Smart-Home-Technologien die Tendenz dazu, Daten zu erstellen, die nicht in die personalisierten Boxen der Konsumenten-Technologien passen. Die interpersonellen Daten betreffen Gruppen, nicht Individuen, und „smarte“ Technologien sind momentan noch ziemlich dumm, wenn es darauf ankommt, diese zu managen. Das kann auch witzig sein: Manche Eltern haben plötzlich „große Fürze“ auf ihrer digitalen Einkaufsliste stehen, die von Amazons Alexa generiert wird. Zu anderen Gelegenheiten kann dies auch negative Konsequenzen nach sich ziehen – so wie beim Beispiel mit der schwangeren Tochter.

Bei unseren eigenen Untersuchungen haben meine Kollegen und ich herausgefunden, dass es noch ein weiteres Problem gibt: Die Technik macht oft Fehler. Wenn es diese mit den falschen Daten im falschen Kontext macht, können die Ergebnisse desaströs sein: Bei einer unserer weiteren Untersuchungen erfuhr eine Ehefrau, dass ihr Mann den ganzen Tag in einem Hotel in der Stadt verbracht haben soll. Tatsächlich hat schlichtweg ein Algorithmus ein GPS-Signal falsch interpretiert – in einer Beziehung, die auf wenig Vertrauen basiert, könnte dies allerdings ein Scheidungsgrund sein.

Neucodierung ablehnen

Die Technologien sind dabei, einige der banalsten Abläufe in unseren Alltagsleben neu zu codieren. Meist geschieht das jedoch unbeabsichtigt. Sie wissen, wie wir mit unseren engsten Vertrauten leben und sind also Teil eines großen sozialen Experiments. Wenn es zu mühsam ist, sie zu nutzen, werden wir sie mit großer Wahrscheinlichkeit ablehnen.

Das ist auch das Schicksal von Google Glass, der smarten Brille mit Kamera und Display: Sie war einfach zu offen für die Überschreitung unserer Vorstellungen von angemessenem Verhalten. Dieses Unbehagen drückte sich auch im Terminus „Glassholes“ aus – einem pejorativen Wort für die User von Google Glass. Zweifelsohne werden die Technologieriesen, die solche Produkte verkaufen, auch weiter an ihnen arbeiten, um derlei Ergebnisse zu verhindern. Dennoch wird es eine Herausforderung bleiben, der Technik die komplexen Nuancen unserer Welt beizubringen – ohne dass wir sie ständig bei der Hand nehmen müssen und ihr Vorhaben, unser Leben zu vereinfachen, vollkommen abzulehnen.

Der momentane Ansatz, an die sozialen Strukturen unserer Heime anzuknüpfen, ist nicht nachhaltig. Bis es soweit ist, dass KI unsere Welt verstehen lernen, könnte das Smart Home, das uns versprochen wird, viel eingeschränkter sein als ihre Befürworter es sich vorstellen wollen. Wer an dem Experiment teilnehmen möchte, sollte unseren Vorschlag beherzigen: Vor allem gilt Vorsicht, da sich die Smart Homes im sozialen Bereich noch eher dämlich anstellen. Vor allem sollte man aufpassen, dass man nicht aus Versehen auf den Fernseher seines Nachbarn zugreift.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Google Home tech“ by NDB Photos (CC BY-SA 2.0)


The Conversation

ist Soziologe und hat seinen Doktor in Naturwissenschaften und Technologie. Zurzeit arbeitet er am Horizon Institut an der Universität von Nottingham.


Artikel per E-Mail verschicken
Schlagwörter: , , , , , , , , , , , ,

2 comments

  1. https://uploads.disquscdn.com/images/ccd3f47f56aa48afb0ab329cf5e401d5eddd613773a6232026e9b0c414535acf.jpg

    Und die Telekom verkauft die Bewegungsdaten ihrer Mobilkunden an Jost von Brandis. Die Agentur für Außenwerbung kann nun von 40 Millionen Nutzern die Bewegungsströme nachweisen und für die Planung nutzen. Einst gab es einen Werbeslogan, der lautete: „Früher oder später kriegen wir dich“. Das SPÄTER können wir wohl streichen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert