All posts under MSFT Explained

FYI: Corporate Innovation geht nicht nach Blaupause, sie zu kennen lohnt sich aber

Business (adapted) (Image by jarmoluk [CC0 Public Domain] via pixabay)

Dieser Beitrag ist Teil einer Artikelreihe im Vorfeld der Digitalkonferenz EXPLAINED von Microsoft Deutschland. Die Konferenz findet am 23. März 2017 in Berlin statt.


Unsere Sprache gibt uns den Rahmen vor, indem wir dazu in der Lage sind, Gedanken zu formulieren. Verallgemeinerungen sind deshalb die sprachlichen Ursprünge von Missverständnissen. Wie beispielsweise der Annahme, dass Jugend ein Garant für Innovation sei (Startups) oder das Erfahrung mit Leistung gleichzusetzen ist (Corporates).

Wir kennen Beispiele für beide Behauptungen, das bedeutet aber nicht, dass dies deshalb auf alle Startups oder eben alle Corporates zutrifft. Obwohl es sicherlich Muster gibt, aus denen vermeintliche Vorlagen abgeleitet werden können, muss jedes einzelne Unternehmen in der Wirtschaft selbst herausfinden, wie es innovativ und leistungsfähig sein kann.

Um zu innovieren, müssen Corporates die verschiedenen Wege kennen und dann mit den Fähigkeiten und der Struktur des eigenen Unternehmens abgleichen. Die ausschließlich auf Geld setzenden Lösungen – Übernahmen, Investitionen, Sponsoring (in externe Accelerator) – lasse ich aus und widme mich den Wegen, die wirklich Veränderungen abverlangen.

Entweder: Innovation im Unternehmen

Die meiner Meinung nach wirklich lohnenswerten Lösungen können in zwei Gruppen aufgeteilt werden: firmeninterner und kooperierender Natur. Der ersten Gruppen gehören Strategien wie ein „Innovation Team“ an, ein internes „Innovation Lab“ und vor allem Intrapreneur-Programme für die eigene Belegschaft innerhalb des Unternehmen.

Für ein „Innovation Team“ braucht man Mitarbeiter, die Veränderungen verstehen und kommunizieren können. Diese entwickeln neue Prozesse und etablieren diesen im Unternehmen. Ein „Innovation Lab“ wiederum besteht aus Mitarbeitern verschiedener Bereiche, um funktionsübergreifend Wissen zu teilen und so Innovationen zu entwickeln.

Beide Lösungen habe ich bereits von Unternehmen, die Mitglieder im Berliner Coworking Space St. Oberholz sind und solche Gruppen dort hingeschickt haben, beobachten können. Eine wichtige Lektion hierbei für mich war, wie wichtig dieser Tapetenwechsel, also in einer Umgebung wie einem Coworking Space statt einem Hauptquartier zu arbeiten, sein kann.

Ein Intrapreneur-Programm gibt Mitarbeitern eine Plattform und die Ressourcen zur Umsetzung eigener Ideen innerhalb des Unternehmens. Die Mitarbeiter wissen meist am besten, was nicht gut läuft. Sie zu motivieren, dies zu lösen, halte ich für äußerst spannend. Wir haben dies einem unserer Mitglieder vorgeschlagen, die dass bald wagen werden.

Oder: Innovation durch Kooperation

Image by Tobias Schwarz
Das St. Oberholz in Berlin.

Es lohnt sich aber auch, einmal umzuschauen, wie andere es machen. Das muss aber nicht eng auf den Corporate-Bereich fokussiert sein, gerade im vermeintlich Exotischen findet man oft die interessanteste Inspiration. Hier wirkt das Phänomen der Serendipität am besten und eine überraschende Beobachtung erweist sich als für einen selbst besonders wertvoll.

Das St. Oberholz ist feste Station solcher Touren in Berlin. Auch andere Coworking Spaces in der Stadt kennen dieses Phänomen, der wie Touristen nach Berlin reisenden Unternehmen. Aufgrund der Nachfrage habe ich inzwischen, als ein Projekt des von mir im letzten Jahr mitgegründeten Institut für Neue Arbeit, ein Reisebüro für Corporate-Tourismus entwickelt.

Nach Innovation suchend zu reisen sorgt für die größte Veränderung im Denken und darauf kommt es an. Branchen sollten Innovation-Stützpunkte in anderen Regionen eröffnen, um vor Ort neue Ideen, andere Märkte und mögliche Partner kennenzulernen. Für „Das Netz 2016/2017“ habe ich 16 Orte, die das nächste Silicon Valley sein wollen, einmal vorgestellt.

Je nach Branche und Standort lohnt sich unter Umständen auch die enge Kooperation mit den hiesigen Hochschulen und Initiativen, vor allem beim Thema Forschung und Entwicklung. So können erste Schritte mit neuen Akteuren zusammen gemacht werden, positive Erfahrungen adaptiert, wenn nicht sogar ganze Projekte danach integriert werden.

Reminder: Corporate Innovation geht nicht nach Blaupause

Diese drei internen und drei externen Strategien sind kein Garant für Erfolg und Innovation. Sie sind aber ein Weg dahin, der, wenn er richtig gegangen wird, den Grundstein für Erfolg legt: ein verändertes Denken und Handeln. Ohne ein sich vom Status Quo unterscheidendes Mindset kann keine Innovation entstehen. Egal wie viel Geld man wem auch hinterherwirft.

Auf der EXPLAINED-Digitalkonferenz am 23. März 2017 wird Kai Jäger vom Deutsche Bank Labs darüber sprechen, wie Banken sich in Corporate Innovation durch Zusammenarbeit mit Startups versuchen. Ich bin auf den Vortrag gespannt (wie auch auf den Vortrag von Peter Jaeger), denn Banken haben oft eine sehr herausfordernde Unternehmenskultur im Gepäck.


Image (adapted) „Business“ by jarmoluk (CC0 Public Domain)


 

Weiterlesen »

Fabian Westerheide über Künstliche Intelligenz

Neural (adapted) (Image by geralt [CC0 Public Domain] via pixabay)

Dieser Beitrag ist Teil einer Artikelreihe im Vorfeld der Digitalkonferenz EXPLAINED von Microsoft Deutschland. Die Konferenz findet am 23. März 2017 in Berlin statt.


Künstliche Intelligenz (KI) und die Frage, was den Menschen und die Maschine zusammenbringt, treibt den Unternehmer, Venture Capitalist, Autor und Redner Fabian Westerheide um. Nachdem er in verschiedene Unternehmen investierte, ist er seit 2014 Geschäftsführer von Asgard – human VC for AI und leitet die KI-Konferenz Rise of AI. Außerdem ist er Koordinator für Künstliche Intelligenz beim Bundesverband Deutscher Startups. Ich habe mich mit ihm im Vorfeld zur Digitalkonferenz EXPLAINED von Microsoft Deutschland, bei der er als Speaker auftreten wird, zum Interview getroffen.

Was fasziniert Sie an Künstlicher Intelligenz?

Das war ein Prozess. Ich komme vom Land und habe schon immer an Computern herumgebastelt und mich für die Auswirkungen zwischen Mensch und Maschine interessiert. Dann bin ich Unternehmer geworden und habe in insgesamt 35 Firmen investiert, von denen die meisten aus dem Softwarebereich stammen. Irgendwann wusste ich, dass das Thema Künstliche Intelligenz, was mich durch Science-Fiction-Literatur schon seit den Achtzigern beschäftigt hat, endlich greifbar wurde. Mich fasziniert vor allem, dass es so ein komplexes Thema ist und wirtschaftliche, gesellschaftliche, militärische und politische Konsequenzen hat. Es betrifft sowohl Unternehmen als auch den einzelnen Menschen, es betrifft letztlich die ganze Menschheit. Das ist ein Thema, bei dem ich meine ganze Begeisterung für Politik und Gesellschaft einfließen lassen kann. Und ich fühle mich sehr wohl damit, weil es um mehr als Geldverdienen geht. Künstliche Intelligenz kann wirklich die Menschheit verändern – in die eine oder in die andere Richtung.

Was ist der nächste Entwicklungsschritt für die Künstliche Intelligenz?

Die Maschine muss noch besser lernen zu lernen. Das bedeutet, dass sie mit wenige Daten zurecht kommt und mit weniger Transferwissen arbeiten kann. Zum Beispiel kann man derzeit eine KI, die ein bestimmtes Auto fährt, nicht einfach in ein anderes selbstfahrendes Auto verpflanzen. Man kann sie auch nicht benutzen, um mit ihr mit Aktien zu handeln oder ein Flugzeug zu fliegen. Sie ist eigentlich ziemlich idiotisch angelegt und genau auf ihre Hardware programmiert. Innerhalb dieser Grenzen kann sie aber jederzeit weiterlernen. Wir müssen also den Schritt schaffen, dass die Software Hardware-unabhängig wird und Vorwissen aufbauen kann. Vor ein paar Wochen hat Google Deep Mind ein sehr interessantes Paper veröffentlicht, wo sie mit einer KI ein Spiel gespielt haben. Dieselbe KI wurde verwendet, um ein neues Spiel zu lernen. Die KI wurde also deutlich besser, weil sie über das Wissen verfügt, wie man so ein Spiel spielt. Sie konnte es auf ein anderes Spiel übertragen und dadurch besser werden als eine KI, die nur auf dieses eine Spiel hin programmiert wurde.

Ist das der Schritt zwischen einem gut funktionierenden Algorithmus und einem denkenden Wesen? Ich gebe zu, ich scheue mich etwas, diesen Prozess schon als Denken zu bezeichnen. Ich würde eher sagen, es ist eher ein Weiterverarbeiten. Oder fängt das Denken hier schon an?

Das ist schwierig zu sagen, hier fängt eigentlich eher die nächste Diskussion an: Denkt der Mensch wirklich, oder sind wir nicht viel eher hormon- und instinktgetrieben? Wie viel davon ist durch unser Unterbewusstsein bestimmt? Die meisten Menschen treffen Entscheidungen im Bruchteil einer Sekunde. Wir nennen das Bauchgefühl oder Instinkt. Eigentlich ist es aber eine Erfahrungskurve. Wir brechen unsere Erfahrungen herunter und denken nicht darüber nach, sondern handeln. So ist es bei der Maschine auch. Sie können noch nicht auf 20 Jahre Berufserfahrung zurückgreifen oder auf eine jahrelange Erziehung. Wir als Menschen hingegen haben ungeheuer viel Input verarbeitet und sind biologisch dafür ausgelegt, alles abzuspeichern. Seit es im Jahr 2012 den großen Durchbruch mit den neuronalen Netzen gegeben hat, haben die Maschinen auch ein Kurzzeitgedächtnis. Was noch fehlt ist ein Langzeitgedächtnis und das Abstraktionslevel. Und genau das passiert gerade: Wir bauen Schritt für Schritt ein kollektives Gedächtnis auf, eine Art Schwarmintelligenz. Wir müssen also noch nicht einmal eine menschenähnliche KI haben, um zu erreichen, dass sie denkt, sondern wir brauchen eine KI, die untereinander kommuniziert und kollektiv Wissen verarbeitet. Wenn ein Auto beispielsweise einen fatalen Fehler macht, wie es bei dem Tesla-Unfall mit dem LKW geschehen ist, dann passiert ihm das ein einziges Mal. Seit diesem Vorfall können alle hunderttausende Teslas da draußen LKWs erkennnen. Das ist eine Intelligenzleistung, die mehr schafft als ein einzelner Mensch.

Image by Fabian Westerheide
Image by Fabian Westerheide

Wir müssen die KI also nicht nur schulen, sondern auch erziehen?

Genau das. Der Hirnforscher Danko Nikolic sagt, wir brauchen einen KI-Kindergarten, eine Art DNA für künstliche Intelligenz. Ich finde diese These sehr interessant. Wir müssen es schaffen, diese Lernalgorithmen einer KI beizubringen. Sie muss lernen zu lernen, damit sie weiß, wie man selbst Wissen generiert. Das können wir Menschen besonders gut. Die KI kann das noch nicht, also wird der Durchbruch im Lernalgorithmus die nächste Stufe sein. Dann muss man sie trainieren, ausbilden und erziehen, wie man Kinder erzieht. Wenn das passiert, wird das, was wir jetzt haben, schneller und auch deutlich interessanter. Eine KI hat noch keine Eigenmotivation, ich weiß aber, dass Teams bereits daran arbeiten.

Welche Jobs sind bisher immer noch nicht vollständig durch Maschinen ersetzbar? Wo geht hier die Entwicklung hin?

Momentan sind es zwei: Menschen und Komplexität. Wir sind Menschen und wollen deshalb natürlich weiterhin menschliche Interaktion. Ich behaupte, dass ‚Made by Humans‘ irgendwann bei Produkten ein Qualitätsmerkmal sein wird, für das die Leute mehr bezahlen werden. Bei der Interaktion kann es zu einer Mischung kommen: In der Pflege werden wir Pflegeroboter haben, die uns beispielsweise dabei helfen, den schweren alten Mann zu wenden, aber die menschliche Komponente muss erhalten bleiben. Eine KI nimmt dich nicht in den Arm, sie kann aber konkrete Ergebnisse liefern. Das dauert wohl aber noch gut 10 bis 15 Jahre. Eine KI kann erkennen, wie Prozesse am besten durchzuführen sind, aber bei emotionaler Intelligenz muss sie eben passen. Wir brauchen keinen menschlichen Maler, aber einen menschlichen Innenarchitekten. Je einfacher der Job ist, desto eher können wir ihn durch die Maschinen erledigen lassen. Sie hat aber noch immer ein Problem mit der Motorik, das haben wir noch nicht gelöst. Softwaretechnisch hingegen ist sie uns natürlich haushoch überlegen, jeder Taschenrechner kann besser rechnen als du und ich.

Wir müssen der KI auch Kontext beibringen, damit sie uns wirklich helfen kann.

Bei Service-KIs funktioniert das sogar schon. Die KI kann erkennen, ob der Kunde gut oder schlecht gelaunt ist, ob er etwas umtauschen will und ob sie ihm noch mehr Angebote machen soll oder nicht. Das würde ich schon als Kontext bezeichnen. Jeder, der schon einmal Kundensupport gemacht hat, wird das kennen – man muss Zweideutigkeit erkennen und das kriegen schon wir Menschen manchmal nicht ordentlich hin. Wie wollen wir da erwarten, dass die KI es besser macht? Der erste Schritt ist also: Sie muss lernen, es zumindest schon einmal besser zu machen als der Schlechteste von uns.

Wenn man manche Artikel liest, werden die Maschinen oft sehr dystopisch als unser Untergang beschrieben, sowohl gesellschaftlich als auch arbeitstechnisch. Wie gehen Sie mit dieser Angst der Menschen um?

Ich erlebe es ab und zu, dass die Menschen bei einem gewissen Level fast schon technologiefeindlich sind und regelrecht Angst vor der KI haben. Aber ich finde, dass Probleme wie die globale Erwärmung, der Terrorismus oder auch nur zu viel Zucker im Blut viel gefährlicher für die Menschheit sind. Wir sollten wirklich versuchen, etwas unaufgeregter an das Thema KI heranzugehen. Ja, die Digitalisierung frisst eine Menge Jobs. Aber das ist doch super! Niemand muss mehr langweilige Jobs machen, wir haben viel mehr freie Zeit. Wir können die KI benutzen, um in unserer Tätigkeit noch produktiver zu sein. Wir können so sogar mehr Jobs nach Europa holen, weil es günstiger und effektiver ist, die Handgriffe an eine KI outzusourcen als an irgendwelche ausgebeuteten Clickworker in Indien. Das Ganze bringt einen enormen strukturellen Wandel mit sich, weil wir uns von der Industriegesellschaft zur Servicegesellschaft und auch zu einer Wissensgesellschaft wandeln.

Die Großkonzerne von heute haben bereits begriffen, dass sie sich entwickeln müssen, sie tun sich damit aber noch etwas schwer. Das sind reine Industrieunternehmen, die aus einer ganz anderen Hierarchie und einer anderen kulturellen Epoche kommen. Künstliche Intelligenz ist hier nur die Spitze des Eisberges, denn unsere Industrie ist nicht für digitale Umbrüche gerüstet. Wir sind an dieser Stelle in kultureller Hinsicht noch komplett falsch aufgestellt.

Wie steht es um die Entwicklung von Künstlicher Intelligenz in Deutschland?

Das deutsche Problem daran ist, dass wir mal wieder den Trend verschlafen. Es gibt kaum KI-Unternehmen hierzulande – wir sind eher auf den abgeschlagenen Plätzen zu finden. Im Moment sind die US-amerikanischen KI-Unternehmen besser finanziert und es gibt viel mehr Firmen als hier, obwohl der Markt nicht so groß ist wie unserer. Es geht auch nicht darum, noch etwas zu entwickeln, dass uns unser Essen schneller liefert, sondern darum, dass uns eine strategische Entwicklung entgeht. Wir brauchen endlich mehr Forschung, mehr Kapital und mehr Unternehmen in Deutschland und Europa, um eine strategisches, wirtschaftliches und politisches Gegengewicht herstellen zu können. Nur dann können wir auf Augenhöhe miteinaner verhandeln.


Image (adpated) „Neural“ by geralt (CC0 Public Domain)


Weiterlesen »

Warum wir Künstliche Intelligenz demokratisieren sollten… ja müssen!

Brain (adapted) (Image by PeteLinforth [CC0 Public Domain] via pixabay)

Dieser Beitrag ist Teil einer Artikelreihe im Vorfeld der Digitalkonferenz EXPLAINED von Microsoft Deutschland. Die Konferenz findet am 23. März 2017 in Berlin statt.


Unser Bild von Künstlicher Intelligenz ist wahrscheinlich zu sehr von Science-Fiction geprägt. Es wirkt beinahe so, als ob das Thema Künstliche Intelligenz noch in den Kinderschuhen steckt. Mit einem chattende Bots oder unsere spielerische Auslotung der Fähigkeiten von Apples Siri oder Microsofts Cortana lassen das zwar vermuten, in Wahrheit werden aber bereits jetzt die Weichen für die Zukunft gestellt. Es gibt dabei nur ein Problem: bisher werden diese Weichen beinahe nur von einigen wenigen Technologie-Unternehmen gestellt.

Wir als Gesellschaft sind an den Entscheidungen nicht beteiligt und die von uns mit öffentlichen Mitteln geförderte Forschung ist im Vergleich nicht konkurrenzfähig. Das von der Europäischen Union und verschiedenen Bundesministerien geförderte Deutsche Forschungszentrum fu?r Künstliche Intelligenz (DFKI) gilt als eines der weltweit führenden und größten Forschungseinrichtungen zum Thema Künstliche Intelligenz. Rund 42,5 Millionen Euro standen dem DFKI dafür im Jahr 2015 zur Verfügung.

Die Summe ist ein Bruchteil von dem, was Unternehmen wie Google, Microsoft, IBM, Intel, Apple, Baidu und Salesforce in den letzten Jahren für Akquisen und Forschung ausgegeben haben. Seit 2011 wurden rund 140 Firmen für Künstliche Intelligenz von ihnen aufgekauft, davon allein 40 im Jahr 2016. Und Google hat in den letzten Jahren bereits mehr als 4 Milliarden US-Dollar in strategische Projekte für Maschinelles Lernen und vernetzte Geräte investiert. Die Lücke zwischen öffentlichem und unternehmerischem Wissen ist schon jetzt riesig.

Doch wer die Grundlagen in diesem Bereich setzt, wird auch die Zukunft nach seinen Vorstellungen gestalten können. Maschinelles Lernen und Künstliche Intelligenz werden wesentlich für die wirtschaftliche Wertschöpfung in unserer Gesellschaft werden. Dieses Potential nur in die Hände weniger Unternehmen zu geben, so sympathisch ihr Engagement heutzutage erscheint, ist gefährlich. Es könnte dazu führen, dass nach Gewinn strebende Firmen Entscheidungen zum eigenen Wohl und nicht dem unserer Gesellschaft treffen.

Demokratisierung von Künstlicher Intelligenz zum Wohle aller

Die Möglichkeiten von Maschinellem Lernen und Künstlicher Intelligenz allen Menschen zur Verfügung stellen, welche Innovationen dadurch entdeckt werden können, wenn nicht nur Unternehmen darüber nachdenken, sondern alle forschenden und nach Veränderungen sowie Weiterentwicklungen strebende Menschen, ist kaum zu erahnen. Künstliche Intelligenz als vielleicht das wichtigste Produktionsmittel der Zukunft muss zum Wohle aller Menschen – und das weltweit – demokratisch gestaltet werden und zugänglich sein.

Diese Verteilung von Macht ist unserem politischen Demokratiesystem zu eigen, wir kennen die Vorteile von Dezentralität aber auch vom Internet. Dass sich heutzutage Menschen für ein offenes und freies Internet einsetzen, liegt daran, dass diese Ideen zwischen der akademischen Nutzung des Internets bis Ende der 1970er Jahre und der kommerziellen Nutzung ab 1990 entwickelten. Diese wilden Jahre des Internets prägten unser Verständnis davon. Künstliche Intelligenz scheint von Beginn an nur kommerziell zu sein.

Die Demokratisierung von Künstlicher Intelligenz ist aber keine weitere politische Forderung, voller die Realität ignorierender Ideale, sondern auch im Interesse der Unternehmen und deshalb der Hebel unserer Gesellschaft, um eine Veränderung zu erzielen. Denn damit eine Künstliche Intelligenz entstehen kann, braucht es Unmengen an Daten für Maschinelles Lernen von biologischer Intelligenz, also uns Menschen. Damit etwas wie beispielsweise Microsofts Cortana sich entwickeln kann, muss es von uns sehr viel noch lernen.

Vermutlich werden wir Künstliche Intelligenz als eine weitere technische Annehmlichkeit empfinden. Wollen wir aber, dass die Programme alles über uns wissen, nur damit sie bessere Vorhersagen treffen können? Und wenn ja, wollen wir das auch, wenn ein gewinnstrebendes Unternehmen dahintersteht – und auch dann noch, wenn wir als Gesellschaft keinen wirklichen Vorteil außer ein paar mehr Online-Dienste haben? Unsere Informationen sind wichtig für die Entwicklung Künstlicher Intelligenzen. Wir als Gesellschaft sollten davon profitieren.

Was meinen Sie, Peter Jaeger?

Dies alles kann man am 23. März 2017 auf der nächsten EXPLAINED-Digitalkonferenz von Microsoft Berlin mit Peter Jaeger besprechen. Das Mitglied der Geschäftsleitung von Microsoft Deutschland spricht dort über das Thema Demokratisierung von Künstlicher Intelligenz. Ich bin schon auf seine Antworten gespannt. Mit Cortana entwickelt Microsoft ein Anwendungsbeispiel, wie wir wohl in wenigen Jahren schon Künstliche Intelligenz im Alltag benutzen. An Cortana können wir erkunden, wer von Künstlicher Intelligenz profitiert.


Image (adapted) „Brain“ by PeteLinforth (CC0 Public Domain)


 

Weiterlesen »

Barrierefreiheit im Internet #neuenähe

eye-image-by-geralt-via-pixabay-[CC0 Public Domain]

Dieser Beitrag ist Teil einer Artikelreihe im Vorfeld eines gemeinsamen Events und Hackathons von Microsoft und der Aktion Mensch für mehr Inklusion und Teilhabe im Netz.


Was bedeutet Barrierefreiheit im Internet und an wen ist diese gerichtet? Ist es immer notwendig, eine Website. sowohl auf der Verständlichkeitsebene. als auch der Wahrnehmungsebene für alle möglichst barrierefrei zu gestalten? Wo sind die wesentlichen Knackpunkte?

Im Prinzip hängt Barrierefreiheit im Netz mit Benutzerfreundlichkeit (Usability) eng zusammen. Grundsätzlich sind Menschen mit Behinderungen sogar mehr im Internet unterwegs als andere Leute. Das macht Sinn, weil man mit einer Behinderung generell nicht mehr so viel unterwegs sein kann (Ausnahmen bestätigen die Regel!) und sich eher über das Netz informiert.

Verständnisbarrieren, Leichte Sprache und E-Government

Menschen mit Lernschwierigkeiten (bzw. kognitiven Beeinträchtigungen) brauchen eine möglichst barrierefreie, d.h. verständliche Sprache. Die Informationen sollten also auch in leichter/einfacher Sprache zugänglich sein. Das betrifft also nicht die Wahrnehmungs -, sondern die Verständlichkeitsebene, den Text. Welche Regeln man als GestalterIn einer Website beachten sollte, erklären etwa das Netzwerk Leichte Sprache oder auch das capito-Netzwerk. Grundsätzlich gilt, dass die wichtigsten Informationen so einfach und klar wie möglich erklärt werden sollten. Sie sollten schnell zu finden sein und nicht auf irgendwelchen Subseiten „versteckt“ werden, wie es vor allem Behörden leider oft tun. Wie kommt es dazu? Webseiten „wachsen“ oft über die Jahre durch laufende Ergänzungen. Daher braucht es ein regelmäßiges „Ausmisten“ von veralteten Inhalten durch die WebseitenbetreiberInnen. Klar, das kostet Konzentration, Zeit und auch Geld. Es ist aber im Sinne des E-Government, das z. B. in Österreich seit dem 01. Januar 2008 für staatliche Stellen gesetzlich vorgeschrieben ist, sowohl Behörden als auch BürgerInnen zu entlasten. Barrierefreiheit im Internet ist inzwischen ebenfalls oft in den verschiedenen Staaten gesetzlich geregelt, vor allem für öffentliche Stellen, aber oft wird nur das Notwendigste erfüllt.

Barrieren auf der Wahrnehmungsebene

Technische Barrieren betreffen alles, was blinde, sehbehinderte, hörbehinderte und gehörlose Menschen an Inhalten einer Website nicht wahrnehmen und auch nicht mit Hilfsmitteln wie einem Screenreader erfassen können. Etwa PDFs. Hörbehinderte Menschen können etwa einem eingebetteten Videodialog nicht folgen, wenn es keine Untertitel gibt. Sehbehinderte Menschen brauchen oft eine größere Schrift bzw. die Möglichkeit, die Schrift größer einstellen zu können. Menschen mit Farbblindheit werden mit einer Aufforderung wie „Drücken Sie den roten Knopf“ nichts anfangen können. Farbliche Kontraste sind für die Wahrnehmbarkeit von Inhalten für sehbehinderte UserInnen wichtig! Ganz schlecht ist z. B. weiße Schrift auf hellem Grund.

Ein eigenes Problem stellen die so genannten CAPTCHA-Systeme dar: Diese werden eingesetzt, um bei Listenaufrufen oder Ähnlichem von Robots (automatisierte Anfragen) und Menschen zu unterscheiden. Die dabei meist verwendeten Bilder von verzerrten Schriftzügen können blinde und sehbehinderte UserInnen natürlich nicht erkennen und eingeben. Sie werden also vom System nicht als Menschen erkannt. Es gibt zwar erweiterte Captcha-Methoden, wo Sprache oder „einfache“ Fragen eingesetzt werden, aber auch hier gibt es Probleme für Nicht-MuttersprachlerInnen.

W3C, WAI und WCAG

Wichtig sind die Vorgaben des World Wide Web Consortiums (kurz W3C). Das W3C hat schon 1997 die Web Accessibility Initiative (WAI) gegründet, deren Ziel es ist, das Internet möglichst vielen Menschen zugänglich zu machen. Dazu gehören ältere Menschen und Menschen mit verschiedenen Behinderungen.

Die WAI wiederum hat die so genannten Web Content Accessibity Guidelines (WCAG) erstellt. Daran kann man sich orientieren, wie man eine möglichst für alle zugängliche Website gestalten sollte. Drei Stufen werden unterschieden: Minimalanforderungen an eine barrierefreie Website werden mit der Stufe „A“ erfüllt, der höchste Standard ist derzeit „AAA“.

Suchmaschinenoptimiert

Noch etwas, das für AnbieterInnen von Websites nicht unwesentlich ist: Technisch barrierefreie Online-Angebote sind de facto suchmaschinenoptimiert, da Suchmaschinen wie Google, Firefox & Co. Webseiten so ähnlich wie sehbehinderte UserInnen wahrnehmen.


Image „eye-google“ by geralt (CC0 Public Domain)


 

Weiterlesen »

HoloLens & Co: Die Mixed Reality-Revolution

smartphone-image-by-geralt-cc0_public-domain-via-pixabay

Dieser Beitrag ist Teil einer Artikelserie, die sich im Vorfeld der Konferenz MSFT Explained (am 27. September in Berlin) mit Fragen der Digitalisierung unserer Gesellschaft auseinandersetzt.


Virtual und Augmented Reality sind zu Hause und im Beruf mehr als nur Zukunftsmusik: Für die wissenschaftliche Arbeit, das Training der Mitarbeiter, für Produktentwicklung und Vertrieb und natürlich Unterhaltung und Freizeit. Wie vielfältig die neuen Technologien eingesetzt werden können, ahnen bislang nur wenige. Was verändert sich und wer macht sich die Technologie heute schon zunutze?

Die neue Realität

Was wir sehen, ist die Realität. Oder nicht? Um uns herum fliegen Nanodrohnen, die in Echtzeit die ganze Welt aufnehmen. Monströse Rechenzentren setzen Avatare in diese Welt, die sich bewegen wie echte Menschen. Und ein Chip im Kopf der realen Menschen setzt alles zusammen, die reale Welt und die virtuelle. Dass ein Mensch gar nicht real da ist, merken wir nur daran, dass wir ihn nicht berühren können.

Diese Welt hat Jens Lubbadeh erschaffen. In seinem großartigen Roman „Unsterblich“ soll es schon 2044 so weit sein. Er nennt das „Blended Reality.“ Utopie? Oder denkbare Zukunftsvision? Vielleicht von beidem ein bisschen.

So weit sind wir noch nicht, aber wir sind in der Sache mit den Realitäten doch viel weiter, als man denken könnte. Wer sich die HoloLens von Microsoft aufsetzt, sieht im realen Raum vor sich einen Gewichtheber, dessen Muskeln ziemlich real aussehen und nach dem Lehrbuch die lange Hantel hochstemmt. In dieser Demo scannt die HoloLens den Raum, setzt den Gewichtheber hinein und der Nutzer sieht beides gleichzeitig, als würde sich dort wirklich gerade einer abmühen. Irritieren könnte, dass er gerade einmal fünfzig Zentimeter groß ist. Er kann aber mit nur ein, zwei Sprachbefehlen auch 1,80 Meter groß werden. Und steht dann in Lebensgröße im Raum.

Diese Verbindung aus Realität und Projektion: Microsoft nennt sie „Mixed Reality“. Möglich machen sie eine ganze Menge Sensoren in der Brille und sie ist damit fünf Schritte weiter als die bisherigen Virtual-Reality-Brillen, in die wahlweise ein handelsübliches Smartphone geschoben wird oder die selbst Prozessoren in sich haben, nicht aber Sensoren. Und schon gar nicht die reale Welt mit hinein lassen. Die HoloLens ist eine Brille, die der Google Glass sehr ähnlich ist.

Erinnert sich noch jemand? Das Geschrei war groß, markttauglich ist sie nie geworden und jetzt ist es schon lange Zeit still um sie. Aber die Google Glass hat den Weg bereitet für eine Realität, die durch zusätzliche Informationen erweitert werden konnte. Heute ist fast alles „virtuelle Realität“, was irgendwie mit solchen Brillen zu tun hat. Wenn man es aber genau nimmt, kann man drei Felder unterscheiden.

Die „Augmented Reality“ (AR), bei der auf die reale Welt eine zweite Lage gelegt wird, die mir zusätzliche Informationen gibt. Apps zum Beispiel bauen die Berliner Mauer wieder auf und zeigen am realen Ort auf dem Smartphone-Screen, wie es dort vor Jahrzehnten war. Die echte „Virtual Reality“ (VR) bezeichnete bislang vor allem Computeranimationen. 3D-Welten wie in Egoshootern, die sehr computeranimiert aussehen, in der man sich als Nutzer aber frei bewegen kann. Dann ist vor kurzer Zeit das 360°-Video dazu gekommen, das die reale Welt abfilmt und dem Nutzer zumindest die Möglichkeit gibt, sich zu allen Seiten umzuschauen – auch wenn sie sich nicht bewegen konnten.

Heute werden beide Begriffe in einen Topf geworfen. Fachkundige behaupten, dass der Nutzer mehr Entscheidungsfreiheit habe, als wenn er nur einen flachen Screen vorgesetzt bekommt. Die sogenannte „Mixed Reality“ ist die neueste dieser Entwicklungen, und wohl mit die komplizierteste. Aber gerade diese Verbindung aus realer und virtueller Welt schafft Möglichkeiten, die noch richtig spannend werden können. Die Realität wird erweitert, also angereichert. „Enhanced Reality“, sozusagen.

In der Medizin gibt es schon erste Prototypen, mit denen man den Körper in 3D vor sich sehen kann. Der Medizinstudent, der nicht mehr vom Screen lernt, sondern um den Körper herumlaufen kann, sieht, was wo liegt; der Chirurg, der über dem realen Körper auf dem Operationstisch einblenden kann, wo welche Adern und Gefäße entlang laufen: Noch stecken diese Technologien am Anfang. Gerade der Endverbraucher ist enttäuscht von dem, was er bisher gesehen hat. Gamer, die sich Monatelang auf die Oculus Rift gefreut haben, legten sie nach ein paar Tagen mit der virtuellen Realität wieder in den Schrank. Warum? Die Grafik hat den Stand von vor zehn Jahren, Gamer sind da anderes gewohnt. Die Prozessoren können mit den vielen Variablen der virtuellen Realität aber noch nicht so gut umgehen, der menschliche Körper irgendwie auch nicht. Es wird einem doch schwindelig, der Nacken schmerzt nach ein paar Stunden auch.

Aber es wird kontinuierlich weiter geforscht. In ein paar Projekten ist man mit der Brille nicht mehr an Sofa und Joystick gefesselt. Der Nutzer kann durch den virtuellen Raum laufen. Setzt er seinen realen Fuß nach vorn, geht auch sein Avatar einen Schritt weiter. Durch diese Kopplung von Augen und Körper kann der Kopf noch schlechter auseinander halten, was real ist und was nicht. Möglich ist das dank einer Tracking-Technologie, die den Nutzer im Raum verortet.

In den USA arbeitet The Void daran, auch in Deutschland gibt es ein solches Projekt. Das Fraunhofer IIS in Nürnberg hat die Technologie entwickelt, das Startup Holodeck arbeitet nun daran, es als Ausgründung auf den Markt zu bringen. Bis zu 100 Leute können sich mit VR-Brillen auf dem Kopf autark im Holodeck bewegen und sehen auch einander als Avatare. Einsatzgebiete? Wie wäre es denn mit Disneyland? Statt in eine Halle eine aufwändige Themenwelt zu bauen und sie damit für jede andere Nutzung zu blocken, können 3D-Artists am Computer gleich mehrere Experiences bauen. Drei Mal am Tag, jeweils eine andere Show, man muss ja nur die andere Simulation starten. Die Besucher würden sich drei Mal anstellen, um nicht nur durch die Welt von Ratatouille zu laufen, sondern auch Cinderella und das Dschungelbuch zu erleben.

Im Media Lab Bayern haben wir Holodeck als Fellows aufgenommen, das Team arbeitete hier vor allem am Thema Storytelling. Denn gerade in den klassischen Bereichen, in denen Geschichten erzählt werden – Film, Games, Journalismus, hat die neue Technologie genauso viel Reiz wie Probleme. Wie erzähle ich eine Geschichte, wenn der Nutzer selbst entscheiden kann, was er sich als nächstes ansehen, wo er hinlaufen, was er tun möchte? Mehr Autonomität für den Nutzer bedeutet weniger Kontrolle für den Storyteller. Es kann nur noch Angebote geben und eine kluge Anleitung durch das Erlebnis. Mehr Autonomität, und da sind sich alle einig, die schon länger an VR arbeiten, heißt aber auch mehr aktives Interesse des Nutzers. Wie großartig gerade für Felder wie den Journalismus, wo man doch so gern hätte, dass der Nutzer die Themen wirklich erleben und nachvollziehen kann.

Gerade die „Augmented“ – oder auch „Mixed Reality“ ist für Informationsvermittlung und Journalismus wahnsinnig spannend. Eine Ebene mit Informationen liegt über der realen Welt, ich sehe beides gleichzeitig und habe die Informationen direkt verortet.

VR lohnt sich momentan vor allem in der Industrie, denn für den Alltag ist die Technologie noch zu teuer. Computeranimationen, zum Beispiel im Film, sind, trotz immer neuer Entwicklungen, noch immer Mammutprojekte. Wer den Film „Jungle Book“ gesehen hat, weiß, wie gut die mittlerweile sind. Da zittern die Wolfshaare im Wind, wie es die Realität nicht besser könnte. Aber diese Arbeit hat Millionen gekostet, 175 Millionen Dollar, um genau zu sein. Und ist noch nicht einmal interaktiv. Die teure Technik der virtuellen Realität ist daher momentan vor allem dort nützlich, wo teure Maschinen, Geräte oder gleich ganze Gebäude entstehen. Als Computergrafik können Architekt, Autobauer und Ingenieur sich die Produkte schon einmal in realer Größe und Form anschauen, bevor auch nur ein Quadratzentimeter Blech in Form gebogen werden muss.

Der Endnutzer kommt ins Spiel, wenn er teure Dinge kaufen soll und sich mit der Entscheidung schwer tut. Wie wäre es, ihn mit ein wenig Immersion schon einmal auf den Geschmack zu bringen? Beim Hausbau beispielsweise. Bislang gibt es Musterhäuser. Bald gibt es vielleicht nur noch eine Halle und eine Brille. „Die Wand verschieben? Klar, so würde das dann aussehen. Gefällt’s Ihnen? Gehen Sie mal durch!“

Ins Wohnzimmer des Endverbrauchers wird die virtuelle Kauf-Realität dann kommen, wenn man sich mit der IKEA-VR-App das neue Sofa schon einmal in den Raum stellen kann – zumindest so lange man eine Brille auf hat.

Das wird vermutlich gar nicht mehr so lange dauern. Und wer weiß, vielleicht brauchen wir die Brillen irgendwann gar nicht mehr. Sondern haben eine andere Technologie, mit der wir ganz selbstverständlich die Realität um Bilder, Grafiken, Informationen erweitern.
Vielleicht nur nicht gerade mit einem Chip im Kopf, wie bei „Unsterblich“. Wobei…

160901_mic_explained_1200x675


Image „Smartphone“ by geralt (CC0 Public Domain)


Weiterlesen »

Unsere Verwaltung muss als digitale Plattform neu gedacht werden

bundeskanzleramt-image-by-lobostudiohamburg-cc0-via-pixabay

Dieser Beitrag ist Teil einer Artikelserie, die sich im Vorfeld der Konferenz MSFT Explained (am 27. September in Berlin) mit Fragen der Digitalisierung unserer Gesellschaft auseinandersetzt.


Deutschland und seine Verwaltung digitalisiert sich. Amt für Amt, Behörde für Behörde und Ministerium für Ministerium. Inzwischen gibt es so viele digitale Leuchttürme, dass man, davon geblendet, gar nicht mehr die Digitalisierung erkennt. Die auf mehrere Ministerien verteilte Digitale Agenda der Bundesregierung ist Ausdruck dessen. Bisher ist in diesem Land nicht wirklich etwas passiert. Zukunft ist etwas, dass ohne uns passiert – und auch woanders.

Dabei besitzen wir alle, auch die politischen EntscheidungsträgerInnen im ganzen Land, eine Lösung für unser Digitalisierungsproblem. Seit über 10 Jahren haben wir Smartphones, die von der Rechenleistung her stärker sind als die Computer der NASA bei der Mondlandung im Jahr 1969. Aber es geht nicht darum, zu fragen, warum wir dann damit nicht mehr Glanzleistungen hinbekommen, sondern warum wir nichts wie Smartphones organisieren?

Wir brauchen eine Plattform für öffentliche Dienste!

Das Geheimnis hinter den Smartphones ist die Organisation der Dienste dafür. Nun rächt sich, dass die Bundesregierung nicht auf eine zentrale Position zur Digitalisierung der Verwaltung gesetzt hat, sondern jedes Ministerium hat machen lassen, was es wollte. Was wir bräuchten, ist eine zentrale Plattform, für die die Ministerien – und unter sehr offenen Umständen sogar wir BürgerInnen selbst (Stichwort: Open Data) – dann Dienste entwerfen könnten.

Das Prinzip kennen wir alle. Wer ein iPhone besitzt, hat sich auch schon einmal eine App von iTunes heruntergeladen, die nicht von Apple selbst ist. Genauso geht es NutzerInnen von Android oder einem Windows Phone. Airbnb und Uber zeigen uns seit Jahren, wie sie, ohne selbst die dafür nötigen Ressourcen zu nutzen, einen Service anbieten. Dienste wie Twitter und Facebook funktionieren nur durch von uns erstellten Content. Das alles sind Plattformen.

Sangeet Paul Choudary hat das in seinem Buch „Platform Scale“ unter dem Slogan „Ecosysteme sind die neuen Warenhäuser“ zusammengefasst. Andere Erfolgsfaktoren für Plattformen sind seiner Meinung nach, dass NutzerInnen die Inhalte selber produzieren, die Entwicklung durch die Vernetzung der NutzerInnen weiter angetrieben wird, Daten die neue Währung werden und Kuration eine neue Form von Qualitätsmanagement sind.

Insgesamt nennt Choudary zehn Faktoren, aber mit den fünf genannten Punkte kann man sich schon vorstellen, welchen Einfluss eine Plattform für Verwaltungsdienste haben kann. Hier finden Bürger die Dienste, die der Staat ihnen zur Verfügung stellen kann. Die dafür nötigen Dienste können direkt vom Staat designt oder von den BürgerInnen, die sie auf offenen Daten aufbauen können, stammen. Über Bundesländer hinweg würden Menschen davon profitieren.

Die zentrale Instanz, die die Plattform verwaltet, vielleicht einE StaatsministerIn bei der Bundeskanzlerin und BeauftragteR der Bundesregierung für Plattformzeugs würde kuratieren, welche Dienste auf der Plattform zugänglich gemacht werden können. Und die wären dann übrigens ohne Probleme für alle Menschen online erreichbar. Etwas weitergedacht, wäre das Konzept eines nationalen BürgerInnentums überflüssig.

Genug politisches Stückwerk – Zukunft jetzt!

Wir sind noch nicht soweit. In einigen Regionen wird zur medizinischen Versorgung in ländlichen Gegenden geforscht, in anderen nicht. Die Gründe dafür sind verschieden, genau wie die Verkehrsplanung in deutschen Städten oder der Zugang zu Informationen und Daten. Ob man demnächst Zugang zu innovativen Diensten haben wird, hängt davon ab, wo man wohnt. Der Gleichheitsgrundsatz des Grundgesetzes nützt da auch nichts.

Man kann sich mit politischem Stückwerk zufrieden geben, mit den föderalen Unterschieden zwischen den Bundesländern und dass es das ja früher auch alles nicht gab. Vielmehr sollte man aber versuchen, die Verhältnisse zu ändern. Das ist der eigentliche Sinn von Politik. Wenn Sie also in [ihr Wohnort] wohnen und es gerne so gut wie die Menschen in [woanders] haben möchten, fordern Sie es von der Politik, ihren Abgeordneten und ihrer Verwaltung.

Viel Glück.

160901_mic_explained_1200x675
 


Image „Bundeskanzleramt“ by LoboStudioHamburg (CC0 Public Domain)


 

Weiterlesen »

Internationale Datenpolitik und Vertrauenskrise

politik(image by geralt[CC Public Domain] via Pixabay)

Dieser Beitrag ist Teil einer Artikelserie, die sich im Vorfeld der Konferenz MSFT Explained (am 27. September in Berlin) mit Fragen der Digitalisierung unserer Gesellschaft auseinandersetzt.


Nicht selten begegnet einem in netzpolitischen Diskussionen der Topos der Vertrauenskrise. Genährt von Snowden und seinen Enthüllungen, Angst vor Digitalmonopolisten und der Komplexität und damit einhergehende Undurchschaubarkeit digitaler Prozesse wird der Vertrauensaspekt zur Triebfeder netzpolitischer Forderungen. Dabei verdient der Begriff der Vertrauenskrise eine nähere Betrachtung. Zunächst einmal: Ist eigentlich mangelndes Vertrauen – oder anders gewendet: Misstrauen – stets Ausdruck einer Krise?

Die im ersten Reflex naheliegende Bejahung der Frage widerspricht auf den zweiten Blick fundamental den Grundbedingungen demokratischer Gesellschaften. Demokratische Kulturen zeichnen sich durch institutionalisiertes Misstrauen aus. Dies gilt gerade in den gesellschaftlichen Bereichen, in denen als illegitim empfundene Machtasymmetrien beobachtet werden.

Eine Republik von Teufeln

Demokratien, so Kant, sind so konzipiert, dass sie im Zweifel auch für eine Republik von Teufeln funktionieren, denn es kommt nicht auf das Vertrauen an den anderen an. Vertrauen entsteht nicht durch blinden Glauben an die Glaubwürdigkeit des Gegenübers. Es entsteht in einer demokratischen Gesellschaft dadurch, dass die Asymmetrien durch Normen und Gesetze reguliert werden und Vertrauen in die Verrechtlichungsprozesse besteht.
Narrative des Misstrauens sind daher ein gesunder Ausdruck einer demokratischen Kultur. Sie werden erst dann problematisch, wenn die Teilnehmer des demokratischen Prozesses kein Vertrauen in den (rechtlichen) Rahmen der Auseinandersetzung haben.

Demgegenüber wird eine digitale Vertrauenskrise vielfach damit begründet, dass technische Prozesse nicht die nötige Transparenz aufwiesen. Mehr Transparenz bedeutet aber nicht mehr Vertrauen. Im Gegenteil: Eine vollständige Transparenz – etwa in Bezug auf die Teilnehmer an einem demokratischen Diskurs durch Nennung ihrer Namen und wahren Identitäten – würde das Vertrauen in die Grundbedingungen der demokratischen Auseinandersetzung erschüttern, weil man davon ausgehen müsste, dass bestimmte Teilnehmer, die anonym bleiben wollen, weil sie unliebsame Dinge äußern, am Diskurs gar nicht erst teilnehmen.

Das Netz steckt in den Kinderschuhen der Regulierung

Der internationale Kontext, in dem sich das grundsätzlich globale Internet bewegt, steckt in den Kinderschuhen der Regulierung, wenn es um den rechtlichen Vertrauensrahmen für die Auseinandersetzung des Misstrauens geht. Aus diesem Grund ist der Topos der Vertrauenskrise durchaus verständlich.

Aber es ist Vorsicht geboten, hieraus vorschnell Schlüsse zu ziehen – erst recht, wenn sie auf eine Rückbesinnung zum nationalen Rahmen zielen. So würden „Schengenrouting“ oder andere Grenzziehungen im digitalen Raum nicht eine wie auch immer geartete Vertrauenskrise, sondern den digitalen Raum als solchen beseitigen, der für eine demokratische internationale Auseinandersetzung zur Verfügung steht.

Vertrauensdiskurse zwischen Staaten geraten schnell in nationalistische Fahrwasser, die dem demokratischen Grundgedanken widersprechen (wir die Guten vs die anderen, die zu misstrauen sind). Betrachtet man das Narrativ der „Vertrauenskrise“ aus der größeren Perspektive, so ist sie Teil eines neu-nationalistischen Diskurses, der gerade nicht auf eine demokratische Völkerverständigung ausgerichtet ist.

160901_mic_explained_1200x675

 


Image „Politik“ by Geralt (CC0 Public Domain)


Weiterlesen »

Datenbeziehungen: Wie kommunizieren wir in Zukunft?

Tomy Chatbot (adapted) (Image by ?? Michele M. F. [CC BY-SA 2.0] via flickr)

Dieser Beitrag ist Teil einer Artikelserie, die sich im Vorfeld der Konferenz MSFT Explained (am 27. September in Berlin) mit Fragen der Digitalisierung unserer Gesellschaft auseinandersetzt.


“Guten Morgen, Theodore. Du hast in fünf Minuten ein Meeting. Willst du vielleicht *versuchen* aufzustehen?” “Du bist echt lustig.” “OK. Gut, ich bin lustig.”

Bei diesem Gespräch handelt es sich nicht etwa um den vertrauten Austausch zwischen zwei Verliebten im Halbschlaf, sondern um eine Konversation zwischen Mensch und Maschine. Im Film “Her” verliebt sich der introvertierte Theodore Twombly in seine virtuelle Assistentin Samantha. Alles nur Science Fiction – oder demnächst Wirklichkeit? Wie weit sind wir noch von den Samanthas, den HALs und den Jarvis‘ entfernt, die uns täglich unterstützen und unser Leben organisieren? Viele Entwickler, Startups und Investoren sind der Meinung, dass sogenannte Chatbots der nächste Schritt in diese Richtung sind. Die grundlegende Idee hinter Chatbots ist dabei simpel. Es handelt sich um Programme, die nicht auf visuelle Oberflächen angewiesen sind, sondern direkt mit den Menschen auf einer gemeinsamen Ebene kommunizieren können: Die Sprache.

Der Messenger als User Interface

Einer dieser Vordenker ist Chris Messina, Erfinder des Hashtags und Developer Experience Lead bei Uber. Anfang 2015 prägte er den Begriff des Conversational Commerce. Für ihn ist klar: Bald wird sich ein Großteil der Interaktionen zwischen Kunden, Marken und Geschäften in Chat-Umgebungen auf mobilen Endgeräten abspielen. Messina argumentiert, dass das Medium Chat mehrere Vorteile gegenüber klassischen Apps besitzt. So müssten Nutzer beispielsweise keine Apps mehr installieren, sondern nur noch mit dem Messenger ihrer Wahl einen Chatbot anschreiben. Eine Pizza-Bestellung mit einem Chatbot würde also — im Gegensatz zur klassischen App — nicht über mehrere Untermenüs ablaufen, sondern zu einem Frage-Antwort-Spiel werden:

Nutzer: Ich hätte gerne eine Salami Pizza Bot: Gern! Welchen Käse? Nutzer: Gouda :D Bot: Die gleiche Adresse wie letzte Woche? Nutzer: Jupp! Bot: Die Pizza wird in 20 Minuten geliefert.

Wenn man sich die aktuellen Nutzerzahlen anschaut, ergibt das auch Sinn. Beim Global Social Media Ranking stehen vier Messenger in der Top Five. Und während die Anzahl der Downloads anderer Apps stark zurückgeht, kommunizieren vor allem junge Leute fast ausschließlich über Nachrichten innerhalb ihres bevorzugten Chatdienstes. In China hat sich dieser Wandel hin zum Messenger als Plattform für andere Dienste innerhalb weniger Jahre vollzogen. Hier heißt der Platzhirsch WeChat, das für viele westliche Konkurrenten als Vorbild dient. Der Dienst ist in China zu einer Art Meta-App geworden, die tausende von anderen Apps in sich vereint. So können WeChat-Nutzer in der App nicht nur Nachrichten schreiben und empfangen, sondern auch Taxis bestellen, Nachrichten lesen, Tische reservieren, Arzttermine vereinbaren, Shoppen, Geld überweisen und Stars folgen. Kein Wunder also, dass immer mehr chinesische Nutzer die App kaum noch verlassen. Westliche Messaging-Apps wie Kik, Telegram aber auch der Teamchat Slack sind dem Vorbild gefolgt und haben damit begonnen, ihre Tore für Chatbots zu öffnen. Und spätestens seit der Öffnung des Facebook-Messengers für Entwickler im April 2016 ist das Thema in aller Munde.

Chatbots als virtuelle Assistenten

Über das Teamchattool Slack haben Bots bereits die Arbeitswelt erreicht. Die kleinen Programme leben hier direkt im Chatraum, können aber auch privat als “Person” angeschrieben werden und erfüllen die unterschiedlichsten Aufgaben. Howdy koordiniert beispielsweise Team-Meetings und Sammelbestellungen, Birdly wiederum sammelt die Spesenabrechnungen des Teams in einer Excel-Tabelle und kann sogar abfotografierte Rechnungen automatisch einlesen. Und Blossom gibt der New York Times-Redaktion Tipps, welche Inhalte demnächst auf Facebook geteilt werden sollten. All diese Bots sind zwar durchaus mächtige Programme, sind aber von künstlichen Intelligenzen wie Samantha noch weit entfernt. Sie verstehen meist nur bestimmte Befehle und können, wenn überhaupt, nur kurze Gespräche mit ihren Nutzern führen. Deutlich näher an der Idee einer Samantha wiederum dürfte “Amy Ingram” sein, die Entwicklung des Start-Ups x.ai. Amy soll eine Art virtuelle Sekretärin sein und die lästige Aufgabe der Terminkoordination vollkommen selbstständig übernehmen können. Die Idee ist dabei einfach: Man setzt Amy einfach in den CC-Kontakt der letzten E-Mail und die Software spricht sich mit den Menschen am anderen Ende ab, geht auf deren Wünsche ein und trägt Termine entsprechend der eigenen Verfügbarkeit und Präferenzen in den Kalender ein. Amy ist dabei so gut, dass viele Nutzer oft gar nicht bemerken, dass sie mit einem Computerprogramm kommunizieren. Auch die großen Tech-Firmen arbeiten bereits an ihren eigenen virtuellen Assistenten. So können Apples Siri, Microsofts Cortana, Amazons Alexa und Googles Google Now durchaus auch als Bots klassifiziert werden, die man jedoch nicht über geschriebene, sondern gesprochene Sprache aktiviert. Dabei bleiben die ausgeführten Befehle aller dieser Assistenten noch eher simpel – und auch wenn Siri in ihrer nächsten Iteration endlich nicht mehr nur auf Apples eigenen Dienste zugreifen kann, bleibt sie noch weit entfernt von Samantha.

Die Stärken von Chatbots: Kontext und Personalisierung

Besonders spannend wird es, wenn Dienste wie Amy Ingram unsere vorhergehenden Entscheidungen nutzen können, um zu lernen, wie wir ticken. Ein starker Faktor ist hierbei der Kontext: Unterwegs wird das Smartphone genutzt, während der Arbeit der Laptop und auf der Couch das Tablet. Dabei wird es für Services immer wichtiger, auch plattformübergreifend zu verstehen, wann wir welche Dinge benötigen. Wenn der Pizza-Bot aus obigem Beispiel weiß, welche Zutaten ich gerne hätte und wohin ich am liebsten bestelle, egal von welchem Gerät ich mit ihm kommuniziere, werden die Vorteile solcher lernender Concierge-Services klar: Ich muss mich nicht überall neu anmelden und meine Accounts und Präferenzen verwalten, sondern der Bot lernt direkt aus dem Messenger heraus, was ich will. Je mehr Kontext der Service schon hat, desto einfacher werden folgende Interaktionen für Nutzer. Die besondere 1-zu-1 Beziehung zwischen Chatbot und Mensch ist dabei der klare Vorteil dieser Interfaces: Das vertraute Messaging-Umfeld wird genutzt, um durch fortlaufende Gespräche eine persönliche Beziehung aufzubauen und so den Service immer weiter zu personalisieren. Die Geschwindigkeit und Richtung der Konversation wird von den einzelnen Nutzern bestimmt, nicht von der Dienstleistung. Wenn diese Charakteristiken weiter ausgebaut werden, nähern wir uns Szenarien wie Samantha an: Vollständige Personalisierung auf Bedürfnisse der individuellen Nutzer.

Wo führt die Reise hin?

Gerade mit der kommenden Automatisierung und Vernetzung des Internet-of-Things (IoT) wird klar, welche Bedeutung Sprachassistenten für die Zukunft haben könnten. Es macht deutlich mehr Sinn, Sprachbefehle zu geben, als für jedes neue Haushaltsgerät ein eigenes Interface zu entwickeln und zu erlernen. Letztendlich ist ein in den Raum gesprochenes “Siri, fahr doch bitte schon einmal den Tesla vor” auch deutlich cooler, als das Smartphone aus der Hose zu kramen, die App zu suchen, zu warten bis sie geladen ist und sich dann durch die Menüs zu wühlen, bis man den richtigen Button gefunden hat. Die Grundlagen werden hierfür bereits gelegt. Siri ist beispielsweise schon heute in der Lage, Geräte über Apples Homekit-Plattform zu steuern und Alexas Lautsprecher kann schon heute mit ein wenig Entwickler-Geschick zu einem Steuerungsterminal für das eigene Haus umfunktioniert werden. So beeindruckend diese Zukunft jedoch auch klingt, könnte sie auch eine Reihe von Risiken mit sich bringen. Eine virtuelle Assistentin im Haus müsste beispielsweise den ganzen Tag per Mikrofon Gesprächen lauschen, sollte sie gebraucht werden. Auch könnte sie als Hauptschnittstelle mit allen technischen Geräten im Haus zu einem großen Sicherheitsrisiko führen und Ziel Nummer eins für Hacker und Schadsoftware werden. Es ist das eine, wenn ein Virus den eigenen Laptop lahm legt, etwas vollkommen anderes jedoch, wenn das Haus auf einmal nicht mehr so funktioniert, wie es sollte.

Alles nur ein Hype?

Von dieser Zukunft sind wir aber noch ein gutes Stück entfernt. Denn obwohl viele Bots wie Siri, Alexa oder Cortana einfache Sprachbefehle verstehen, scheitern sie oft an komplexeren Fragestellungen. Und bis eines dieser Programme in der Lage sein wird, einen echten Dialog mit uns zu führen, werden wohl noch einige Jahre vergehen. So ist die menschliche Sprache, geschriebene wie auch gesprochen, um ein Vielfaches komplexer als ein visuelles Interface, das nur klar strukturierte Befehle und Funktionen zulässt. Die Sprache ist außerdem voll von Metaphern, Redewendungen und Inhalten, deren Bedeutung im Kontext mit anderen Informationen zugänglich ist. Dazu kommen Dialekte und Akzente, die bereits den ein oder anderen sprachgesteuerten Dienst vor Herausforderungen gestellt haben. Bisherige Chatbots gleichen diesen Nachteil oft durch eine Kombination aus natürlichem Dialog und Buttons aus, wie beispielsweise im Facebook Messenger – eine Übergangslösung, um Nutzern klare Befehle entlocken zu können.

Auch wenn die heutigen Bots oft noch umständlich sind und als unsexy empfunden werden, sind sie dennoch ein Vorgeschmack auf das, was uns in den nächsten Jahren erwartet. Natürlich werden Bots und virtuelle Assistenten nicht klassische Apps und visuelle Nutzeroberflächen verdrängen können, aber sie werden in der Lage sein, mit uns auf Augenhöhe zu kommunizieren. Und auch wenn der virtuelle Sekretär dann immer noch keinen Kaffee kochen kann, kann es vielleicht die IoT-Kaffeemaschine, die mit ihm verbunden ist. Nur verlieben sollte man sich trotzdem immer noch nicht.


Image (adapted) „Tomy Chatbot“ by ?? Michele M. F. (CC BY-SA 2.0)


Weiterlesen »

Industrie 4.0: Die Informatisierung des Alltags

Activate the world (or what mobile really means) (adapted) (Image by Mike [CC BY 2.0] via flickr)

Die USA und Asien diktieren die Informatisierung des Alltags – in Deutschland redet man lieber über Industrie 4.0. Für Professor Friedemann Mattern von der ETH Zürich war schon im Jahr 2007 klar, dass wir mit der Informatisierung des Alltags einen fundamentalen Wandel in Wirtschaft und Gesellschaft erleben werden. Dahinter steht die Vision von intelligenten Umgebungen und smarten Alltagsgegenständen, die mit digitaler Logik, Sensorik und der Möglichkeit zur drahtlosen Vernetzung ausgestattet ein “Internet der Dinge” bilden, in dem der Computer als eigenständiges Gerät verschwindet und in den Objekten der physischen Welt aufgeht. Neue Technologien ermöglichen eine allgegenwärtige Verfügbarkeit von Informationen und Diensten, in deren Zentrum nicht mehr die Maschine mit ihren technischen Möglichkeiten und Grenzen, sondern der Mensch mit seinen individuellen Anforderungen und Wünschen steht. Der Rechner wirkt nur noch im Hintergrund als unaufdringliche, aber stets verfügbare elektronische Assistenz.


Dieser Beitrag ist Teil einer Artikelserie, die sich im Vorfeld der Konferenz MSFT Explained mit Fragen der Digitalisierung unserer Gesellschaft auseinandersetzt.


Smarte Alltagsgegenstände

Computer waren anfangs raumfüllende Geräte, die viele Millionen kosteten. Erst vor gut 30 Jahren wurden sie so klein und billig, dass sich auch Privatleute einen “persönlichen” Computer leisten konnten. Heute geht es nicht mehr um stationäre PCs oder Laptops, sondern um allgegenwärtige Mikroprozessoren, die wertvolle Dienste in Smartphones, Maschinen und Haushaltsgeräten leisten. Das satellitenbasierte GPS war anfangs nicht für den zivilen oder gar “populären” Einsatz gedacht. Inzwischen stecken Lokalisierungsfunktionen in fast jedem Gegenstand – vom Trekking bis zur Navigation oder der Mitteilung über Reiserouten, Jogging-Strecken und Social Web-Ortsmitteilungen.

Viele Alltagsgegenstände sind ‚smart’, indem sie mit Informationstechnologie zum Sammeln, Speichern, Verarbeiten und Kommunizieren von Daten ausgestattet werden. Sie erhalten so eine gegenüber ihrem ursprünglichen Zweck erweiterte Funktion und damit eine neue, zusätzliche Qualität. Etwa Autoreifen, die den Fahrer benachrichtigen, wenn der Luftdruck abnimmt oder Medikamente, die sich rechtzeitig bemerkbar machen, bevor ihr Haltbarkeitsdatum abläuft. Idealerweise können smarte Dinge nicht nur mit Menschen und anderen smarten Gegenständen kommunizieren, sondern auch erfahren, wo sie sich befinden, welche anderen Gegenstände in der Nähe sind, was in ihrer Umgebung los ist sowie drahtlos auf externe Datenbanken zugreifen und passende Internet-basierte Services nutzen.

Rasensprinkler konsultiert Wetterprognose

Selbst banale Gegenstände erfahren eine Aufwertung. So gewinnt ein automatischer Rasensprinkler nicht nur durch eine Vernetzung mit Feuchtigkeitssensoren im Boden an Effizienz, sondern auch durch die Konsultation der Wetterprognose im Internet.

“Die Lokalisierung von Dingen wird immer einfacher, billiger und genauer machbar. Das ist ein mächtiges Paradigma”, so Mattern. Durch die bessere Beobachtung kann man Probleme früher erkennen und bei Mensch sowie Maschine vorbeugend eingreifen.

Beim “wearable computing” geht es weniger darum, medienwirksame Cyborg-Phantasien oder Jacken mit eingebautem MP3-Player zu realisieren. Viel mehr darum, durch unaufdringliche, ständig verfügbare Sensorik und Kommunikationstechnik dem einzelnen Menschen in persönlicher Weise zu dienen, ihn jederzeit an informationsverarbeitende Dienste im Hintergrund anzubinden, seine Sinne zu schärfen und ihn mit aktuellen Informationen zu versorgen; ihn also sicherer und mächtiger zu machen. “Das sind zwei bedeutende Triebkräfte, die zur Durchsetzung der neuen Technologien führen”, erklärt Mattern. Soweit die theoretischen Erörterungen. Es sind keine Hirngespinste, sondern Tendenzen, die unser Alltags- und Wirtschaftsleben verändern.

4.0-Begriffsgeklingel statt Taten

Deutschland spielt bei diesem Paradigmenwechsel auf der Anbieterseite eine Nebenrolle. Inflationäres 4.0-Begriffsgeklingel und Konferenz-Gerede können nicht darüber hinwegtäuschen, dass wir kaum Unternehmen wahrnehmen, die international in der ersten Liga der Netzökonomie spielen. Deutschland braucht eine Digitalisierungsstrategie, die über die Förderung der produktionsbezogenen Industrie 4.0 hinausgeht und die öffentliche Verwaltung ebenso einschließt wie das Gesundheitswesen, die Bildung und die private Nutzung des Internets der Dinge. So das Credo des “Jahresgutachtens der Expertenkommission Forschung und Innovation”, das ihr Vorsitzender Dietmar Harhoff vom Münchener Max-Planck-Institut für Innovation und Wettbewerb der Regierungschefin Angela Merkel überreicht hat. Die starke Fokussierung der Bundesregierung auf einen relativ kleinen Bereich der Digitalisierung sei nicht zielführend. So werde mit Industrie 4.0 einseitig auf Effizienzsteigerungen bei der Produktionstechnik abgehoben. “Hier bedarf es dringend einer überzeugenden Gesamtstrategie. Die ‚Digitale Agenda‘ erfüllt diesen Anspruch nicht, auch wenn sie eine hilfreiche Sammlung von Analysen und Handlungsnotwendigkeiten liefert”, schreiben die Wissenschaftler.

Start-ups, die mit ambitionierten Geschäftsmodell-Innovationen neue Quellen der Wertschöpfung aufbauen, haben in Deutschland derzeit keinen ausreichenden Zugang zu Wagniskapital und Wachstumsfinanzierung. Die Expertenkommission erneuert ihre Empfehlung, auf die Verbesserung der Rahmenbedingungen für Wagniskapital und die Einrichtung eines Börsensegments für Wachstumsunternehmen hinzuwirken. “Kompetenzen im Umgang mit digitalen Technologien und Geschäftsmodellen sind in der Breite zu fördern – in allen Ausbildungs- und Weiterbildungssegmenten.

Selbst bei Firmenübernahmen spielen Deutschland und Europa keine Rolle

Kritisch sehen die Studienautoren auch die deutsche Informatik, die in weiten Teilen zu abstrakt aufgebaut sei und sich nur mühsam der praktischen Anwendung nähere. Dringend raten die Autoren der Politik, der internetbasierten Wirtschaft sehr viel mehr Aufmerksamkeit zukommen zu lassen. Deutschland habe seine Förderung bisher zu defensiv auf die Erhaltung und Weiterentwicklung seiner klassischen Industrien wie Autoproduktion und Maschinenbau konzentriert: “Die derzeitige Situation ist alarmierend. Deutschland hat nicht nur in den klassischen Informations- und Kommunikationstechnologien in den letzten Jahrzehnten an Boden verloren. Viel gravierender ist, dass deutsche Unternehmen in den neuen Bereichen der digitalen Wirtschaft, in denen Kompetenzen bei der Verwendung IT-basierter Prozesse ausschlaggebend sind, bisher keine Stärken aufbauen konnten. Es sind US-Unternehmen, die die Aktivitäten in der internationalen Internetwirtschaft dominieren.

Allein die Marktkapitalisierung von Alphabet übertrifft die aller deutschen Unternehmen in der gesamten digitalen Wirtschaft. Zu den kapitalstärksten Unternehmen der Internetwirtschaft zählen hierzulande Zalando, United Internet und etablierte Unternehmen wie Axel Springer. Selbst deren Marktkapitalisierung ist im Vergleich zur Gruppe Silicon Valley-Konzerne nur sehr langsam gewachsen. Zu den Anwendungsfeldern, die zur weiteren Expansion der digitalen Wirtschaft führen, zählen Smart Home, Internet der Dinge, neue Formen der Kommunikation wie WhatsApp, Robotik, durch Computer und Datenbrillen erweiterte Realitätswahrnehmung (augmented reality), virtuelle Realität, sowie Mobilität oder Sicherheit. Also alles Aktivitäten, die von kapitalstarken Konzernen der Internetwirtschaft in Asien und USA beherrscht werden. Und selbst bei den Übernahmen, die von diesen Unternehmen ausgehen, spielen Deutschland und Europa eine untergeordnete Rolle.

Bei der Informatisierung des Alltags über das Internet der Dinge spielen wir nur noch in der Kreisliga.


Image (adapted) „„Activate the world“ (or: what „mobile“ really means)“ by Mike (CC BY 2.0)


Weiterlesen »

Privatsphäre in der digitalisierten Gesellschaft ?

Privacy (adapted) (Image by g4ll4is [CC BY-SA 2.0] via flickr)

Unsere digitalisierte Gesellschaft bietet viele Chancen, verändert aber auch unser Verhältnis zur Privatsphäre unwiderruflich. Fast rund um die Uhr sind wir heute vernetzt. Das Internet spielt im Leben vieler Menschen eine große Rolle und fast alle Aspekte unseres Lebens werden in irgendeiner Form digitalen Medien anvertraut. Das bietet eine Reihe von Chancen. Es besteht aber auch die Gefahr, dass wir durch diese ständige digitale Öffentlichkeit unsere Privatsphäre einbüßen. Diese aber ist wichtig für den Menschen als soziales Wesen. Deswegen müssen wir Strategien entwickeln, den Verlust der Privatsphäre zu begrenzen und zu kontrollieren.


Dieser Beitrag ist Teil einer Artikelserie, die sich im Vorfeld der Konferenz MSFT Explained mit Fragen der Digitalisierung unserer Gesellschaft auseinandersetzt.


Das Internet als Chance

Bei dieser kritischen Betrachtung geht es keineswegs darum, das Internet oder dessen Nutzung zur sozialen und geschäftlichen Vernetzung zu verteufeln. Die neuen Möglichkeiten bieten riesige Chancen. Sie ermöglichen nicht nur neue ökonomische Ansätze und Geschäftsmodelle, sondern sie verändern auch in vieler Hinsicht unsere Gesellschaft zum Positiven. Wissen wird einfacher und für mehr Leute verfügbar, Kampagnen-Portale und e-Voting ermöglichen mehr direkte Demokratie, Hierarchien werden durch die flachen Kommunikationsstrukturen Schritt für Schritt überwunden und geographische Landesgrenzen erscheinen zunehmend bedeutungslos angesichts eines Mediums, das Echtzeit-Kommunikation rund um die Welt ermöglicht. All das sollten wir feiern und bei allen berechtigten Bedenken nicht aus den Augen verlieren.

Privatsphäre in Gefahr

Unsere Privatsphäre allerdings ist durch das Internet und dessen heutige Nutzung in Gefahr. Kaum noch gibt es Momente, in denen wir nicht in irgendeiner Form unter Beobachtung sind. Ein Teil der ständigen Öffentlichkeit ist selbst gewählt. Begeistert – und mitunter allzu sorglos – teilen viele Menschen auch private Momente mit ihren Social-Media-Followern, laden Fotos, Standortdaten und Videos hoch und machen das Private somit öffentlich.

Andere Angriffe auf die Privatsphäre sind in der Art und Weise begründet, wie unsere Apps und die digitale Marktwirtschaft funktionieren. Daten über unsere sozialen Kontakte, unsere Hobbies und unser Einkaufsverhalten sind bares Geld wert und werden dementsprechend gern und selbstverständlich gesammelt. Gerade in der Summe ermöglichen auch diese Informationen besorgniserregend genaue Rückschlüsse auf unser Leben.

Überwachung im Namen der Sicherheit

Neben den genannten Formen der digitalen Öffentlichkeit, die selbst gewählt oder zumindest auf Grund ihrer Vorteile (Bequemlichkeit, Preisvorteile) in Kauf genommen werden, gibt es allerdings eine Bedrohung für die Privatsphäre im Netz, gegen die einzelnen Nutzer nur sehr begrenzt und indirekt etwas unternehmen können: die staatliche Überwachung, durchgeführt im Namen der Sicherheit.

„Das Internet darf kein rechtsfreier Raum sein“, heißt es oft von Seiten der Befürworter massiver staatlicher Überwachung. Das ist natürlich nicht grundsätzlich falsch – auch im Netz muss es ein gewisses Ausmaß an Sicherheit und sozialer Verbindlichkeit geben. Allerdings dient der genannte Satz derzeit vor allem dazu, ein Ausmaß an Überwachung zu rechtfertigen, das weit über alles bisher Gekannte hinaus geht und Handlungen auch völlig unbescholtener Menschen in einer Art und Weise nachvollziehbar macht, wie es ohne Internet gar nicht möglich wäre.

So wird beispielsweise immer wieder darüber diskutiert, ob verschlüsselte Kommunikations-Software, Hintertüren eingebaut bekommen muss, über die die Ermittlungsbehörden jederzeit zugreifen können. In Deutschland konnten diese Vorstellungen bislang nur auf wenig Gegenliebe stoßen, in anderen Ländern, wie den USA und Großbritannien, werden entsprechende Pläne weitaus konkreter diskutiert. Diese Ideen sind gefährlich. Nicht nur würden solche Backdoors die betreffende Software anfälliger für die Angriffe von Kriminellen machen. Sie würden auch Zugriffe der Behörden in einem Ausmaß ermöglichen, welcher in der physischen Welt nicht üblich ist – denn schließlich ist es so gut wie immer möglich, ein vertrauliches Gespräch an einem ruhigen Ort zu führen. Das digitale Äquivalent dazu ist nur mit starker Verschlüsselung denkbar. Und wer garantiert uns, dass die Ermittlungsbehörden in jedem Fall vertrauenswürdig sind – und das auch in Zukunft, wenn entsprechende Systeme etabliert sind, immer sein werden?

Ähnliches gilt für die – gerade wieder eingeführte – Vorratsdatenspeicherung. Bei dieser Sicherheitsmaßnahme werden die Verbindungs- und Standortdaten aller Nutzer von Telekommunikation (Telefon und Internet) von den Providern verdachtsunabhängig gespeichert. Die Ermittlungsbehörden können dann bei einem Verdachtsfall auf diese Daten zugreifen. Problematisch bei dieser Maßnahme ist, dass die Archivierung der Daten vollkommen ohne einen konkreten Anlass und somit zwangsläufig auch gegenüber völlig unschuldigen Menschen erfolgt. Zwar werden bei der Vorratsdatenspeicherung „nur“ Metadaten archiviert. Auch diese ermöglichen jedoch bereits umfassende Rückschlüsse auf das Leben und das soziale Umfeld. Die letzte Umsetzung der Vorratsdatenspeicherung wurde vom Bundesverfassungsgericht kassiert. Auch gegen das neue Gesetz laufen bereits mehrere Verfassungsbeschwerden.

Ein weiteres großes Diskussionsthema, das allerdings den Rahmen dieses Artikels sprengen würde, sind die Spionage-Tätigkeiten der NSA und des britischen GCHQ, oftmals mit Unterstützung ausländischer (unter anderem deutscher) Geheimdienste. Die von Whistleblower Edward Snowden aufgedeckten Überwachungs-Programme sind so umfassend, dass es mitunter eher sinnvoll scheint, aufzuzählen, welche Bereiche des Internets von den Diensten der „Five Eyes“-Staaten nicht überwacht werden. Diese Enthüllungen werden uns zweifellos noch auf Jahre hinaus beschäftigen.

Das Problem ist nicht, dass es Möglichkeiten gibt, auch im Internet Polizei-Maßnahmen gegen Verdächtige einzuleiten. Das ist vielmehr richtig und wünschenswert. Aber so funktioniert es derzeit nur selten. Stattdessen wird eine umfassende, verdachtsunabhängige Überwachung aller Internet-Nutzer vorgenommen – und diese ist ein großes Problem.

Privat im Internet: So kann es gelingen

Wir Menschen brauchen ein gewisses Ausmaß an Privatsphäre, an geschützten Räumen – für unsere geistige Gesundheit, unsere zwischenmenschlichen Beziehungen und auch angstfreien politischen und sonstigen Meinungsaustausch. Wie aber kann es uns gelingen, ein Mindestmaß an Privatheit zurückzuerobern, ohne die Vorteile der digitalen Gesellschaft aufzugeben oder uns selbst von diesen auszuschließen?

Der erste und wichtigste Schritt ist es, zu lernen, welche Daten geschützt werden sollten und was es bedeutet, Informationen an bestimmter Stelle ins Netz zu stellen. Wir müssen sensibilisiert werden für den Unterschied zwischen schützenswerten und weniger wichtigen Informationen und uns weiterbilden in der Art, wie sich Daten online verbreiten. Unsere Persönlichkeitsrechte und auch die unserer Mitmenschen müssen für uns mehr werden als ein vages juristisches Stichwort, wenn es beispielsweise darum geht, Fotos zu machen und diese womöglich auch ins Internet zu stellen. Nur durch einen gezielten und informierten Umgang mit unseren Daten – und denen der Menschen, mit denen wir interagieren, – können wir hoffen, die Hoheit über diese zurück zu gewinnen. All diese Fähigkeiten müssen wir natürlich auch der nächsten Generation beibringen, sei es in der Schule, der Familie, in gezielten Kursen oder eher zufällig im weiteren sozialen Umfeld. Denn auch die vermeintlichen „Digital Natives“, die schon im Kleinkind-Alter Touchscreen-Gesten beherrschen und als Teenager ganz selbstverständlich mit WhatsApp und Snapchat umgehen, lernen nicht von selbst, wie sie ihre persönlichen Daten schützen. Aufgewachsen mit ständiger Erreichbarkeit, ist es für sie eher schwieriger als für die ältere Generation, diese Fähigkeit zu meistern. Daher dürfen wir sie nicht im Stich lassen und ungeschützt der totalen Öffentlichkeit aussetzen.

Wo immer möglich, sollten wir – gerade für die berufliche, aber auch für die private Nutzung – Apps und Diensten den Vorzug geben, die die Privatsphäre achten, seien es Instant Messenger wie Signal, Datenschutz-kompatible E-Mail-Provider oder andere Software. Dadurch schützen wir uns nicht nur selbst. Wir setzen auch unsere Marktmacht ein, um Anbieter, die sich Gedanken über Datenschutz, Datensicherheit und Privatsphäre machen, zu fördern, und sorgen so hoffentlich langfristig dafür, dass es mehr solche Angebote gibt. Ähnlich gelagert ist die Empfehlung, wo immer möglich Verschlüsselung zu nutzen, denn auch diese ist ein Grundstein digitaler Privatheit und Freiheit.

Last but not least: um dauerhaft und für alle Menschen die Privatsphäre im Internet zu verbessern, ist es unabdingbar, einen politischen Wandel anzustreben. Überwachungsmaßnahmen, die zweifelhaften Nutzen bringen, dafür aber die Privatsphäre von Millionen unschuldigen Menschen einschränken, müssen geächtet und abgeschafft werden. Es darf nicht mehr auf jeden kriminellen Akt reflexartig mit mehr Überwachung reagiert werden, selbst wenn mehr als zweifelhaft ist, ob diese Überwachung überhaupt effektiv gegen diese – oder eine andere – Art von Verbrechen schützt. Die Regierung muss aufhören, Politik mit der Angst der Menschen zu machen, um diese zur Aufgabe ihrer Grundrechte zu bewegen. Für all das müssen wir uns auf politischem Wege einsetzen. Damit wir auch in Zukunft noch wissen, was es heißt, etwas ganz privat zu tun.


Image (adapted) „Privacy“ by g4ll4is (CC BY-SA 2.0)


Weiterlesen »

Schöne neue Arbeitswelt: Arbeiten wir smarter oder doch nur mehr und schneller?

NEC-ext-39 (adapted) (Image by NEC Corporation of America [CC BY 2.0] via flickr)

Wie unsere digital gestützte Arbeitswelt aussieht, liegt ganz allein in unserer Macht. Umso wichtiger sind heute und morgen die digitalen Kompetenzen des Einzelnen, sowie ein durchdachtes digitales Konzept des Arbeitgebers. Kritiker stehen der Fülle an digitalen Werkzeugen, neuen kollaborativen Arbeitsmethoden und der Ort- und Zeitentkoppelten mobilen Arbeit skeptisch gegenüber. Arbeiten wir am Ende smarter oder doch einfach nur mehr und schneller? Einer in vielen Teilen durch Angst, Skepsis und Fehlinformation gekennzeichneten Debatte möchte ich ein paar Aspekte beisteuern, die meines Erachtens wichtig sind in der Suche nach Lösungen dafür, unsere Arbeitswelt der Gegenwart und Zukunft optimal zu gestalten.


Dieser Beitrag ist Teil einer Artikelserie, die sich im Vorfeld der Konferenz MSFT Explained mit Fragen der Digitalisierung unserer Gesellschaft auseinandersetzt.


Ich bin der Meinung, wir können sehr wohl intelligenter (“smarter”) arbeiten. Das hat erstmal mit dem Arbeitsvolumen und der Geschwindigkeit nicht unbedingt etwas zu tun. Man muss es aber auch nicht völlig getrennt voneinander betrachten.

Wovon ist eigentlich die Rede?

Ob “New Work” oder Arbeit 4.0, jeder hat seine eigene Vorstellung dessen, was unter der “Neue Arbeit”-Debatte gemeint ist. Allen Definitionen, Studien und Diskursen sind gleich, dass wir uns sehr schwer damit tun, zum einen abzugrenzen wann die alte Arbeit endet und die neue beginnt oder begann. Zum Anderen wird auf verschiedenen Ebenen diskutiert, die einen auf arbeitsrechtlicher Ebene, die anderen auf volkswirtschaftlicher Ebene. Wiederum andere denken in Berufsbildern, Industrie 4.0 oder sozioökonomischen Machtverschiebungen. Es gibt bedrohliche Untergangsszenerien, genauso wie heile Welt Szenarien.

Irgendwo dazwischen steht die Frage der aktuell existierenden digitalen oder vernetzten Werkzeuge, die uns Menschen heute oder in naher Zukunft zur Verfügung stehen und wie wir uns diese zunutze machen, um unsere Arbeit zu verbessern. Die technophobe Fraktion macht auch hier Angst vor einer Dominanz der Gadgets, sieht sich durch “always on”-Mentalitäten bedroht und befürchtet. Dass das Individuum einfach mehr und mehr Arbeit zu schultern hat, weil die Technologien vieles an Prozessen und Kleinkram wegrationalisieren hilft. Die technophile Fraktion stürzt sich hingegen auf jedes neue Tool. Das auf den Markt kommt, erfreut sich der Möglichkeiten, vom Schlafzimmer heraus ein Firmenimperium aufbauen zu können und schickt lieber um Mitternacht noch Mails. Anstatt morgens mit einem Emailberg zu frühstücken.

Kompetenzen und Konzepte für smartes Arbeiten

Dem Dickicht an digitalen Tools, vernetzten Arbeitsprozessen und neuen Eigenverantwortungen gilt es, eine Stärkung des Einzelnen entgegen zu setzen. Nur wer dazu technisch und intellektuell in der Lage ist, wird sich in der neuen digitalen Arbeitswelt wohl fühlen und sich die Digitalisierung zu Nutze machen können, statt von ihr getrieben zu werden. Auf der anderen Seite sind die Arbeitgeber gefragt, beziehungsweise die Arbeitsumfelder selbst. Auch dort braucht es digitale Konzepte, die optimale Zusammenarbeit in neuen Teams und Hierarchien clever definieren, technische Hilfestellungen ermöglichen, für Weiterbildung, Sicherheit und Motivation sorgen und Mitarbeiter konkret in die Auswahl von Hardware, Software und Prozessen miteinbeziehen, die Individuen stärken und Arbeit besser machen.

Wenn neue Technologien einzelne Personen überfordern, Druck erzeugen, belasten oder rein aus ökonomischen Optimierungsgründen eingesetzt werden, dann ist das ein Problem. Ein großes Problem daran ist aber auch der oder die einzelne Arbeitnehmer/in, wenn entsprechende Kompetenzen nicht vorhanden sind. Um sich digitale, vernetzte Hilfsmittel genau zu dem zu machen. Wozu sie gedacht sind (zur Hilfe), bedarf es eines gewissen Grads an digitaler Kompetenz, die zwar zu einem Großteil technischer Natur ist, aber auch oft nur Einarbeitungszeit, Aufklärung oder Information erfordert. In vielen Kontexten ist daran aber nicht gedacht. Mitarbeiter werden, was neue digitale Arbeitsumgebungen anbelangt, oft vor vollendete Tatsachen gestellt und damit sind manche berfordert. Andere fühlen sich wiederum in die Vergangenheit transportiert, sobald sie im Büro angekommen sind.

Eine Stärkung individueller digitaler Kompetenzen ist Kernbaustein einer smarten “neuen” Arbeitswelt. Die digitale Transformation reduziert schnell aber schrittweise mehr und mehr Routinetätigkeiten, Prozessarbeit und administrative Komponenten der Kernarbeit. Gleichzeitig aber landen immer mehr scheinbar banale Aufgaben, von der Terminverwaltung bis zur Reisekostenabrechnung, beim Mitarbeiter. Vor allem neue digitale Unternehmen, auch in Konzerngröße, haben sich längst von “Sekretärinnen” verabschiedet. Ein Relikt aus dem Industriezeitalter. In der Arbeitswelt von morgen wird jeder einzelne zu einer selbstorganisierenden Projektzelle, der oder die Arbeitnehmer/In sind nicht mehr länger ein kleines Rädchen, sondern jeweils ein Unternehmen im Unternehmen. Jeder ist sein eigener Projektleiter.

Durch die genannte Reduzierung entsteht aber gleichzeitig oft der Druck, mehr Kernarbeit auf sich zu nehmen. Wer nun sein digitales Arbeitsumfeld nicht so weit im Griff hat, sich dadurch die Arbeit zu erleichtern, steht plötzlich vor mehr Belastung, statt weniger. Daher ist es essentiell, dass sich Mitarbeiter sowohl selbst, als auch organisiert durch Arbeitgeber, digitale Kompetenzen aneignen. Es muss begonnen werden, die Technologien im Ansatz zu verstehen und in Teams zusammen optimale Arbeitsprozesse zu entwickeln. An deren Ende muss ein Arbeitsumfeld stehen, bei dem die digitalen und vernetzten Werkzeuge natürlicher Teil des Arbeitsverhaltens oder fast unsichtbare Helfer werden. Quasi digitale Erweiterungen der natürlichen Personen und Prozesse. Das zu erreichen ist schwer, vor allem in technologiefernen Branchen oder bei entsprechend ungünstigen Demografie- oder Arbeitsstrukturen. Wenn Mitarbeiter aber erst einmal diverse Tools und neue Prozesse voll im Griff haben, redet auch niemand mehr davon, dass diese nur eine Last wären.

Lösungsebene 2: Digitale Konzepte auf Arbeitnehmerseite

Arbeit für alle smarter zu gestalten beginnt schon auf IT Ebene. Ein modernes “IT Landscape Management” sollte auch für kleine Unternehmen oder Projekte kein Fremdwort sein. Welche Tools setzen wir ein, welche Geräte stehen zur Verfügung, wer ist für die Technik verantwortlich, wie steht es um die Akzeptanz bei den Mitarbeitern? Ebenso wichtig, vor allem in größeren Organisationen, ist eine durchdachte BYOD(“bring your own device”)-Strategie, die ein sinnvolles Zusammenspiel mit der Konzerninfrastruktur ermöglicht, Sicherheitsfaktoren bedenkt und Mitarbeiter aber nicht in ihren kreativen Freiräumen einschränkt.

Beides zusammen sollte dafür sorgen, dass sich die Mitarbeiter von einem digitalen Arbeitsumfeld mit Hand und Fuß unterstützt fühlen. Viele Unternehmen lassen ihre Mitarbeiter größtenteils alleine, überfordern sie mit IT-Prozessen und Vorschriften oder verweigern wichtige oder motivierende Tools, was wiederum zu Demotivation und Effizienzverlusten führt. Eine Einbeziehung von Mitarbeitern in die Bedarfsanalyse bei Tools und Geräten hilft dabei, jenseits der Geschmäcker von Abteilungsleitern die Technologien zum Einsatz zu führen, mit denen Mitarbeiter nachher auch gut und gerne arbeiten können und wollen.

Viel wichtiger aber ist es, dass all dies Teil einer kohärenten digitalen Strategie oder zumindest projektbezogener digitaler Konzepte ist, mit denen die Organisation für sich und seine Mitarbeiter einen Weg vorzeichnet. Er bestimmt wie mit Entwicklungen der digitalen Transformation umgegangen wird. Dort sollten sich Fragen nach dem Einsatz von Technologien, der Veränderung von Rollen im Unternehmen, der Anpassung von Hierarchien und Prozessen, sowie der Innovation oder möglicher Disruption ökonomischer Aspekte der Organisation wiederfinden. Wie steht das Unternehmen beispielsweise zu flexiblen Arbeitszeiten und -orten? Wie ist das Verhältnis von festen und freien Angestellten? Welche Rollen spielen Diversität und Familienfreundlichkeit? Will das Unternehmen digital eine Führungsrolle einnehmen? Zu viele Organisationen empfinden heute nach wie vor “IT” im weitesten Sinn als Klotz am Bein, als Kostenfaktor oder Thema, das man auf eine “IT Abteilung” abschieben kann, wenn man eine hat. Solange diese Denkweise nicht Platz macht für ein systemisches Verständnis von Digitalisierung und Vernetzung im Arbeitsalltag von Unternehmen, wird es weiterhin kein positives Bild von neuer Arbeit geben.

Smartere Arbeitswelt

Es klingt wie eine arrogante Aussage technologieverwöhnter “mobile Worker” aus der Berliner Blase. Aber nüchtern betrachtet gibt es viele strategisch gesehen logische Lösungsansätze für neue Arbeit. Neben den kulturellen Umwälzungen in unserer Arbeitswelt gibt es eben viele Hindernisse, die mit gutem Management in sinnvollem Aufwand doch überwindbar sind. Wenn ich das nächste Mal von jemandem zu hören bekomme, dass all die Apps, Tools und Plattformen nur das Arbeitsvolumen erhöhen und die Geschwindigkeit im Unternehmen hochdrehen, werde ich fragen: Warum ist das denn so? Wird das im Unternehmen thematisiert? Wer gibt die Regeln vor? Kommst Du mit den Tools zurecht? Vielleicht sollten sich mehr Manager an die eigene Nase fassen und sich fragen, wie in der eigenen Organisation gearbeitet wird und sich als nächstes Projekt erst einmal eine Strategie erarbeiten. Zusätzlich sollte sich gefragt werden, wie mit dem digitalen Wandel umzugehen ist, bevor wieder irgendjemand neue Tablets einkaufen will oder die ganze Abteilung zum dritten Mal im Jahr ins nächste Projektmanagement-Werkzeug einlädt.

EXPLAINED von Microsoft Berlin


Image (adapted) „NEC-ext-39“ by NEC Corporation of America (CC BY 2.0)


Weiterlesen »