All posts under entwicklung

CodePen – Die soziale Entwicklungsumgebung für den Browser

Wenn wir uns das Klischee eines Entwicklers vorstellen, denken viele an einen einsamen Nerd, der alleine vor seinem Computer sitzt. Dieses Bild ist mittlerweile aber völlig überholt. In der Realität ist Software-Entwicklung eine sehr kommunikative Tätigkeit, erfordert eine umfangreiche Teamarbeit und einen regen Austausch. Für Alleingänge sind die meisten Projekte heutzutage schlicht und ergreifend zu komplex.

Aus diesem Grund nutzen viele Entwickler Seiten wie Stackoverflow, Hackernoon oder CodePen um sich mit Anderen auszutauschen, ihre Lösungen auf Probleme zu präsentieren oder Lösungen für ihre eigenen Probleme zu finden. CodePen wurde 2012 von Tim Sabat, Alex Vazquez und Chris Coyier gegründet und wird als eine Art soziale Entwicklungsumgebung zum Testen und Zeigen von Website-Elementen beschrieben.

Was ist eine Entwicklungsumgebung?

Eine Entwicklungsumgebung ist eine virtuelle Umgebung in der man programmiert. So kann eine Entwicklungsumgebung für viele schon aus einem einfachen Text-Editor wie Notepad++ bestehen. Notepad++ ist aber wirklich nicht viel mehr als ein einfacher Text-Editor und außerdem ziemlich alt und unansehnlich. In der Praxis enthalten Entwicklungsumgebungen deutlich mehr Funktionen. Modernere und professionellere Editoren wie Visual Studio Code, Atom oder Sublime Text sind zum Beispiel mit etlichen Plugins erweiterbar um den Entwickleralltag zu erleichtern.

Auch CodePen ist eine Entwicklungsumgebung. In CodePen lässt sich, wie der Name schon sagt, Code schreiben. Allerdings ist die Plattform auf Web-Entwicklung beschränkt. Entwickler können hier in einem Editor direkt im Browser ganze Webseiten, oder nur kleine Ausschnitte davon programmieren. Diese Ausschnitte nennt CodePen Pens. So können Web-Entwickler Funktionen, die sie in ihr eigentliches Projekt einbauen wollen, auf CodePen vorher ausprobieren.

Angenommen ihr wollt für eure Website ein Menü programmieren, das am rechten Bildschirmrand ausgefahren wird. Auf CodePen könnt ihr, ohne dass ihr die gesamte Anwendung um das Menü herum entwickeln müsst, nur diesen kleinen Teil programmieren. Dafür erstellt ihr einfach einen neuen Pen und programmiert drauf los. Wenn alles so funktioniert, wie ihr es euch vorstellt, könnt ihr das Menü in eure eigentliche Website einbauen.

See the Pen Insert Cards from Left and right by Moritz Stoll (@BerndStrommberg) on CodePen.

Was macht CodePen so sozial?

CodePen ist mehr als eine Entwicklungsumgebung. Tatsächlich ist die Seite eine Art Social Network. Zwar kann man CodePen auch ohne Account benutzen, doch mit einem eigenen Profil könnt ihr eure Pens und Projekte in eurem Profil speichern. Wenn jetzt jemand nach „Menu-Bar-Right“ sucht, könnte es sein, dass er auf euer ausfahrbares Menü stößt und dieses dann auch in seine Website integriert. Dieser Aspekt von CodePen ist gerade dann praktisch, falls ihr im Bereich der Web-Entwicklung noch neu seid. Webseiten werden nämlich nicht nur mit einer, sondern mit drei unterschiedlichen Technologien entwickelt.

Da wäre einmal HTML um die grobe Struktur einer Seite festzulegen, dann CSS um der Struktur Form und Farbe zu geben und schlussendlich JavaScript um die Seite interaktiv zu machen. Das kann am Anfang alles ganz schön überfordernd sein und oft steht man vor dem Problem zwar zu wissen, was man erreichen möchte, aber einfach nicht zu wissen, wie man seine Idee am besten umsetzt. Eine kurze Suche auf CodePen kann einem manchmal die nötige Lösung liefern. Außerdem gibt es auf der Seite, neben dem Erstellen von Pens, die Möglichkeit eigene Posts zu erstellen. Hier teilen erfahrene Entwickler ihr Wissen, was ebenfalls sehr nützlich sein kann.

Die Basis-Funktionen sind dabei kostenlos. Wer aber Funktionen wie kollaboratives Arbeiten, Live View, oder das Einbinden eigener Domains nutzen möchte, kann diese mit einem von drei kostenpflichtigen Abonnements freischalten. Das kleinste Paket Annual Starter kostet acht, das Paket Annual Developer zwölf und das umfangreichste Paket Annual Super 26 Dollar im Monat. Der Umfang an Funktionen wächst dabei mit dem Preis der Pakete. Die meisten der kostenpflichtigen Funktionen sind aber gerade am Anfang eigentlich nicht nötig und man kann die soziale Entwicklungsumgebung wunderbar in der kostenlosen Variante benutzen.

CodePen ist nicht nur für Anfänger!

Bisher klingt es so, als sei CodePen nur etwas für Anfänger um bei Anderen abzukupfern und mit reinem HTML, CSS und JavaScript zu arbeiten. In der Realität der Web-Entwicklung werden aber häufig sogenannte Frameworks und Präprozessoren benutzt um eine Website zu entwickeln. Frameworks stellen dabei eine ganze Reihe an Funktionen bereit, um die Programmierung einer Webseite deutlich zu erleichtern. Präprozessoren werden oft zusammen mit HTML und CSS benutzt. Sie erlauben es eine andere, einfachere Schreibweise als die von HTML oder CSS vorgegebene zu benutzen. Die Präprozessoren wandeln dann den Code in normalen HTML- oder CSS-Code um. In CodePen lassen sich diverse gängige Frameworks und Präprozessoren ganz einfach einbinden und benutzen.

Einfach nur stöbern

Ihr könnt auf CodePen auch einfach nur stöbern. Direkt auf der Startseite werden euch aus den Kategorien Pens, Projects, Posts und Collections sogenannte Picks vorgestellt. Also besonders interessante Inhalte, die von anderen Nutzern erstellt wurden. Stöbert man in diesen herum, kommen einem teilweise selbst neue Ideen für eigene Projekte, oder man lernt etwas Neues dazu. Manchmal hat jemand aber auch einfach einen guten Tetris-Klon erstellt und man ist erst mal für fünf Stunden beschäftigt.

Ihr solltet CodePen einfach ausprobieren

Egal ob ihr Anfänger, Fortgeschrittene oder gar keine Entwickler seid, CodePen ist auf jeden Fall einen Besuch wert. Probiert ein wenig rum, lernt vielleicht das Eine oder Andere, oder setzt gleich ein ganzes Projekt um. Es macht auf jeden Fall Spaß!


Image by Max / adobestock.com

Weiterlesen »

So helfen Umfragen Kunden und Unternehmen

Selbsterkenntnis ist ein guter Anfang für große oder kleine Veränderungen. Wer sich selbst und sein Tun reflektiert, hat die Chance, Fehler zu erkennen und sie auszubessern. Gilt das auch für komplexe Organisationen wie ein Wirtschaftsunternehmen? Wie können Firmen Selbstreflexion betreiben, um zu mehr Qualität, Effizienz und letztlich Erfolg zu gelangen? – Probates Mittel für die unternehmensbezogene Selbsterkenntnis sind von jeher Umfragen. Was vor Jahren noch aufwendige Papier-Prozesse waren, ist heutzutage durch die digitalen Hilfsmittel ein Kinderspiel. Jedes Unternehmen kann in wenigen Schritten seine Kunden und Partner erreichen und deren Grundhaltung, Zufriedenheitsgrad und Wünsche abfragen.

Sowohl für bereits etablierte Betriebe als auch für Startups ist das unmittelbare Feedback vom Kunden ein wichtiges Instrument innerhalb der Unternehmensleitung. Denn nur so können Produkte und Dienstleistungen verbessert werden. Besonders hilfreich dabei ist ein starkes Umfrage Tool. Es stellt die Grundlage für einen wichtigen Wettbewerbsfaktor dar. Feedback von Kunden ist ein Geschenk, das sinnvoll genutzt werden sollte. Immerhin erhalten Unternehmen auf diese Weise wertvolle Hinweise darüber, was sie gut machen und wo sie den Bedürfnissen ihrer Kunden noch besser gerecht werden können. Übrigens sind Kunden nicht der einzige Faktor, der zum Erfolg oder Nicht-Erfolg einer Marke beiträgt. Auch Mitarbeiter leisten natürlich einen entscheidenden Beitrag. Eine Mitarbeiterumfrage durchzuführen kann deswegen ebenso zu wichtigen Ergebnissen führen.

Wie kann ich Kunden an mein Unternehmen binden?

Was ist Kunden am wichtigsten? Nur wer die Antwort darauf kennt, kann entsprechend handeln. Mit der Zeit können sich Kundenwünsche ändern. Und auch innerhalb einzelner Alters- und Zielgruppen sind Unterschiede möglich. So achten Leute ohne Auto zum Beispiel besonders darauf, dass das Geschäft gut an den öffentlichen Nahverkehr angeschlossen ist. Workaholics hingegen lieben es, ihre Waren unkompliziert und von überall aus via Internet bestellen zu können. Sicherlich gibt es allgemeine Umfrageergebnisse dazu, was Kunden bei einem Unternehmen wichtig ist. Jedoch besitzt nicht jede Firma die gleiche Zielgruppe, so dass sich hier durchaus Unterschiede ergeben können. Deswegen ist es besser eigene, zielgerichtete und individuelle Umfragen durchzuführen.

Jeder einzelne Kunde ist wichtig für ein Produktions- oder Dienstleistungsunternehmen. Wie Befragungen zeigen, lässt sich eine einmal gefasste Meinung nicht mehr so schnell ändern. In Zeiten des Internets nutzen Kunden gerne die Möglichkeit, ihre Meinung über Online-Bewertungen kundzutun. Dies kann von Vorteil sein, wenn man Wert auf die Kundenzufriedenheit legt. Bei zu vielen unzufriedenen Kunden kann das Ganze aber auch schnell nach hinten losgehen, denn Kunden vertrauen Online-Bewertungen. Das hat unlängst die Forschungsplattform Nielsen offengelegt. Demnach vertrauen etwa zwei Drittel aller Kunden den Online-Meinungen. Umso wichtiger, dass diese positiv ausfallen.

Einsatzmöglichkeiten von Umfragen

Umfragen haben einen wichtigen Einfluss auf den unternehmerischen Erfolg. Idealerweise sollte Kundenfeedback regelmäßig eingeholt werden. Die Auswertung muss auf Routinen und Automatismen beruhen, so dass hier keine Unregelmäßigkeiten auftreten können. Überall dort, wo man mit Kunden und potentiellen Kunden in Kontakt kommt, sollte idealerweise das Feedbackmanagement eingesetzt werden. Dabei wird in drei unterschiedlichen Typen von Fragen unterschieden: Offene Fragen sind so angelegt, dass der Befragte in einem dafür vorgesehenen Feld eine freie Antwort eintragen kann. Diese Art der Umfrage ist eher kompliziert auszuwerten und wird deswegen selten bevorzugt. Hilfreicher sind geschlossene Fragen, bei denen der Befragte aus unterschiedlichen Antwortmöglichkeiten wählen kann. Wer möchte, kann auch festlegen, dass Mehrfachnennungen zugelassen sind. Der dritte Umfragetyp sind Beurteilungsfragen. Sie sind ideal, um Trends, Stimmungen, eine Zustimmung oder Ablehnung abzufragen. Befragten wird hierbei eine Matrix, ein Schieberegler oder eine Skala zur Verfügung gestellt.

Und nicht zu vergessen: Nicht nur an die Kunden denken! Auch Mitarbeiterbefragungen sind wichtig und können helfen, Probleme und Lösungsansätze zu erkennen. Schließlich sind zufriedene Mitarbeiter ebenso maßgeblich am Erfolg eines Unternehmens beteiligt wie zufriedene Kunden und Geschäftspartner.


Image by application / pixabay.com

Weiterlesen »

Algorithmen und Journalisten: Zusammenarbeit ist Pflicht

Apple (adapted) (Image by Pexels [CC0 Public Domain] via Pixabay)

Seit die Nachrichten- und Presseagentur Associated Press die Produktion und Publikation von Quartalsberichten im Jahr 2014 automatisiert hat, haben Algorithmen, die automatisch Berichte aus strukturierten, maschinenlesbaren Daten generieren, die Nachrichtenindustrie aufgerüttelt. Die Versprechen dieser Technologie – die oft auch als automatisierter Journalismus bezeichnet wird – sind verlockend: Einmal entwickelt, können solche Algorithmen eine unbegrenzte Anzahl an Berichten zu einem spezifischen Thema und zu geringen Kosten hervorbringen. Und sie schaffen dies schneller, günstiger, mit weniger Fehlern und in mehr Sprachen als es menschliche Journalisten je tun könnten.

Diese Technik bietet die Möglichkeit, mit der Erstellung von Inhalten für sehr kleine Zielgruppen Geld zu verdienen – und vielleicht sogar mit personalisierten Newsfeeds für nur eine Person. Und wenn dies gut funktioniert, nehmen die Leser die Qualität der automatischen News als gleichwertig mit den von Journalisten erstellten Nachrichten wahr.

Als Forscher und Erzeuger von automatisiertem Journalismus habe ich herausgefunden, dass computergestützte Nachrichtenberichterstattung einige wesentliche Stärken zu bieten hat. Ich habe allerdings auch deutliche Schwächen identifiziert, die die Wichtigkeit von Menschen im Journalismus hervorheben.

Die Möglichkeiten der Automatisierung identifizieren

Im Januar 2016 habe ich das „Handbuch zum automatisierten Journalismus“ veröffentlicht, das den Stand der Technik zu dieser Zeit untersuchte. Darin wurden auch Schlüsselfragen für die zukünftige Forschung aufgestellt und potentielle Implikationen für Journalisten, Nachrichtenkonsumenten, Medienkanäle und die Gesellschaft im Ganzen diskutiert. Ich kam zu dem Ergebnis, dass der automatisierte Journalismus sich trotz seines Potentials noch in den Kinderschuhen befindet.

Zum jetzigen Zeitpunkt versorgen Systeme des automatisierten Journalismus vor allem spezielle Zielgruppen unterschiedlicher Größe mit sehr spezifischen Informationen, indem sie beispielsweise Zusammenfassungen von Sportveranstaltungen in unteren Ligen, Finanznachrichten, Kriminalitätsberichte oder Erdbebenwarnungen bereitstellen. Die Technologie ist auf diese Aufgabentypen beschränkt, weil die Informationsarten, die die Systeme aufnehmen und in Texte verwandeln können, die dann für Menschen tatsächlich lesbar und verständlich sind, begrenzt sind.

Am besten funktioniert die Verarbeitung von Daten, die genauso akkurat strukturiert sind wie Aktienkurse. Hinzu kommt, dass Algorithmen nur beschreiben können, was passiert ist – und nicht warum, weswegen sie am besten geeignet sind für routinebasierte Berichte, die auf Fakten beruhen, und entsprechend wenig Spielraum für Unsicherheiten oder Interpretationen bieten, wie beispielsweise Informationen darüber, wo und wann sich ein Erdbeben ereignet hat. Der entscheidende Vorteil von computergestützter Berichterstattung ist, dass sie wiederholte Abläufe schnell und einfach erledigen kann. Daher wird sie am besten eingesetzt, um sich wiederholende Ereignisse abzudecken, für die es erforderlich ist, immer wieder eine hohe Anzahl an ähnlichen Berichten zu produzieren. Dies gilt beispielsweise für Sportveranstaltungen.

Wahlberichterstattung

Ein anderer sinnvoller Bereich für automatisierte Nachrichtenberichterstattung sind Wahlen – im Speziellen im Hinblick auf Ergebnisse der zahlreichen Umfragen, die während der Hauptwahlkampfzeit fast täglich herausgegeben werden. Ende 2016 tat ich mich mit Kollegen aus der Forschung und dem deutschen Unternehmen AX Semantics zusammen, um auf der Grundlage von Prognosen für die US-amerikanische Präsidentschaftswahl in diesem Jahr eine automatisierte Nachrichtenberichterstattung zu entwickeln.

Die Prognosedaten wurden vom PollyVote-Forschungsprojekt bereitgestellt, das ebenfalls die Plattform für die Publikation der produzierten Texte darstellte. Wir etablierten einen vollständig automatisierten Prozess, vom Sammeln und Zusammenführen der Prognosedaten über den Austausch der Daten mit AX Semantics bis hin zur Texterstellung und Publikation dieser Texte.

Im Laufe der Wahlsaison veröffentlichten wir fast 22.000 automatisierte Nachrichtenberichte in englischer und deutscher Sprache. Da diese einem vollautomatisierten Prozess entstammten, gab es in den finalen Texten oft Tippfehler oder fehlende Worte. Wir mussten außerdem deutlich mehr Zeit als angenommen für die Fehlerbehebung aufwenden. Die meisten Schwierigkeiten entstanden auf Grundlage von Fehlern in den Quelldaten. Sie waren also nicht durch den Algorithmus begründet – was eine weitere, wesentliche Herausforderung für den automatisierten Journalismus unterstreicht.

Die Grenzen identifizieren

Der Entwicklungsprozess unserer eigenen textgenerierenden Algorithmen hat uns aus erster Hand die Potentiale und Grenzen von automatisiertem Journalismus aufgezeigt. Es ist unerlässlich, sicherzustellen, dass die Daten so akkurat wie möglich sind. Es ist einfach einen Prozess zu automatisieren, der aus einer singulären Sammlung von Daten einen Text erzeugt, wie beispielsweise die Ergebnisse einer einzigen Umfrage. Aber Einblicke zu liefern, wie zum Beispiel eine Umfrage mit Ergebnissen einer anderen Umfrage zu vergleichen, ist deutlich schwerer.

Die vielleicht wichtigste Lektion, die wir gelernt haben, war, wie schnell wir die Grenzen der Automatisierung erreicht hatten. Als wir die Regeln entwickelten, aufgrund derer der Algorithmus Daten in Text verwandeln sollte, mussten wir Entscheidungen treffen, die auf den ersten Blick einfach erscheinen mögen – zum Beispiel, ob die Strategie eines Kandidaten als „groß“ oder „klein“ beschrieben werden soll, und welche Signale nahelegen, dass ein Kandidat in einer Umfrage an Boden gewinnt.

Die Arten der subjektiven Entscheidungen waren sehr schwierig in vordefinierte Regeln umzuformulieren, die auf alle Situationen, die in der Vergangenheit aufgetreten waren, anwendbar sein sollten – geschweige denn auf Situationen in der Zukunft. Ein Grund ist, dass der Kontext relevant ist: Ein Vier-Punkte-Vorsprung für Clinton im Vorfeld der Wahl beispielsweise war normal, während eine Vier-Punkte-Führung für Trump eine große Nachricht gewesen wäre. Die Fähigkeit, diesen Unterschied zu verstehen und die Zahlen entsprechend für die Leser zu interpretieren, ist unabdingbar. Es bleibt eine Hürde, die Algorithmen nur schwer überwinden können.

Hingegen werden es menschliche Journalisten schwer haben, die Automatisierung zu übertreffen, wenn es um wiederholte und routinebasierte Nachrichten geht, die auf Fakten beruhen, die lediglich einer Überführung der rohen Daten ins Schriftliche bedürfen, so wie Sportveranstaltungen oder die Quartalsberichte eines Unternehmens. Algorithmen werden schneller Anomalien in den Daten feststellen und zumindest erste Entwürfe für viele Berichte generieren können.

Doch für die Menschen ist nicht alles verloren. Journalisten haben eine Menge Möglichkeiten, Aufgaben zu übernehmen, die Algorithmen nicht bearbeiten können, wie beispielsweise die Zahlen im Kontext zu betrachten – sowie die Bereitstellung detaillierter Analysen, Hintergrundberichte und Interviews mit wichtigen Persönlichkeiten. Diese zwei Typen der Berichterstattung werden zukünftig wahrscheinlich eng integriert sein – mit den Computern, die ihre Stärken nutzen, und uns Menschen, die wir uns auf unsere Stärken konzentrieren.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Apple“ by Pexels (CC0 Public Domain)


The Conversation

Weiterlesen »

Wie Kinder lügen lernen

Kind (adapted) (image by RondellMelling [CC0] via pixabay)

Für den Lügner geschieht das Erzählen von Lügen offensichtlich zu einem gewissen Preis. All die Lügen, die man erzählt, im Auge zu behalten, ist äußerst anstrengend. Außerdem muss man im Auge behalten, wie plausibel die erfundenen Geschichten sind. Die Angst, erwischt zu werden, bereitet ständig Sorge. Wenn es dann doch einmal passiert, belastet uns der zerstörte Ruf. Aber auch für die Leute, die belogen werden, gehen Lügen mit einem hohen Preis einher: Lügen schwächen Beziehungen, Organisationen und Institutionen.

Allerdings ist die Fähigkeit zu Lügen und andere Täuschmanöver zu betreiben, ein Zeichen für enorme soziale Kompetenz. Man ist so in der Lage, Interaktionen nach dem eigenen Interesse zu gestalten. Gute Lügner können der Verantwortung entgehen und Anerkennungen für Leistungen erlangen, die nicht wirklich von ihnen stammen. Sie haben jede Menge Freunde und Verbündete. Auf diese Weise stellt die Lüge einen wichtigen Schritt in der Entwicklung eines Kindes dar. Um erfolgreich zu lügen, müssen bestimmte kognitive Bausteine richtig angeordnet werden.

Psychologen haben versucht, herauszufinden, warum manche Menschen lieber lügen, statt die Wahrheit zu sagen, und ob die Gründe dafür in ihrer Kindheit liegen. In manchen Studien haben Forscher den Kindern angeboten, ein Spiel zu spielen, bei dem fürs Lügen belohnt werden. In anderen Studien wurden Kinder mit zwischenmenschlichen Situationen konfrontiert, in denen man aus Höflichkeit lügen sollte, statt die Wahrheit zu sagen. So hat beispielsweise ein Forschungsleiter dem zu untersuchenden Kind ein Stück Seife angeboten. Das Kind wollte das Geschenk nicht haben. Der Forschungsleiter hat das Kind daraufhin gefragt, ob es das Geschenk überhaupt mochte. Bei einer anderen Methode wurden die Eltern darum gebeten, die Lügen ihrer Kinder schriftlich festzuhalten.

In unserer aktuellen Studie wollen meine Kollegen und ich die Denkprozesse der Kinder verstehen. Wir wollten herausfinden, wie sie andere Leute täuschen können. Bei den meisten Kindern geschieht das meist etwa im Alter von dreieinhalb Jahren. Wir wollten wissen, ob und welche Arten von sozialen Erfahrungen diese Entwicklung beschleunigen.

Wie Kinder lernen, andere zu täuschen

Bei unseren Untersuchungen sollten ein paar Kinder ein einfaches Spiel spielen, das sie nur gewinnen konnten, indem sie ihr Gegenüber austricksten. Dabei haben die Kinder eine Belohnung erhalten, die die Wahrheit gesagt haben. Die Geschenke bekam dann der Versuchsleiter. Die Kinder, die gelogen haben, durften die Belohnung selbst behalten.

In diesem Spiel musste das Kind die Belohnung in einem von zwei Bechern verstecken, während der Versuchsleiter die Augen geschlossen hielt. Danach öffnete er die Augen und fragte das Kind, wo die Belohnung versteckt war. Das Kind zeigte auf einen der zwei Becher. Wenn das Kind den richtigen Becher angab, gewann der Versuchsleiter. Zeigte das Kind auf den falschen Becher, hatte es selbst gewonnen.

An zehn aufeinanderfolgenden Tagen sollten die Kinder jeweils zehn Runden spielen. Diese Methode, bei der die Kinder über eine kurze Zeitspanne sehr genau beobachtet wurden, machte es möglich, dass kleinste Verhaltensänderungen auffielen. So konnten die Forscher den Entwicklungsprozess beobachten, noch während er stattfand.

Wir haben die Kinder in der Zeit um ihren dritten Geburtstag herum getestet, also bevor sie normalerweise wissen, wie sie jemanden austricksen können. Wie wir bereits vermutet hatten, fanden wir heraus, dass die meisten Kinder beim ersten Spiel keine Ambitionen hatten, zu betrügen. Sie verloren also jedes Mal gegen den Versuchsleiter. Während der nächsten Tage fanden allerdings die meisten Kinder heraus, wie sie ihn täuschen konnten, um das Spiel zu gewinnen – und nach dieser Entdeckung nutzten sie die Möglichkeit zur Lüge jedes Mal.

Ein Meilenstein der Entwicklung

Nicht alle Kinder fanden mit der gleichen Geschwindigkeit heraus, wie sie hier tricksen konnten. Manche hatten bereits am ersten Tag den Dreh raus – andere verloren das Spiel sogar am Ende der zehn Tage.

Wir fanden heraus, dass die Geschwindigkeit, in der Kinder lügen lernten, stark mit ihren kognitiven Fähigkeiten zusammenhängt. Eine dieser Fähigkeiten, die in der Psychologie die „Theory Of Mind“ genannt wird, ist die Fähigkeit, zu verstehen, dass andere nicht unbedingt das wissen, was die Kinder selbst wissen. Diese Fähigkeit ist essentiell. Wenn Kinder lügen, kommunizieren sie automatisch eine Information, die sich von dem unterscheidet, was sie selbst glauben. Eine andere Fähigkeit nennt sich kognitive Kontrolle und ermöglicht es den Menschen, nicht direkt mit der Wahrheit herauszuplatzen, wenn sie versuchen, zu lügen. Bei den Kindern, die am schnellsten herausfanden, wie sie den Versuchsleiter täuschen konnten, entwickelten sich diese beiden Fähigkeiten besonders schnell.

Unsere Ergebnisse legen nahe, dass Spiele, bei denen man gegeneinander antritt, den Kindern verstehen helfen können, dass Tricksereien zum eigenen Vorteil genutzt werden können. Zumindest funktioniert das, sobald die Kinder die dazu notwendigen Fähigkeiten erlernt haben.

Man muss bedenken, dass es mit der ersten Erkenntnis, dass man tricksen kann, noch nicht zu Ende ist. Es ist eher der erste Schritt in einer langen Entwicklung. Nach dieser Erkenntnis lernen die Kinder typischerweise, wann es sinnvoll ist, zu lügen – und wann nicht. Dafür müssen sie erst einmal jede Menge Situationen kennen lernen, die moralisch zu bewerten sind. Kinder lernen für gewöhnlich mehr darüber, wie sie am einfachsten täuschen können. Besonders kleine Kinder sagen oft unabsichtlich die Wahrheit, wenn sie versuchen, andere zu überlisten. Sie müssen erst noch lernen, ihre Worte, Mimik und Gestik zu kontrollieren, um überzeugend zu wirken.

Wenn sie sich entwickeln, lernen Kinder oft unterschiedliche Formen von Manipulation anzuwenden. Sie lernen, wie man schmeichelt, um sich daraus Vorteile zu erschaffen. Sie lernen, wie man die Aufmerksamkeit von unangenehmen Themen ablenkt und Information ausgewählt präsentiert, um einen bestimmten Eindruck zu erzeugen. Wenn sie diese Fähigkeiten erlernen, lernen sie zugleich, wie sie soziale Erzählungen so formen können, dass sie weitreichende Konsequenzen für sich selbst und andere bringen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Kind“ by RondellMelling (CC0 Public Domain)


The Conversation

Weiterlesen »

Wie Kinder Humor entwickeln

Child (adapted) (image by Bellezza87 [CC0] via pixabay)

Wer einmal versucht hat, sein Kleinkind mit Sarkasmus oder einem Wortwitz zu unterhalten, hat vermutlich nur einen entgeisterten Blick geerntet. Babys sind sogar noch schwieriger zu beeindrucken – sie ignorieren gekonnt unsere Clownsnummern und fangen stattdessen bei völlig zufälligen Ereignissen an, herzhaft zu lachen. Natürlich haben auch Kinder schon ein bisschen Humor. Aber was finden sie in verschiedenen Altersstufen lustig und ab wann können wir davon ausgehen, dass sie Dinge wie Sarkasmus und Ironie verstehen?

Mein zweijähriger Sohn hat vor kurzem damit begonnen, meine Nase zu packen und hysterisch lachend so zu tun, als würde er sie in den Mülleimer in der Küche schmeißen. Das ist zwar kein Scherz, den ich beim nächsten Abendessen mit Gästen zum Besten geben würde, aber zumindest sieht man hier, dass mein Jüngster einen gewissen Sinn für Humor entwickelt.

Die wesentliche Grundlage, die Kinder für die Entwicklung von Humor brauchen, ist die Sozialisierung. Kinder müssen verstehen, dass sie eine Erfahrung mit einem anderen Menschen teilen, bevor sie einen Sinn für Humor entwickeln können. Wir machen das üblicherweise, indem wir gemeinsam lachen und gemeinsam Reaktion teilen – ein Prozess, der bereits beim ersten Augenkontakt und Lachen eines Neugeborenen beginnt. Der Psychologe Lev Vygotsky nahm an, dass humorvolle soziale Interaktionen dieser Art die kognitive Entwicklung eines Kindes unterstützen können.

Trotzdem braucht ein Kind auch ein paar grundlegende kognitive Fähigkeiten, um überhaupt Witze machen zu können, und zwar jenseits von der Fähigkeit, lustige Grimassen zu schneiden. Die wichtigsten Fähigkeiten sind eine gewisse Vorstellungskraft, die Fähigkeit, andere Sichtweisen anzunehmen und die Sprache. Diese Fähigkeiten entwickeln sich bei jedem Kind unterschiedlich schnell und wachsen und verändern sich auch noch im Jugend- und Erwachsenenalter. Deswegen existiert kein fixes Schema, um die Humorentwicklung anhand spezifischer, altersbezogener Stadien festzulegen.

Sprache

Fast alle Arten von Humor beinhalten eine gewisse Erkenntnis von Inkongruenzen zwischen einem Konzept und einer Situation. Anders ausgedrückt: wir lachen wenn wir überrascht werden, weil wir den Eindruck haben, dass die Dinge nicht zusammenpassen. Nehmen wir als Beispiel folgenden Witz: „Ein Pferd geht in eine Bar. Der Barmensch fragt: „Warum macht du so ein langes Gesicht?“ Zum Einen ist dieser Witz amüsant, weil Pferde normalerweise nicht in eine Bar traben. Zum Anderen ist die Pointe „Warum macht du so ein langes Gesicht?“ witzig, weil wir zuerst gar nicht verstehen, warum das Pferd traurig ist. Dann erst macht es in unserem Gehirn „Klick“ und wir begreifen, dass Pferde ja buchstäblich ein „langes Gesicht“ haben.

Es scheint also, als wäre die Sprache eine Voraussetzung für Humor. Babys, die natürlich noch nicht sprechen können und Kleinkinder, die erst geringe Sprachkenntnisse besitzen, haben normalerweise mehr Spaß mit Dingen, die einen physischen Bezug haben – zum Beispiel bei einer Runde Verstecken. Trotzdem haben auch einfache Witze, die im Vergleich mit sprachbasierten Witzen weniger kognitive Fähigkeiten benötigen, mit dem Erkennen von Inkongruenzen zu tun. Hierbei geht es meist um einen gewissen Überraschungsmoment – plötzlich erschient jemand wie aus dem Nichts. Viele Forscher behaupten, dass die Kommunikation der springende Punkt ist – und in Wahrheit der Humor den Spracherwerb fördert.

Vorstellungskraft

Die Vorstellungkraft spielt im Erkennen von Inkongruenzen eine große Rolle. Sie hilft den Kindern, eine andere Sichtweise anzunehmen und verschiedene soziale Rollen zu inszenieren, und sogar so zu tun, als würde sich die eigene Nase vom Körper entfernen.

Die Entwicklung der Vorstellungskraft beginnt bei Kindern ungefähr zwischen dem 12.bis zum 18. Monat. Interessanterweise ist das der exakt gleiche Zeitraum, in dem Kinder beginnen, die Witze der Eltern nachzumachen . So werden die Eltern angespornt, ihren eigenen Humor zu entwickeln. Tatsächlich können Kinder bereits im Alter von sieben Monaten willkürlich jedes Verhalten nachmachen, das Gelächter erzeugt, wie zum Beispiel ein lustiges Gesicht oder eine Runde Verstecken.

Vorstellungskraft zu entwickeln, ist für ein Kind essentiell, um später eigene Witze zu erfinden. Dieser Prozess beginnt ab einem Alter von etwa zwei Jahren, oft mit objektbasierten Witzen, etwa wenn sich ein Kind die Unterhose auf den Kopf setzt, oder konzeptuell, zum Beispiel mit der Aussage „Das Schwein macht Muuuh“.

Die Inspiration für eigene Witze bekommen Kinder meist von jenen Dingen, die sie gerade selber lernen. Darüber hinaus hilft ihnen das, um gesellschaftliche Regeln zu verstehen. Beispielsweise witzelt mein Sohn oft darüber, dass seine Freundin Lilly „auf den Fußboden gemacht hat“. Das kommt daher, weil bei ihm gerade das Töpfchentraining und Trockenwerden und Exkremente an erster Reihe stehen. Witze darüber zu machen ist eine gute Möglichkeit, die gesellschaftlichen Rituale und Gefühle zu erlernen, die mit diesem Prozess einhergehen – vor allem im Umgang mit Missgeschicken.

Perspektiven und Täuschungen

Kindern können außerdem ihr Humorverständnis entwickeln, wenn sie verstehen, wie unser Verstand funktioniert. Es ist wichtig, zu wissen, dass verschiedene Menschen einen unterschiedlichen Wissensstand oder eine unterschiedliche psychische Verfassung haben. Manche gehen auch von falschen tatsachen aus oder liegen schlichtweg auch mal falsch. Beispielsweise erkennt ein Kind, das das Konzept der Täuschung verstanden hat, wenn die Eltern nur so tun, als wären sie ahnungslos, während sich das Kind hinter ihnen anschleicht, um sie zu erschrecken.

Tatsächlich zeigen auch einige Forschungsergebnisse, dass dieses Wissen für Kinder entscheidend ist, um kompliziertere Witze mit Sarkasmus und Ironie zu verstehen. Eine Studie hat gezeigt, dass manche Kinder bereits im Alter von drei Jahren (normalerweise ungefähr fünf) in der Lage sind, einige Spielweisen der Ironie zu verstehen. In diesem Experiment wurde Kindern ein Puppentheaterstück vorgeführt. Dann wurden den Kindern Fragen gestellt, was sie denn gerade gesehen hatten. Ein Beispiel für Ironie ist eine Szene, in der eine Puppe ein Teller zerbrach. Eine zweite Puppe sagte daraufhin: „Deine Mutter wird sich aber freuen.“ Manche Kinder fingen zu lachen an und verstanden, dass der Satz nicht wörtlich gemeint war und die Mutter natürlich nicht glücklich sein würde.

Andere Wissenschaftler argumentieren, dass sich das Verständnis von Ironie erst durch die Erfahrung mit Humor an sich entwickelt, anstatt durch das Wissen um Täuschung und die Entwicklung von Vorstellungskraft. Witze sind gesellschaftlich und kulturell geprägt, ein Teil des Lernprozesses besteht daher aus sozialen Interaktionen.

Sobald Kinder Vorstellungsvermögen und ein grundlegendes Verständnis für andere entwickelt haben, können sie mit ihrem Humor tatsächliche und mögliche Emotionen erkunden. Beispielsweise können sie unsichtbares Essen herumschleudern und voll Freude herumschreien, dass sie sich bekleckert haben. Die Elternsollen dann so tun, als seinen sie verärgert. Dadurch können Kinder in einem sicheren Umfeld die Emotion Ärger erforschen.

Wenn es zum kindlichen Humor kommt, müssen wir also geduldig sein. Gott sei Dank, denn sonst wären Disney- und Pixar-Filme wohl um einiges anstrengender abzusitzen, wenn Kinder nicht über all die versteckten und teilweise recht gewagten Witze hinweggehen würden. Für’s Erste lachen wir einfach weiter über gestohlene Nasen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Child“ by Bellezza87 (CC0 Public Domain)


The Conversation

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • GOOGLE GLASS t3n: Google Glass ist zurück – und soll diesmal die Industrie erobern: 2014 wollte Google die Augmented-Reality-Brille im Konsumentenbereich etablieren und konnte sich im Handel nicht durchsetzen. Ein Jahr später wurde der Verkauf bereits gestoppt. Jetzt soll die Brille – jetzt nur noch Glass genannt, da sie nicht mehr von Google entwickelt wird – ein Hilfswerkzeug für Handwerker werden. In Kooperation mit verschiedenen Dienstleistungspartnern hat das Unternehmen „X“ individuell zugeschnittene Lösungen. Mögliche Einsatzbereiche sind Medizin, Logistik, Marketing oder Industrielle Arbeit wie Autoherstellung. Ersten Ergebnissen eines Testunternehmens zufolge, soll die Brille die Produktivität in der Fertigung um 25 Prozent gesteigert haben.

  • QR CODE wired: The Curious Comeback of the Dreaded QR Code: QR Codes schienen lange wie die Innovation der Zukunft, bis sie von ihre Popularität verloren. Ihre Handhabung war zu umständlich für viele Nutzer. Aber mit der Entwicklung von Social Media QR Codes hat das System ein schleichendes Comeback gefeiert. Unternehmen wie Snapchat, Facebook oder Spotify nutzen ein QR Code System um Nutzer schnell miteinander verbinden zu können. Grund für das Comeback ist unter anderem auch der Fortschritt der Kameras, die mittlerweile auch ohne spezielle QR Code App diese erkennen und scannen können. War das System also nur zu weit vor seiner Zeit?

  • ZALANDO handelsblatt: Warum Zalando Amazon nicht fürchten muss: Abo-Dienste für Premium Kunden sind in der heutigen Zeit keine Besonderheit mehr. Zalando führt nun in Konkurrenz zu Amazon Prime ebenfalls einen Premium Abo Service „Zet“ ein. Dienstleistungen des Service sollen taggleicher Versand oder ein Stylisten-Beratungsservice. Zuvor hatte Amazon mit „Prime Wardrobe“ ein neues Konzept angekündigt, mit welchem Kunden vor Bezahlung die Klamotten anprobieren konnten und Zalando so vor eine kommende Krise gestellt.

  • NOTE 7 heise: Samsung schlachtet Debakel-Smartphone Galaxy Note 7 aus: Das südkoreanische Unternehmen Samsung kündigte in einer Pressemitteilung an, dass sie konkrete Recycling Pläne für das zurückgerufene Smartphone Galaxy Note 7 erarbeitet haben. Die Smartphone sollen demnächst ausgeschlachtet werden, um zum Beispiel die Edelmetalle, die in der Technik der Geräte verarbeitet sind zu extrahieren. Noch intakte Bauteile wie OLED-Displays oder Kameramodule sollen als Ersatzteile für Reperaturen genutzt werden. Mit diesen und weiteren Maßnahmen möchte Samsung Nachhaltig handeln. Das Problem des Smartphones war in erster Linie der Akku, der bei Überhitzung in Flammen aufging.

  • KOOPERATION golem: Microsoft will an autonomen Autos mitentwickeln: Das Softwareunternehmen Microsoft ist eine strategische Partnerschaft mit dem chinesischen Unternehmen Baidu eingegangen, um an der Entwicklung von autonomen Autos mitzuwirken. Baidu hatte erst kürzlich ein Open-Source-Betriebssystem vorgestellt, dass jede Autofirma nutzen kann. Neben Microsoft sollen auch Nvidia, Ford und Intel an der Entwicklung dieses Open-Source-Systems beteiligen.

Weiterlesen »

KI, VR und Internet der Dinge: Adobe zeigt bei den Sneaks die Zutaten für die Zukunft des Marketings

Sneaks_Image by Stefan von Gagern

Auf dem Adobe-Summit in London präsentierten die Entwickler vor wenigen Tagen einige Features aus den Labors. Hierbei sind die sogenannten „Sneaks“ sind ein beliebtes Highlight jeder Adobe-Konferenz. Hier zeigen die Entwickler neue Entwicklungen aus ihren Labors, die es bald ins finale Produkt schaffen könnten. ‚Könnten‘, denn einige davon sind nur Experimente. Doch in der Vergangenheit haben es schon einige der Technik-Demos ins finale Produkt geschafft. Zum Beispiel ist das inhaltsbasierte Füllen heute ein fester Teil in Photoshop CC. Auf dem Summit in London ging es um aktuelle Zukunfts-Technologie für die Marketing-Produkte – mit spannenden Einblicken. Zum Einsatz kamen die neuen Produkte der Adobe Experience Cloud, über die wir vor kurzem berichteten. Das Publikum konnte per Twitter-Hashtags über die Technik-Demos interaktiv abstimmen.

VR in der Werbung

VR-Brillen sind nicht nur für die Konsumenten ein neues, spannendes Medium, sondern könnten bald auch Träger für Marketing-Botschaften sein. Adobe zeigte beim ersten Demo #MktgVR, wie das aussehen könnte: In der VR-Brille erschien der Londoner Picadilly Circus mit seinen Video-Werbetafeln.

Der Nutzer könnte jetzt virtuelle Werbung auf den Tafeln geliefert bekommen. Dass die realen Videotafeln in der VR-Umgebung dabei mit After Effects und Greenscreen mit eigenen Videos überlagert werden, ist noch gar nicht der Clou. Vielmehr dass passend zu den persönlichen Interessen die künstliche Intelligenz von Adobe Sensei zusammen mit den Analysefunktionen der Experience Cloud die geeigneten Inhalte in die Creative Cloud einspeisen kann. So kann also jeder Nutzer, der virtuell den Times Square oder Picadilly Circus besucht, personalisiert Werbung angezeigt bekommen.

Intelligenter personalisierte Angebote

Jeder kennt das Problem: Man hat gerade etwas gekauft und wird aber die folgenden Tage oder Wochen mit Angeboten zu dem jetzt eigentlich uninteressanten Produkt bombardiert. Hier ist mehr Intelligenz gefragt: Sensei lernte beim Demo #RightOffers, dass ein Kunde ein Angebot wie ein Hotelzimmer gerade gebucht hat. Das System kann die Inhalte sofort verändern und dem Kunden ein relevantes Angebot im Web, wie beispielsweise eine Massage im Wellness-Bereich anbieten, statt noch einmal das Hotelzimmer-Angebot anzuzeigen. Die frühe Version im Demo soll es bald ins Produkt schaffen.

Die nächste Generation der Sprachassistenz

Interaktionen mit Sprachassistenten wie Amazon Alexa sind derzeit anonym und beschränkt: die Nutzer fragen Dinge wie den Beginn von Filmen oder Playlists ab. Künftig soll es noch einen Schritt weiter gehen: Hotelketten werden ihre Zimmer mit den Assistenten ausrüsten. So zieht das Internet der Dinge direkt ins Hotelzimmer ein. Der Gast fragt dann, zum Beispiel während er seinen Koffer auspackt: „Alexa, frage bitte an der Rezeption nach, wie mein Punktestatus ist.“

So können Kunden Alexa etwa zu ihren Treuepunkten bei Hotels oder Fluggesellschaften befragen. Alexa kann dann anhand der Daten aus den jeweiligen Nutzerprofilen sowie den individuellen Vorlieben des Nutzers gezielte Werbemaßnahmen oder sonstige Aktionen mit einem direkten Mehrwert vorschlagen. So könnte der Gast einen Gutschein für einen Drink an der Bar direkt aufs Smartphone geschickt bekommen. Treuepunkte können so einfacher und direkt nutzbar gemacht werden.

Websites (Image by Stefan von Gagern)
Websites (Image by Stefan von Gagern)

Webseiten mit einem Klick für Zielgruppen gestalten

Was die künstliche Intelligenz von Adobe Sensei leisten kann, zeigte das Demo #AIExperience. Sensei kann Inhalte analysieren und daraus eine Erlebnis selbständig erstellen.

Marketer müssen dann nur noch Zielgruppen wie zum Beispiel „Vegetarier“ auswählen und Sensei erstellt komplette, passende Webseiten, die passende Inhalte dafür anbieten. Mit einem Klick ist es so möglich, 100 Zielgruppen auszuwählen und 100 personalisierte Webseiten zu erstellen.

Fazit: Vollmundige Versprechen für große Veränderungen?

Eines muss man ihnen lassen: Adobe denkt mit dem Nutzer mit und versucht, die User Exprience möglichst angenehm zu gestalten. Die Versprechen, die mit einer werblich angepassten Virtual Reality und eine mobile Künstliche Intelligenz klingen vollmundig und noch etwas nach Zukunftsmusik. Viele Prototypen mit guten Ideen schaffen es letztlich oft nicht in fertige Produkte. Falls dem hier doch der Fall sein sollte, könnte sich das Marketing, wie wir es kennen, grundlegend verändern.

Was meint ihr? Welcher Trend wird sich durchsetzen, welche Entwicklung eher versanden? Inwiefern wird sich der Werbemarkt ändern müssen? Lasst uns in den Kommentaren diskutieren.


Images by Stefan von Gagern


Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • MP3 t3n: MP3 ist jetzt offiziell tot: Das Ende einer deutschen Erfolgsgeschichte: Es hat den iPod groß gemacht, und was vielen nicht bekannt ist – das Format MP3 ist eine deutsche Erfolgsgeschichte. Jetzt hat das Frauenhofer Institut die Einstellung des Formats angekündigt. Die Patente laufen aus. Das bedeutet nicht, dass es vom Markt verschwindet, sondern dass es nicht weiterentwickelt wird. Der Fokus liege nun auf anderen Medien. Zum Beispiel das AAC-Format sei dem Komprimierten MP3 Format deutlich überlegen. Apple nutzte beispielsweise bei seiner Einführung des iTunes-Stores das AAC-Format.

  • STREAMING golem: Root lässt Netflix-App aus dem Play Store verschwinden: Manche Nutzer von gerooteten Android-Geräten können die Streaming-App Netflix nicht mehr herunterladen. Das Unternehmen habe sich bewusst für diesen Schritt entschieden. Grund dafür ist, dass sich Netflix an Googles Widevine-DRM-System hält und nur noch auf von verifizierten Geräten kompatibel ist. Manche Root-Systeme können die App dennoch finden. Bis jetzt kann der Service noch problemfrei genutzt werden.

  • RANSOMWARE handelsblatt: So wappnen sich Nutzer gegen Cyber-Erpresser: Die Erpresser-Software „Wanna Cry“ beschäftigt die Digitale Welt. Die Erpressungs-Software richtete sich weltweit auf Rechnern ein und verschlüsselte Daten. Betroffen waren neben Privatnutzern auch Krankenhäuser und Großkonzernen wie der Deutschen Bahn. Experten analysieren die Spuren der Hacker und sprechen erste Theorien aus, dass der Angriff aus Nordkorea kommen könnte. Außerdem warnen sie vor erneuten Angriffen, die bis zum jetzigen Zeitpunkt ausblieben. Experten sprechen Tipps aus, wie man sich gegen einen Cyberangriff wappnen kann.

  • ZALANDO gruenderszene: Zalando liefert bald direkt zum Kunden – egal, wo der sich gerade befindet: Das Start-Up Parcify soll nun dafür sorgen, dass Pakete auf den Meter genau zum Kunden geliefert werden. Gemeinsam mit dem Online-Versandhaus Zalando wird der Service nun in Belgien getestet. Um an dem Lieferungssystem teilzunehmen muss man sich die Parcify-App herunterladen und per GPS orten lassen. Wenn sich der Kunde zu einem festgelegten Zeitpunkt im Liefergebiet des Unternehmens aufhält, kann die Sendung auch in einem öffentlichen Ort angenommen werden. Wann und ob der Service auch in Deutschland angeboten wird, ist noch nicht bekannt.

  • AUTONOMES FAHREN new york times: Lyft and Waymo Reach Deal to Collaborate on Self-Driving Cars: Der Google-Schwesterkonzern Waymo, ehemals das Google Self-Driving Project, und der Fahrdienstvermittler Lyft sind eine Allianz eingegangen um die Entwicklung für autonomes Fahren voranzutreiben. Gemeinsam wollen sie die Vormachtstellung auf dem US-Markt festigen. Waymo möchte nun gemeinsam mit Lyft die entwickelte Technik in der Praxis testen. Die Vereinbarung zwischen Waymo und Lyft ist ebenfalls strategisch gegen den Konkurrenten Uber gerichtet, welcher angeblich vertrauliche Technologiedaten von Google-Entwicklern gestohlen habe.

Weiterlesen »

Fabian Westerheide über Künstliche Intelligenz

Neural (adapted) (Image by geralt [CC0 Public Domain] via pixabay)

Dieser Beitrag ist Teil einer Artikelreihe im Vorfeld der Digitalkonferenz EXPLAINED von Microsoft Deutschland. Die Konferenz findet am 23. März 2017 in Berlin statt.


Künstliche Intelligenz (KI) und die Frage, was den Menschen und die Maschine zusammenbringt, treibt den Unternehmer, Venture Capitalist, Autor und Redner Fabian Westerheide um. Nachdem er in verschiedene Unternehmen investierte, ist er seit 2014 Geschäftsführer von Asgard – human VC for AI und leitet die KI-Konferenz Rise of AI. Außerdem ist er Koordinator für Künstliche Intelligenz beim Bundesverband Deutscher Startups. Ich habe mich mit ihm im Vorfeld zur Digitalkonferenz EXPLAINED von Microsoft Deutschland, bei der er als Speaker auftreten wird, zum Interview getroffen.

Was fasziniert Sie an Künstlicher Intelligenz?

Das war ein Prozess. Ich komme vom Land und habe schon immer an Computern herumgebastelt und mich für die Auswirkungen zwischen Mensch und Maschine interessiert. Dann bin ich Unternehmer geworden und habe in insgesamt 35 Firmen investiert, von denen die meisten aus dem Softwarebereich stammen. Irgendwann wusste ich, dass das Thema Künstliche Intelligenz, was mich durch Science-Fiction-Literatur schon seit den Achtzigern beschäftigt hat, endlich greifbar wurde. Mich fasziniert vor allem, dass es so ein komplexes Thema ist und wirtschaftliche, gesellschaftliche, militärische und politische Konsequenzen hat. Es betrifft sowohl Unternehmen als auch den einzelnen Menschen, es betrifft letztlich die ganze Menschheit. Das ist ein Thema, bei dem ich meine ganze Begeisterung für Politik und Gesellschaft einfließen lassen kann. Und ich fühle mich sehr wohl damit, weil es um mehr als Geldverdienen geht. Künstliche Intelligenz kann wirklich die Menschheit verändern – in die eine oder in die andere Richtung.

Was ist der nächste Entwicklungsschritt für die Künstliche Intelligenz?

Die Maschine muss noch besser lernen zu lernen. Das bedeutet, dass sie mit wenige Daten zurecht kommt und mit weniger Transferwissen arbeiten kann. Zum Beispiel kann man derzeit eine KI, die ein bestimmtes Auto fährt, nicht einfach in ein anderes selbstfahrendes Auto verpflanzen. Man kann sie auch nicht benutzen, um mit ihr mit Aktien zu handeln oder ein Flugzeug zu fliegen. Sie ist eigentlich ziemlich idiotisch angelegt und genau auf ihre Hardware programmiert. Innerhalb dieser Grenzen kann sie aber jederzeit weiterlernen. Wir müssen also den Schritt schaffen, dass die Software Hardware-unabhängig wird und Vorwissen aufbauen kann. Vor ein paar Wochen hat Google Deep Mind ein sehr interessantes Paper veröffentlicht, wo sie mit einer KI ein Spiel gespielt haben. Dieselbe KI wurde verwendet, um ein neues Spiel zu lernen. Die KI wurde also deutlich besser, weil sie über das Wissen verfügt, wie man so ein Spiel spielt. Sie konnte es auf ein anderes Spiel übertragen und dadurch besser werden als eine KI, die nur auf dieses eine Spiel hin programmiert wurde.

Ist das der Schritt zwischen einem gut funktionierenden Algorithmus und einem denkenden Wesen? Ich gebe zu, ich scheue mich etwas, diesen Prozess schon als Denken zu bezeichnen. Ich würde eher sagen, es ist eher ein Weiterverarbeiten. Oder fängt das Denken hier schon an?

Das ist schwierig zu sagen, hier fängt eigentlich eher die nächste Diskussion an: Denkt der Mensch wirklich, oder sind wir nicht viel eher hormon- und instinktgetrieben? Wie viel davon ist durch unser Unterbewusstsein bestimmt? Die meisten Menschen treffen Entscheidungen im Bruchteil einer Sekunde. Wir nennen das Bauchgefühl oder Instinkt. Eigentlich ist es aber eine Erfahrungskurve. Wir brechen unsere Erfahrungen herunter und denken nicht darüber nach, sondern handeln. So ist es bei der Maschine auch. Sie können noch nicht auf 20 Jahre Berufserfahrung zurückgreifen oder auf eine jahrelange Erziehung. Wir als Menschen hingegen haben ungeheuer viel Input verarbeitet und sind biologisch dafür ausgelegt, alles abzuspeichern. Seit es im Jahr 2012 den großen Durchbruch mit den neuronalen Netzen gegeben hat, haben die Maschinen auch ein Kurzzeitgedächtnis. Was noch fehlt ist ein Langzeitgedächtnis und das Abstraktionslevel. Und genau das passiert gerade: Wir bauen Schritt für Schritt ein kollektives Gedächtnis auf, eine Art Schwarmintelligenz. Wir müssen also noch nicht einmal eine menschenähnliche KI haben, um zu erreichen, dass sie denkt, sondern wir brauchen eine KI, die untereinander kommuniziert und kollektiv Wissen verarbeitet. Wenn ein Auto beispielsweise einen fatalen Fehler macht, wie es bei dem Tesla-Unfall mit dem LKW geschehen ist, dann passiert ihm das ein einziges Mal. Seit diesem Vorfall können alle hunderttausende Teslas da draußen LKWs erkennnen. Das ist eine Intelligenzleistung, die mehr schafft als ein einzelner Mensch.

Image by Fabian Westerheide
Image by Fabian Westerheide

Wir müssen die KI also nicht nur schulen, sondern auch erziehen?

Genau das. Der Hirnforscher Danko Nikolic sagt, wir brauchen einen KI-Kindergarten, eine Art DNA für künstliche Intelligenz. Ich finde diese These sehr interessant. Wir müssen es schaffen, diese Lernalgorithmen einer KI beizubringen. Sie muss lernen zu lernen, damit sie weiß, wie man selbst Wissen generiert. Das können wir Menschen besonders gut. Die KI kann das noch nicht, also wird der Durchbruch im Lernalgorithmus die nächste Stufe sein. Dann muss man sie trainieren, ausbilden und erziehen, wie man Kinder erzieht. Wenn das passiert, wird das, was wir jetzt haben, schneller und auch deutlich interessanter. Eine KI hat noch keine Eigenmotivation, ich weiß aber, dass Teams bereits daran arbeiten.

Welche Jobs sind bisher immer noch nicht vollständig durch Maschinen ersetzbar? Wo geht hier die Entwicklung hin?

Momentan sind es zwei: Menschen und Komplexität. Wir sind Menschen und wollen deshalb natürlich weiterhin menschliche Interaktion. Ich behaupte, dass ‚Made by Humans‘ irgendwann bei Produkten ein Qualitätsmerkmal sein wird, für das die Leute mehr bezahlen werden. Bei der Interaktion kann es zu einer Mischung kommen: In der Pflege werden wir Pflegeroboter haben, die uns beispielsweise dabei helfen, den schweren alten Mann zu wenden, aber die menschliche Komponente muss erhalten bleiben. Eine KI nimmt dich nicht in den Arm, sie kann aber konkrete Ergebnisse liefern. Das dauert wohl aber noch gut 10 bis 15 Jahre. Eine KI kann erkennen, wie Prozesse am besten durchzuführen sind, aber bei emotionaler Intelligenz muss sie eben passen. Wir brauchen keinen menschlichen Maler, aber einen menschlichen Innenarchitekten. Je einfacher der Job ist, desto eher können wir ihn durch die Maschinen erledigen lassen. Sie hat aber noch immer ein Problem mit der Motorik, das haben wir noch nicht gelöst. Softwaretechnisch hingegen ist sie uns natürlich haushoch überlegen, jeder Taschenrechner kann besser rechnen als du und ich.

Wir müssen der KI auch Kontext beibringen, damit sie uns wirklich helfen kann.

Bei Service-KIs funktioniert das sogar schon. Die KI kann erkennen, ob der Kunde gut oder schlecht gelaunt ist, ob er etwas umtauschen will und ob sie ihm noch mehr Angebote machen soll oder nicht. Das würde ich schon als Kontext bezeichnen. Jeder, der schon einmal Kundensupport gemacht hat, wird das kennen – man muss Zweideutigkeit erkennen und das kriegen schon wir Menschen manchmal nicht ordentlich hin. Wie wollen wir da erwarten, dass die KI es besser macht? Der erste Schritt ist also: Sie muss lernen, es zumindest schon einmal besser zu machen als der Schlechteste von uns.

Wenn man manche Artikel liest, werden die Maschinen oft sehr dystopisch als unser Untergang beschrieben, sowohl gesellschaftlich als auch arbeitstechnisch. Wie gehen Sie mit dieser Angst der Menschen um?

Ich erlebe es ab und zu, dass die Menschen bei einem gewissen Level fast schon technologiefeindlich sind und regelrecht Angst vor der KI haben. Aber ich finde, dass Probleme wie die globale Erwärmung, der Terrorismus oder auch nur zu viel Zucker im Blut viel gefährlicher für die Menschheit sind. Wir sollten wirklich versuchen, etwas unaufgeregter an das Thema KI heranzugehen. Ja, die Digitalisierung frisst eine Menge Jobs. Aber das ist doch super! Niemand muss mehr langweilige Jobs machen, wir haben viel mehr freie Zeit. Wir können die KI benutzen, um in unserer Tätigkeit noch produktiver zu sein. Wir können so sogar mehr Jobs nach Europa holen, weil es günstiger und effektiver ist, die Handgriffe an eine KI outzusourcen als an irgendwelche ausgebeuteten Clickworker in Indien. Das Ganze bringt einen enormen strukturellen Wandel mit sich, weil wir uns von der Industriegesellschaft zur Servicegesellschaft und auch zu einer Wissensgesellschaft wandeln.

Die Großkonzerne von heute haben bereits begriffen, dass sie sich entwickeln müssen, sie tun sich damit aber noch etwas schwer. Das sind reine Industrieunternehmen, die aus einer ganz anderen Hierarchie und einer anderen kulturellen Epoche kommen. Künstliche Intelligenz ist hier nur die Spitze des Eisberges, denn unsere Industrie ist nicht für digitale Umbrüche gerüstet. Wir sind an dieser Stelle in kultureller Hinsicht noch komplett falsch aufgestellt.

Wie steht es um die Entwicklung von Künstlicher Intelligenz in Deutschland?

Das deutsche Problem daran ist, dass wir mal wieder den Trend verschlafen. Es gibt kaum KI-Unternehmen hierzulande – wir sind eher auf den abgeschlagenen Plätzen zu finden. Im Moment sind die US-amerikanischen KI-Unternehmen besser finanziert und es gibt viel mehr Firmen als hier, obwohl der Markt nicht so groß ist wie unserer. Es geht auch nicht darum, noch etwas zu entwickeln, dass uns unser Essen schneller liefert, sondern darum, dass uns eine strategische Entwicklung entgeht. Wir brauchen endlich mehr Forschung, mehr Kapital und mehr Unternehmen in Deutschland und Europa, um eine strategisches, wirtschaftliches und politisches Gegengewicht herstellen zu können. Nur dann können wir auf Augenhöhe miteinaner verhandeln.


Image (adpated) „Neural“ by geralt (CC0 Public Domain)


Weiterlesen »

Wie man Straßen zu Solar-Kraftwerken macht: Interview mit Donald Müller-Judex von Solmove

Puzzleteil (Image via Solmove)_

Es gibt Erfindungen, die sieht man und vergisst sie sofort – und es gibt Erfindungen, bei denen man sich fragt, wieso man nicht schon viel früher darauf gekommen ist. Die solarbetriebene Straße gehört für mich definitiv zur zweiten Kategorie: So genial, dass ich es sofort und überall haben möchte. Denn sie erzeugt nicht nur Strom durch regenerative Energien und spart dabei das Kraftwerk, sondern kann auch die Beleuchtung auf der Straße ersetzen und irgendwann auch direkte Energiequelle für den Antrieb selbst sein. Buh, langweilige Asphaltstraßen, das muss doch besser gehen! Und genau das passiert gerade.

In Zeiten, in denen wir uns dringend Gedanken um Nachhaltigkeit und Möglichkeiten für erneuerbare Energien machen müssen, ist die Frage nach einem sinnvollen Solarkonzept ohnehin evident. Doch für Solar braucht man neben Sonne vor allem eines: viel, viel Platz. Man könnte nun also Anlagen bauen und Ausdehnungsfläche verstellen – oder man nutzt das, was man schon hat: Kilometerlange Flächen, die einfach in der Landschaft liegen.

Es gibt mittlerweile mehrere Konzepte aus verschiedenen Ländern. In Frankreich wurde Ende 2016 der erste Auto-Kilometer von Wattway eröffnet, in den Niederlanden entwickelt man die erste Fahrradstraße mit Solarfunktion, und in den USA forschen gerade auch mehrere Firmen an „smart Highways“ um die Wette. Nur in Deutschland, dem Land der Autobahnen, tat sich lange nichts – bis Donald Müller-Judex 2014 sein Unternehmen Solmove gegründet hat, um auch die deutsche Industrie auf den Geschmack zu bringen. Ich habe ihn Ende Januar zum Interview auf der Green Tech Challenge getroffen.

Donald Müller-Judex (via Solmove)
Gründer und Erfinder: Donald Müller-Judex (via Solmove)

Wie kamen Sie auf die Idee zu der solarbetriebenen Straße?

Die Idee zur Solarstraße hatte ich, als ich einmal durchs Allgäu gefahren bin. Ich wollte dort ein Dach mieten, um eine Solaranlage da drauf zu bauen. Die Technologie gab es schon. Das war sehr lukrativ, es gab eine große Förderung – aber es hat nicht jeder ein Haus, wo er eine Anlage bauen kann. Also habe ich eins gesucht, was ich gerne hätte mieten wollen. Ich habe aber keins gefunden, weil im Allgäu auf jeder Scheune schon eine Solaranlage war.

Ich bin dann ganze drei Tage über sonnenbeschienene einsame Landstraßen gefahren, habe aber kein freies Dach gefunden. Irgendwann fiel es mir dann ein: Wenn man die Straßen nutzen könnte, könnte man Flächen ohne Ende haben und so viel Strom erzeugen, dass es auch lange in die Zukunft reicht. Ich habe das dann auf die deutschen Straßen umgerechnet und herausgefunden, dass man alle 50 Millionen Autos mit Strom fahren lassen könnte, wenn man alle Flächen nutzen würde, die da sind.

Sie haben dann Solarmodule aus gehärtetem Glas entwickelt, die man wie Gehwegplatten verlegen kann. Wie funktionieren die, wo sollen sie eingesetzt werden – und hält das überhaupt?

Die Module funktionieren ganz einfach, wie beim Taschenrechner: Sonne rein, Strom raus. Photovoltaik ist eine Technologie, die ohne mechanische Bewegungen und komplizierte Kleinteile auskommt. Es gibt nur wenig Verschleiß, weil sich nichts bewegt. Und wir wollen mit unserer Technologie auf Straßen oder in Regionen vertreten sein, wo wenig Verkehr und viel Sonne ist. Man muss nicht immer nur an Autobahnen denken oder an innerstädtische, hochbelastete Straßen – es gibt ganz viele Flächen, wo kaum ein Auto fährt: beispielsweise Seitenstreifen von Autobahnen oder auch viele Straßen in den Industrie- und Wohngebieten, zwischen Feldern, und, und, und. Allein diese ganze Flächen machen schon ein Riesenmarkt aus.

Es muss dann aber auch eine befestigte Straße sein, richtig? Ein Waldboden würde beispielsweise nicht funktionieren.

Nein, ein Waldboden würde hier nichtfunktionieren, allein schon, weil dort zu viel Schatten ist. Und wir haben unser Produkt so konzipiert, dass wir uns einfach auf vorhandene Flächen, die tragfähig genug sind, oben drauf kleben können. Die Module sind in einer gewissen Art beweglich, so dass wir den Kurven der Straße folgen können. Außerdem kann man sie leichter austauschen, wenn sie doch mal kaputtgehen, und muss nicht gleich die ganze Straße aufreissen.

Warum haben Sie für das Konzept ausgerechnet Deutschland ausgesucht? Das ist hier nun nicht unbedingt die sonnigste Gegend.

Es gibt ein paar sehr gute Gründe, in Deutschland anzufangen und dann in die Welt hinauszugehen. Einer der Gründe ist, dass es hier ganz starke politische Kräfte gibt, die durch den Wunsch der Gesellschaft entstanden sind, hier etwas zu ändern. Wir sind die Generation, die es geschafft hat, 80 Prozent der Erdölreserven in weniger als 50 Jahren zu verbrauchen und wir haben nichts mehr – oder zumindest wird es bald soweit sein. Wir brauchen aber als Industrienation eine Alternative. Wenn wir es schaffen, den Strom, den wir brauchen, im Land zu erzeugen, sind wir ganz weit vorn. Das haben zwar bis jetzt erst wenige Leute verstanden, aber die, die es verstanden haben, helfen uns.

Solarstrasse (Image via Solmove, Screenshot by Anne Jerratsch)
So soll die Solarstrasse einmal aussehen. Die Grundlage ist bereits vorhanden, sagt Donals Müller-Jufex. (Image via Solmove, Screenshot by Anne Jerratsch)

Der Markt dafür ist sehr groß und die Bereitschaft, zu investieren, steigt hoffentlich auch immer weiter. In anderen Ländern ist das deutlich leichter, weil es da mehr Sonne gibt – und weniger Bürokratie, das hilft ganz sicher. Deswegen werden wir auch in anderen Ländern aktiv werden. Wir werden dieses Jahr in China, in Korea und auch in den USA Testfelder bauen, um dort zu zeigen, dass es funktioniert.

Der Bund hat die Solarförderung immer wieder gekürzt. Wie passt das zu Ihrem Konzept?

In Deutschland ist es so, dass die Subventionen sehr geholfen haben, die Photovoltaik nach vorne zu bringen. Wir haben über 1.5 Millionen private oder kleine Solarkraftwerke, die zum Energiesystem beitragen, die unglaubliche Veränderungen initiiert haben, von der wir in zehn, 20, 30 Jahren noch maßgeblich profitieren werden. Die Subvention war für uns super und es war auf lange Sicht auch sinnvoll, diese Subventionen wieder runterzufahren. Denn in diesem Moment wurde die Photovoltaik weltweit so viel günstiger, dass der Solarstrom heute weniger kostet als Atomstrom und Kohlestrom – und das ist extrem wichtig. Jetzt hat die ganze Welt erkannt, dass die Zeit von Kohle und Atomstrom vorbei ist, weil es eine bessere Alternative gibt. Wir sind dabei, die Solarstraße salonfähig zu machen. Und vielleicht gibt es dafür eines Tages auch wieder eine Förderung, die dann hilft, unsere Technologie nach vorne zu bringen.

In China gibt es bereits Schnelllademodule für Busse, die sind aber noch in der Testphase. Wird es auf der Solarstraße auch Schnelllademodule geben? Wie ist der aktuelle Stand?

Wir werden dieses Jahr auf dem Gelände der Bundesanstalt für Straßenwesen und auf einem anderen Testgelände in der Nähe Peking eine Anlage bauen. Dieses Projekt wird zusammen mit einem Partner verwirklicht, wo wir zeigen, dass der Strom, der solar erzeugt wird, von den Paneelen unserer Partner induktiv in Autos hineingeladen werden kann, während sie fahren. Das ist revolutionär und neu und hat diverse Vorteile. Zum Beispiel, dass die Autofahrer keine Zeit mehr aufbringen müssen, um ihre Autos nachzuladen, dass das Reichweitenproblem damit eigentlich gelöst ist, dass die Autos weniger Batterien brauchen. Das heißt: mehr Platz, weniger Kosten, weniger Gewicht.

Die Chinesen fangen damit jetzt an und wollen zur Olympiade 2022 zeigen, wie das funktioniert. Dort werden auf einer Strecke zwischen Peking und Zhangjiakou auf 190 Kilometern Shuttlebusse fahren, die das Olympiavolk hin und her bringen. Diese Busse fahren elektrisch und autonom. Sie fahren auf einer induktive Ladespule, quasi auf einer elektronischen Schiene, die den Bus mit Strom versorgt, während er fährt. Dieser Strom wird mit unseren Modulen regenerativ erzeugt.

Das klingt vielversprechend! Und wann haben wir das alles auch in Deutschland?

Sie könnten mich ja zum Verkehrsminister wählen, dann dauert das noch ungefähr zehn Jahre, und dann haben wir das.

Vielen Dank!


Images (adapted) via Solmove, Screenshot by Anne Jerratsch


Weiterlesen »

Wie zwei Nobelpreis-Gewinner uns lehrten, wie Unternehmen ticken

Eine der bemerkenswertesten Entwicklungen in der Wirtschaftstheorie ist die neue Art, wie wir Unternehmen betrachten. Wir sehen nicht länger eine vorgefertigte Form, die einen Prozess oder eine Technologie verwendet, um Material in Produkte zu verwandeln. Heutzutage denken wir bei Firmen an eine Verknüpfung von Verträgen zwischen Interessenseignern, Kreditgebern, Managern, Arbeitern, Kunden, Lieferanten und vielen mehr.

Diese Entwicklung führte uns dazu, die Unternehmensführung durch das Konzept der Verträge zwischen diesen Interessenseignern zu betrachten. Oliver Hart und Bengt Holmström haben das Fundament gelegt, das uns ermöglicht, dies zu tun. Die Gewinner des Nobelpreises für Wirtschaft des Jahres 2016 haben einige Hilfe geleistet, um diesen Beitrag anzuerkennen.

Während Verträge normale Praxis sind, sind sie prinzipiell nicht einfach gestrickt. Sie werden vielleicht zu einem Zeitpunkt entworfen, an dem die Ziele der Interessenseigner variieren (das sogenannte „Problem der Geschäftsführung“). Beispielsweise wenn die Aktieninhaber den Gewinn eines Unternehmens maximieren wollen, während die Manager vielleicht durch Fusionen und Aufkäufe ein Imperium errichten möchten.

Es gibt auch einen Umstand namens „asymmetrische Information“, bei dem die Aktionen einer Gruppe aus Interessenseignern nicht sichtbar für andere Interessenseigner in der Firma ist. Jeder kann die Berichte über die Vermögenslage lesen, aber die Interessenseigner können nicht direkt sehen, wie viel Mühe die Manager investieren, um Gewinne zu erzielen.

Aktieninhaber können dennoch einen Vertrag mit den Führungskräften des Unternehmens eingehen, der die Manager dazu anspornt, den Interessen der Aktieninhabern entsprechend zu handeln. Die Bezahlung kann von den wahrnehmbaren Maßnahmen der Firmenleistung abhängig gemacht werden. Auf ähnliche Weise können vielleicht Anteile und Aktienrechte miteingeschlossen werden. Durch den Nobelpreis wird dem finnischen Professor Holmström vom Massachusetts Institute of Technology  seine Demonstration, wie Aktieninhaber einen optimalen Vertrag für einen Geschäftsführer entwickeln sollten, dessen Handlungen sie nicht völlig überwachen können, anerkannt.

Verträge können auch unvollständig sein. Es ist entweder nicht möglich oder zu teuer, Verträge zu schreiben, die alle möglichen zukünftigen Ausgänge berücksichtigen. Es ist genau diese Unvollständigkeit der Verträge, die eine Erkenntnis für die Unternehmensführung liefert. Das geht durch die Forschungen durch Hart, einem britischen Professor, der in Harvard arbeitet, hervor.

Der Kern aller Dinge

Man nehme zum Beispiel ein einfach auszuführendes Bezahlsystem in einer Firma, in der die Aktieninhaber die Firma besitzen, aber in der die Kontrolle beim Management liegt. Die Beziehung bietet gleichermaßen ein Unternehmensführungs-Problem sowie asymmetrische Informationen. Wie zuvor bereits erwähnt wurde, bestünde eine Option für die Aktieninhaber darin, einen Vertrag aufzusetzen, der die Vergütung des Managers von wahrnehmbaren Ergebnissen abhängig macht, wie etwa vom Umsatz oder von dem Gewinn.

Aber Gewinne können von Faktoren beeinflusst werden, die außerhalb der Kontrolle des Managers liegen und ein Vertrag, der alle Kombinationen der Bemühungen des Managers und der äußeren Faktoren berücksichtigt, ist ungültig. Manager arbeiten üblicherweise zusammen, daher wird es sich vermutlich als schwierig erweisen, die Ergebnisse auf eine einzige Person zurückzuführen. Man kann Verträge aufsetzen, die die Gruppe bestrafen, wenn ein Produkt scheitert oder wenn sich eine Fabrik als nicht effizient erweist. Aber Holmström argumentierte, dass die Ungewissheit über die Gründe eines solchen Scheiterns bedeuten würden, dass eine Überwachung notwendig ist und dass die damit verbundenen Kosten daher unvermeidbar wären.

Man könnte die Leistung von Managern im Gegensatz zu ihren Kollegen beurteilen, um über die Vergütung zu entscheiden (der Geschäftsführer eines Supermarktes würde sich wahrscheinlich darüber freuen, wenn die Verkäufe um 10 Prozent steigen würden, bei den Aktieninhabern wäre dies weniger der Fall, wenn es bei anderen Geschäften bis zu 12 Prozent wären). Aber diese Herangehensweise würde immer noch nur dann funktionieren, wenn man den Einfluss von äußeren Faktoren auf die Leistung der Manager erfolgreich beseitigen könnte.

In diesem Fall, in dem einfache Verträge nicht einfach zu entwerfen oder durchzusetzen sind, bedarf es eines Mechanismus‘ – einer Unternehmensführung – die sicherstellt, dass die Interessen der nicht am Management beteiligten Aktieninhaber nicht untermauert werden.  Hart sieht die Unternehmensführung als ein Mechanismus an, um Rechte über die Kontrolle des nicht-menschlichen Vermögens einer Firma zwischen den Interessensvertretern zu verteilen.

Der Kredit ist fällig

Eine interessante Folge dieser Perspektive der Geschäftsführung ist der Grundgedanke der Schulden. Angenommen, die Interessenseigner eines Unternehmens sind hauptsächlich interessiert an kurzfristigen Gewinnen, während die Manager ein bombastisches Konstrukt eines Imperiums, das private Vorteile und Nutzen bringt, bevorzugen. Jeglicher Vertrag, der versucht, ein solches Unterfangen zu thematisieren, ist wahrscheinlich unvollständig, unfähig, die Verantwortung für sämtliche Einflüsse auf die zukünftigen Gewinne des Unternehmens zu tragen.

Dies eröffnet Möglichkeiten für einen bedeutenden Streit zwischen den Aktieninhabern und den Managern bezüglich ihrer Vergütung. Manager werden vielleicht eher behaupten, dass es trotz ihrer besten Bemühungen zu geringen Gewinnen kam, als aufgrund ihrer geringen Anstrengungen oder ihres Urteilsvermögens.

Wie können Schulden in diesem Fall helfen? Ein Schuldvertrag kann den Gläubiger dazu befähigen, die Liquidität einer Firma durchzusetzen, wenn es seinen Zahlungspflichten nicht nachkommen kann. Wenn die Firma gute Leistungen erzielt und diesen Pflichten nachkommen kann, bleibt die Kontrolle über das Vermögen der Firma bei den Managern. Wenn die Firma jedoch nicht die gewünschten Leistungen erzielt und den Kreditgebern das Geld nicht zurückzahlen kann, kann sie aufgelöst werden. Zum Zeitpunkt der Liquidation, nachdem den Kreditgebern das Geld zurückgezahlt wurde, verfügen die Aktieninhaber über die restlichen (oder über die verbliebenen) Rechte über die Finanzen der Firma – die Manager haben kein Recht über die Finanzen mehr.

In anderen Worten, wo die Verträge zwischen Aktieninhabern und Managern unvollständig sind, können Schulden, aus welchem Grund diese auch immer aufgenommen werden, eine Koordinierung der Ziele erzwingen. In den Worten von Hart und Sanford J. Grossman: „Manager können den Verlust ihrer Position nur verhindern, indem sie produktiver sind.“ Produktive Manager sind genau das, was die Aktieninhaber wollen. Die Kapitalstruktur eines Unternehmens kann daher zugleich dazu verwendet werden, um Manager zu disziplinieren und dazu, um Außenstehenden (Gläubigern) einen Ansporn zu geben, diese Disziplin durchzusetzen. Hart und Grossman untersuchten auch, wie Kontrolle bezüglich der mit den Wahlrechten verbundenen Arbeit ausgeübt wird.

Holmström und Hart liefern nicht alle Antworten, um das Problem, das mit einer schwachen Unternehmensführung verbunden ist, zu lösen. Sie veranlassen uns dazu, über ein Unternehmen als einen Mikrokosmos der Gesellschaft nachzudenken, in dem Interessensvertreter mit verschiedenen Zielen um Macht und Kontrolle konkurrieren. Ihre Arbeit hat uns geholfen, uns von verallgemeinernden Regeln über Dinge wie finanzielle Strukturen und Bezahlung fortzubewegen und hat uns dazu geführt, den Fokus darauf zu legen, diese Verträge und Mechanismen funktionstüchtig zu machen. Das ist ein sich verändernder Beitrag für die Forschung über Unternehmensführung.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „gears“ by MustangJoe (CC0 Public Domain)


Weiterlesen »

Destination Check: Codemotion Berlin 2016

Partner-Codemotion

Am 24. und 25. Oktober fand die Codemotion in der Kulturbrauerei statt. Die Tech-Konferenz mit den Kernthemen Big Data, Internet of Things und Sicherheit ist die größte Konferenz mit einem städteübergreifenden Konzept in Europa. In den vergangenen Jahren fand sie bereits in Rom, Madrid und Mailand statt, dieses Mal war Berlin wieder an der Reihe.

Die Codemotion hat sich wieder als beste Netzwerker-Plattform für internationale Entwickler, Programmierer und Communities gezeigt. Mit über 40 Vorträgen und jeder Menge Platz zum Netzwerken und Kennenlernen konnte man sich hier auch als Nichtprogrammierer ein interessantes und buntes Programm zusammenstellen. Mit Louis De Bruin von IBM Corporation und Kerstin Puschke von Xing gab es Talks von großen Firmen zu begutachten, aber auch Talks von kleineren Unternehmen und Communities wie Andrea Bezold von den Women Techmakers Berlin boten interssante Einblicke.


Marie Claire Le Blanc Flanagan, Expermentielle Spieledesignerin


hiq8htru
Image by Marie Claire Le Blanc Flanagan

Marie ist Gründerin und Executive Director von Wyrd Arts Initiatives und Editor in Chief von Weird Canada. Als Marie vor einem Jahr von Kanada nach Berlin zog, ist sie eher durch Zufall zum Programmieren und Gamedesign gekommen. Sie hat sich auf Gesichtserkennung, Musik und VR spezialisiert und probiert alles aus, was Spaß machen könnte und sich in ein Spiel verwandeln lässt.

Was ist dein Gesamteindruck?

Ich mag es sehr hier. Als ich ankam, war man sehr freundlich zu mir, auch an der Tür – es sind diese kleinen Sache, die wichtig sind. Ich war schon auf vielen Events und das macht Einiges aus, wenn dich jemand anlächelt und dir das Gefühl gibt, willkommen zu sein. Und es gibt auch nicht so viel Diversität auf diesen Tech-Events, darum fand ich es besonders toll, dass die sehr nette Türsteherin eine Frau war. Das fühlte sich sehr gut an, es war viel los und alle waren sehr nett.

Haben Redner und Teilnehmer deine Erwartung erfüllt?

Ich wusste nicht, was ich zu erwarten hatte, aber alle Leute hier waren toll. Ich lerne gerade programmieren, daher waren manche Themen für mich eher herausfordernd, aber es gab eine Menge interessante Anfänger-Sachen, die gut zugänglich waren, aber auch viele Sachen, die ich auf jeden Fall noch verstehen lernen will.

Was war dein persönliches Highlight?

Ein kleines Highlight war für mich, als mir der Speaker, der vor mir dran war, mir seine Fernbedienung für meine Präsentation geliehen hat. Ich denke, das sagt viel über Events wie dieses aus, dass man sich gegenseitig hilft, obwohl man sich nicht kennt, und dass jemand dafür sorgt, dass ich mich wohlfühle, kurz bevor ich meinen Talk halte.

Würdest du wiederkommen, und wem würdest du die Codemotion empfehlen?

Ich würde das Event auf jeden Fall Programmierern empfehlen, die ein bißchen mehr Erfahrung haben als totale Anfänger, aber auch Erfahrenen, die nach Höhrerem streben, sind hier sicherlich gut aufgehoben. Und definitiv würde ich dieses Event Frauen empfehlen, denn ich will auf jeden Fall mehr Frauen auf diesen Veranstaltungen sehen.

Was war deine Motivation, hier herzukommen?

Ich wurde durch einen Freund aufmerksam, der meinte, ich sollte mein Spiel hier vorstellen. Er war selbst noch nicht hier, aber hat von der Codemotion gehört und meinte, ich soll hier unbedingt hin. Als man mich dann fragte, ob ich einen Vortrag halten wollte, war ich total dafür.


Organisatorin: Ellen König, Data Scientist bei Soundcloud, Mitorganisatorin Codemotion


hjldidok
Image by Ellen König

Ellen arbeitet bei Soundcloud und ist seit zwei Jahren Mitorganisatorin der Codemotion und für die Organisation der Speaker zuständig. Sie kennt die Berliner Community-Szene durch ihre Teilnahme an diversen Frauen-Workshops und freut sich über jeden, der den Spaß am Coden entdeckt.

Was ist dein Gesamteindruck?

Ich mag die Codemotion sehr, es ist eine sehr entspannte, aber trotzdem interessante Konferenz. Ich mag auch den starken Fokus auf die Community sehr.

Haben Redner und Teilnehmer deine Erwartung erfüllt?

Ich bin zum zweiten Mal hier, da war ich auch schon im Programmkomittee, also wusste ich ungefähr, was für Referenten hier sind.

Was war dein persönliches Highlight?

Für mich ist immer ein Highlight, vor allem auf der Codemotion, aber auch auf anderen Berliner Events, dass ich Leute wiedersehen kann, die ich nur bei Communityevents treffe, das ist immer sehr schön. Außerdem hat der Tobias Pfeiffer einen Vortrag über Elixir gehalten, den fand ich hervorragend.

Würdest du wiederkommen, und wem würdest du die Codemotion empfehlen?

Die Codemotion ist glaube ich optimal für Leute, die sich auf dem Level zwischen Anfängern und Fortgeschrittenen befinden. Man findet hier wenig Advanced Talks, aber eine Menge Intermedia Talks, also für Leute, die sich über ihr eigenes Gebiet hinaus informieren wollen, was sonst noch so los ist in der Tech-Szene und in Berlin. Es ist eine schöne Konferenz, um den Horizont zu erweitern.

Was war deine Motivation, hier herzukommen?

Ich versuche, so viele Events wie möglich in Berlin zu besuchen, weil es eine sehr freundliche und sehr vielseitige Community ist. Da fühle ich mich immer sehr wohl.


Besucher: Johnathan Bender, Entwickler bei Contactually


bf28e519840c0d061b9a17a75ace2fe3
Image by Jonathan Bender

Jonathan Bender ist Entwickler bei Contactually und besucht die Berliner Tech-Konferenz, um neue Möglichkeiten für seinen Arbeitgeber zu finden, um besser und effektiver zu arbeiten. Außerdem war die Codemotion eine Möglichkeit für einen Europabesuch.

Was ist dein Gesamteindruck?

Es war toll, alle Speaker waren wirklich toll!

Haben Redner und Teilnehmer deine Erwartung erfüllt?

Ich wusste nicht genau, was ich zu erwarten hatte, aber ich war positiv überrascht von der Qualität der Talks. Meistens waren auch dei Fragen aus dem Publikum sehr gut, aber die meisten Speaker haben ihre Redezeit voll ausgenutzt, sodass es dafür nicht immer Zeit gab.

Was war dein persönliches Highlight?

Es gab ein paar sehr tolle Talks, vor allem gab es viele Talks über Microservices, Go, Elixir und Phoenix. Einer meiner liebsten Themen behandeln die Philosophie hinter der Technik und der Sprache, es gab eine Menge Talks darüber, wieso wir die Dinge so tun, wie wir sie tun, und wie es besser gehen könnte, und das Thema mochte ich sehr.

Würdest du wiederkommen, und wem würdest du die Codemotion empfehlen?

Es gab eine menge Anfänger-Talks und eine Menge Talks, die schon auf einem höheren Programmier-Niveau waren, aber das waren sicherlich nur die, auf denen ich jetzt war. Ich denke auch, dass es eine tolle Idee wäre, hierherzukommen, wenn jemand keine Ahnung von der Technik hat, denn da wird eine Menge davon erklärt, was gerade in der Industrie los ist. Ich glaube, einige meiner Kollegen würden davon sehr profitieren. Vielleicht kommen die dann nächstes Jahr mal her.

Was war deine Motivation, hier herzukommen?

Unsere Firma hat ein jährliches Reisebudget, um uns dahinzuschicken, wo wir hinwollen, und ich wollte mal nach Deutschland kommen. Ich bin sogar das erste Mal seit 15 Jahren wieder in Europa. Unsere Firma macht aber auch eine Menge zum Thema Systemverteilung und wir bewegen uns gerade weg von einem einzigen Anwendungsbereich hin zu Microservices, also gab es hier vieles, woran wir anknüpfen konnten.

Weiterlesen »

Nieder mit dem Wachstum: Wieso wir weniger Wirtschaft brauchen

sunset(image by Unsplash[CC0 Public Domain] via Pixabay)

Was so erfrischend an den nachhaltigen Entwicklungszielen der UN ist, ist die Tatsache, dass sie die  dazugehörigen Spannungen zwischen der wirtschaftlichen Entwicklung und der Ökologie unseres Planeten berücksichtigen. So scheint es zumindest. Die Einleitung bestätigt es: „Die Erde und ihr Ökosystem sind unser zu Hause“ heisst es dort und unterstreicht die Notwendigkeit, dass man „Eins mit der Natur“ sein möchte. Sie verpflichten sich dazu, die globale Erderwärmung bei unter zwei Grad Celsius zu halten und fordert „nachhaltige Strukturen für die Produktion und den Verbrauch.“

Solch eine Ausdrucksweise signalisiert das Bewusstsein dafür, das etwas an unserem Wirtschaftssystem extrem schiefgegangen ist – dass wir unsere Erde nicht weiter zerfressen können, ohne unsere Sicherheit und unseren Wohlstand ernsthaft zu gefährden – in der Tat gefährden wir damit auch das zukünftige Überleben unserer Spezies.

Schautman jedoch genauer hin, erkennt man einen offenkundigen Widerspruch. Der Kern des nachhaltigen Entwicklungsziel-Programms beruht auf dem alten Modell des unbegrenzten wirtschaftlichen Wachstums, das unsere ökologische Krise zuerst hervorgerufen hat: stetig steigende Niveaus der Förderung, der Produktion und des Verbrauchs. Die nachhaltigen Entwicklungsziele fordern „ein um mindestens 7 Prozent gesteigertes Bruttoinlandsprodukt pro Jahr in den am wenigsten entwickelten Ländern“ und flächendeckend „höhere Niveaus der wirtschaftlichen Produktivität.“ In anderen Worten gibt es einen tiefen Widerspruch im Zentrum dieser vermeintlich nachhaltigen Ziele. Sie verlangen gleichzeitig mehr und weniger.

Diese Aufforderung nach einem vermehrten Wachstum kommt zu einem seltsamen Moment – während wir gerade lernen, dass dies physikalisch nicht möglich ist. Momentan übertreffen die globalen Produktions- und die globalen Verbrauchs-Niveaus die Biokapazität unseres Planeten um fast 60 Prozent. Um es anders auszudrücken: Wachstum ist keine Option mehr – wir sind bereits zu viel gewachsen. Wissenschaftler sagen, dass wir die Grenzen unseres Planeten in einer halsbrecherischen Geschwindigkeit überschreiten und das größte Massenaussterben der Spezien in mehr als 66 Millionen Jahren erleben werden. Die unangenehme Wahrheit ist, dass unsere ökologische Überschreitung fast nur dem Überkonsum in den reichen Ländern geschuldet ist, vor allem derer im Westen.

Die nachhaltigen Entwicklungsziele fordern eine verbesserte „globale Ressourcen-Effizienz“ und eine „Abkopplung des wirtschaftlichen Wachstums von dem Zerfall der Umwelt“. Unglücklicherweise gibt es keine Anzeichen, dass dies auch nur annährend in der Geschwindigkeit möglich ist, die hierfür notwendig wäre.

Die weltweite materielle Förderung und der Verbrauch stieg zwischen 1980 und 2010 um 94 Prozent an und beschleunigte im letzten Jahrzehnt derart, dass ein derzeitiger Maximalwert von 70 Billionen Tonnen pro Jahr erreicht wurde. Und er steigt noch immer an: Hochrechnungen haben ergeben, dass im Jahr 2030 die Marke der 100 Billionen Tonnen gebrochen wird.

Aktuelle Berechnungen zeigen, dass wir im Jahr 2040 die Verschiffung und die Spedition von Gütern per Lastkraftwagen sowie per Flugzeug weltweit mehr als verdoppeln werden – ebeno wie die Waren selbst, die diese Fahrzeuge transportieren werden. Im Jahr 2100 werden wir drei Mal mehr Feststoffabfall produzieren, als es heute der Fall ist.

Eine Effektivitätssteigerung wird diesen Kreislauf nicht durchbrechen können, vielmehr könnte ein Anstieg des Bruttoinlandsprodukts in vielen ärmeren Ländern noch notwendig sein – aber für die Welt als solche besteht die einzige Option in einer bewussten Wachstumsrücknahme und einem schnellen Wechsel zu dem, was der legendäre Ökonom Herman Daly als einen stabilen Staat, der ökonomische Aktivität in ökologischem Gleichgewicht hält, bezeichnet.

Eine Wachstumsrücknahme ist nicht gleichbedeutend mit Armut. Im Gegenteil ist die Wachstumsrücknahme perfekt kompatibel mit hohen Niveaus der menschlichen Entwicklung. Für uns ist es absolut möglich, unseren Verbrauch der Ressourcen zu verringern, während wir die Dinge vermehren, die wirklich von Bedeutung sind, wie zum Beispiel das Glück des Menschen, dessen Wohlbefinden, Bildung, Gesundheit und Lebensdauer – bedenkt man die Tatsache, dass Europa in vielerlei Hinsicht höhere Indikatoren der menschlichen Entwicklung als die USA besitzt, und das trotz des um 40 Prozent geringeren Bruttoinlandsprodukts und der um 60 Prozent geringeren Emissionen pro Kopf.

Das ist das Ende, auf das wir uns voll konzentrieren müssen. Tatsächlich besteht der sicherere Weg zur Armut darin, einfach so weiterzumachen, wie wir es derzeit tun. Wie der Top-Ökonom Joseph Stiglitz verdeutlichte, ein wachsendes Bruttoinlandprodukts in einer Welt mit ökologischer Überschöpfung den Lebensstandard mindert, statt diesen zu verbessern.

Wir müssen das Bruttoinlandsprodukt durch einen gesünderen Maßstab für die menschliche Entwicklung ersetzen, wie zum Beispiel durch den Indikator des wahren Fortschritts. Wir solten die Idee des exponentiellen wirtschaftlichen Wachstums ohne Ende vollständig abschaffen. Traurigerweise übergeben die nachhaltigen Entwicklungsziele diese wichtige Herausforderung an die nächste Generation – am Ende der Erklärung wird verkündet, dass „bis 2030 existierende Initiativen ausgebaut werden, um Maßnahmen des Fortschritts auf der Basis der nachhaltigen Entwicklung zu schaffen, die das Bruttoinlandprodukt komplementieren.“ In anderen Worten, sie vertagen das Problem auf das Jahr 2029.

Aber was ist mit den Arbeitsplätzen? Wann immer ich Vorträge über die Wachstumsrücknahme halte, ist das immer die erste Frage, die mir gestellt wird – und wir müssen sie ernst nehmen. Ja, die Wachstumsrücknahme wird die Eliminierung überflüssiger Produktionen und Arbeiten verlangen. Aber dies bietet uns eine schöne Gelegenheit, die Arbeitswoche zu verkürzen und mehr Gedanken an eine andere große Idee aufkommen lassen, die die Vorstellungen der Menschen in den letzten paar Jahren gefangengenommen hat: ein universelles Grundeinkommen. Wie soll dies finanziert werden? Es gibt viele Optionen, einschließlich progressiver Steuern auf kommerzielle Landnutzung, auf finanzielle Transaktionen, Transaktionen mit fremden Währungen sowie auf Kapitalgewinne.

Wir müssen der Tatsache ins Auge blicken: in einem Zeitalter der schnellen Automatisierung ist eine Vollbeschäftigung auf globaler Ebene sowieso ein Luftschloss. Es ist Zeit, dass wir in Ermangelung formeller Arbeitsplätze an Möglichkeiten denken, um zuverlässige Lebensgrundlagen zu ermöglichen. Dies wird uns nicht nur bei der notwendigen Wachstumsrücknahme helfen, sondern es wird den Menschen auch dabei helfen, ihren ausbeuterischen Arbeitsbedingungen und slaventreiberähnlichen Arbeitgebern zu entkommen und die Arbeitsbedingungen verbessern – zwei Ziele, die die nachhaltigen Entwicklungsziele festgesetzt haben und erreichen möchten.

Außerdem wird es Menschen die Möglichkeit bieten, mehr Zeit und Mühe in die Dinge zu investieren, die wirklich von Bedeutung sind: sich um die Menschen zu kümmern, die einem lieb sind, das eigene Essen anzubauen, Gemeinden zu ernähren und heruntergekommene Gegenden wieder aufzubauen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image ”sunset” by Unsplash (CC0 Public Domain)


Weiterlesen »

Netzpiloten sind Partner der IDC ‚The Workplace of the Future‘ Konferenz 2016

Am 3. November dreht sich bei der IDC ‚The Workplace of the Future‘ Konferenz in Frankfurt alles um die Transformation des Arbeitsplatzes: Mobilität, Flexibilität und IT-Sicherheit sind in einer digitalisierten Gesellschaft nicht mehr wegzudenken. Mobile Technologien für schnellere Verfügbarkeit von Informationen sind wichtig für Unternehmen, aber auch die Mitarbeiter wünschen sich mehr Flexibilität.
Smart Devices und der Zugriff auf sichere Applikationen dürfen dafür auf keinen Fall fehlen.
Der Veranstalter IDC hat die Notwendigkeit der Entwicklung neuer Technologien und Strategien am Arbeitsplatz schon früh erkannt und bietet euch auf der Konferenz Informationen zu Trends und neuen Möglichkeiten zum Ausbau des Workplace of the Future.
Die Konferenz offeriert euch außerdem eine Plattform zum Informationsaustausch, Kontakteknüpfen und besonders zur Inspiration. Freut euch auf eine eintägige Veranstaltung mit interessantem Programm, anregenden Gesprächen und spannenden Aussichten!  

IDC hat sich mit seiner Arbeit gleich mehreren Bereichen verschrieben: Marktforschung, Beratungsdienstleistungen sowie Veranstaltungen für Telekommunikation, Informations- und Verbrauchertechnologien.

Weiterlesen »

Der Buzzword-Check: Wie innovativ ist der Commerce-Sektor in Deutschland?

lightbulb (image by Unsplash [CC0 Public Domain] via Pixabay)

Einen guten Eindruck über die Innovationskraft der deutschen Gründerszene vermitteln Plattformen wie die Bits&Pretzels, die vom vergangenen Sonntag bis Dienstag in München stattgefunden hat. In sechs Themen-Clustern haben Startups Besucher und Investoren mit ihren Drei-Minuten-Pitches von ihrer Geschäftsidee überzeugt – oder eben nicht. Die von den Veranstaltern ausgemachten Innovationsfelder waren Future Commerce, Fast Mobility, Hot Lifestyle, Sophisticated IoT, Smart Company und Big Money.

„Im Vergleich zu den anderen Clustern war der Commerce Cluster mit Abstand der am weitesten Entwickelte. Das gilt sowohl für die Qualität der Pitches als auch die Innovationskraft“, so Marie Hélène Ametsreiter, Partner beim Seed-Investor Speedinvest und Mitglied in der Jury, die den besten Pitch gekürt hat.

So hat es dann auch ein Startup, das im Commerce-Cluster angetreten ist, geschafft, den Sieg im kategorieübergreifenden Pitch-Wettbewerb mit nach Hause zu nehmen. Freya Oehle begeisterte die Jury mit ihrer Plattform für individuelle Preisbildung Spottster. Das Prinzip dahinter ist einleuchtend: Kunden geben einen Wunschpreis an, zu dem sie ein Produkt kaufen möchten. Der Händler kann dann wiederum entscheiden, ob er das Produkt zum reduzierten Preis abgibt und erhält außerdem wertvolle Daten für seine Preisgestaltung. „Es war das ausgereifteste Produkt und eines, das erfolgreiche Kennzahlen zeigen konnten“, meint Ametsreiter, die sich über erfolgreiche Female Founder freut.

Freya Oehle bei der Siegerkür (Image by Freya Oehle)
Freya Oehle bei der Siegerkür (Image by Gesine Märten)

#Plattformen

Die vorgestellten Ideen hinterließen den Eindruck, dass die Stärke deutscher Gründer und Gründerinnen im E-Commerce in der Weiterentwicklung von Plattformansätzen liegt, die Anbieter und Kunden in unterschiedlicher Weise in der Nische oder der Fläche zusammenbringen und provisionsbasiert verdienen. Von acht vorgestellten Geschäftsideen lag sechs ein Plattformgedanke zugrunde. Erfolgsgeschichten wie die von airbnb, uber oder Helpling haben die neuen Gründer offensichtlich inspiriert, ihr Glück in Vermittlungsmodellen zu suchen.

Spottster im Pitch-Finale (Image by Gesine Märten)
Spottster im Pitch-Finale (Image by Gesine Märten)

#Shareconomy

Viele Plattformen eint der Gedanke, Menschen zu verbinden, um Produkte gemeinsam zu nutzen. Recommerce und Collaborative-Consumption-Ansätze sind nicht neu, doch die Umsetzung wird ausgefeilter. So hat Mark Kugel mit seinem Team ein Prinzip gesucht, mit dem Privatpersonen ihre Besitztümer möglichst unkompliziert verleihen können, wenn sie nicht in Gebrauch sind. Bei der Entwicklung der Geschäftsidee seines Startups Useley hat er deshalb einen Fokus auf die logistische Umsetzung gelegt. „Der Trend geht für uns klar dahin, den Produkten einen längeren Lebenszyklus zu geben. Unsere Mitglieder wissen es außerdem zu schätzen, Stücke von Menschen zu erwerben, die eine Geschichte zu erzählen haben“, so Martina Löhner von Kleiderkreisel, einer Recommerce-Plattform, die seit 2008 am Markt ist.

„We put the sharing back into the shareconomy“ sei auch der häufigste Satz, den er gehört habe, bestätigt Raphael Thierschmann von Rakuten. Das Unternehmen aus Japan tätigt strategische Zukäufe unter anderem mit der Absicht, Innovationsfelder zu erschließen. Auf der Bits&Pretzels hat Rakuten die Pitches daher auch durch die Investorenbrille verfolgt.

Wer mit der Erwartung kam, dass sich die Startups im Commerce Cluster mit den neuen Spielzeugen – hier seien die Stichworte künstliche Intelligenz, Virtual Reality und Blockchain genannt – austoben, kam nicht ganz auf seine Kosten. Auch Raphael Thierschmann hat Ansätze vermisst, die „die virtuelle Welt noch besser in die Kohlenstoffwelt integrieren, vor allem, wenn man weiß, was wir gerade vorantreiben.“ Rakuten sei sehr aktiv mit eigenen Research Instituten, doch dabei noch nicht einmal der größte Player im Forschungsbereich.

#Blockchain

Thierschmann glaubt an das Potenzial von Kryptowährungen, da es noch keine wirklich kundenfreundliche Lösung gibt, die tatsächlich unabhängiges, länderübergreifendes Zahlungswesen bietet. Rakuten, das seit 2015 die Zahlung mit Bitcoins ermöglicht, hat erst kürzlich ein Blockchain Lab in Belfast eröffnet. Hier beschäftigt man sich mit dem Potenzial der Blockchain-Technologie unter anderem für den E-Commerce-Sektor. Damit ist Rakuten nicht allein: Auch der chinesische E-Commerce-Riese Alibaba entwickelt über den unternehmenseigenen Zahlungsdienst Alipay gerade eine blockchain-basierte Cloud-Plattform.

#VirtualReality

Nicht nur Kevin Spacey sieht in Virtual Reality einen „Game Changer“, wie er in seiner Keynote auf der Bits&Pretzels betonte. Auch für Ametsreiter und Thierschmann ist es eines der großen Buzzwords. „Virtual Reality macht einfach Spaß. Gemeinsam mit unserem Online-Markplatz Priceminister hat unser Institute of Technology in Paris eine virtuelle Shopping-Boutique entwickelt, in der Kunden mit VR-Brille einkaufen können. Aktuell ist das noch ein Prototyp, aber die ersten Tests waren vielversprechend. Ich bin sehr gespannt, was dabei herauskommt“, so Thierschmann über die Pläne von Rakuten.

#ArtificialIntelligence

Die Marketing- und Commerce-Branche sieht in AI kurzfristig ein Einsatzszenario für Chatbot-Lösungen. Schon auf der dmexco wurden Chatbots zum nächsten großen Trend erklärt. Und auch Rakuten streckt die Fühler in diesem Bereich aus. In den Startup-Pitches im Commerce-Cluster auf der Bits&Pretzels waren diesbezüglich noch keine Ansätze zu sehen.

Auf dem Gründer-Festival in München zeigen sich die deutschen Newcomer stattdessen mit pragmatischen, soliden Ansätzen. „Das Niveau der technischen Entwicklungen in Deutschland ist sehr hoch. Wir sehen, dass die Entwicklungen in Europa sehr oft viel nachhaltiger und durchdachter sind“, so Ametsreiter. Die entscheidende Frage sei, wann der richtige Zeitpunkt für AI, Machine Learning und Virtual-Reality-Anwendungen gekommen ist. Es sei für alle schwer abzuschätzen, wann ein Trend in die Breite geht und die Usability gegeben ist, die es kommerziell tragfähig macht. Martina Löhner von Kleiderkreisel hingegen hat die Hoffnung, künftig nicht nur technologische Innovationen zu sehen, sondern neue ideelle Ansätze, die authentisch und nah am Menschen sind.


Image „Lightbulb“ by Unsplash (CC0 Public Domain)


Weiterlesen »

No Comment – NPR deaktiviert Kommentarfelder unter den Artikeln

NPR Building (adapted) (Image by Cliff [CC BY 2.0] via flickr)

Demnächst wird es unter den Artikeln auf NPR.org nicht länger einen Kommentarbereich geben. NPR verkündete die Entscheidung vor wenigen Tagen in einem Blogeintrag mit der Erklärung, dass die Kommentarbereiche größtenteils verwaist sind, obwohl das Internetpublikum insgesamt über die Jahre stetig gewachsen ist. Nur ein Prozent von monatlich 25 bis 35 Millionen Lesern und Hörern hinterlassen einmalig Kommentare, die Anzahl regelmäßiger Verfasser von Kommentaren ist ebenfalls sehr gering. Stattdessen wendet sich NPR den sozialen Netzwerken zu – sowohl offiziell als auch über die privaten Profile seiner Journalisten – um mit seinem Publikum zu interagieren. Und das bedeutet, das Publikum auf den üblichen Plattformen wie Facebook (wo NPR mehr als fünf Millionen „Gefällt mir“ hat) und Twitter (mehr als sechs Millionen Follower) anzuziehen, sowie die Präsenz auf Snapchat, Instagram und Tumblr auszubauen. In dem Post hob Scott Montgomery, Redaktionsleiter für digitale Nachrichten, die NPR Facebook-Gruppe ‚Private Finances‘ hervor, die mittlerweile mehr als 18.000 Mitglieder aufweist. Weitere Bemühungen die Aufmerksamkeit des Publikums auf sich zu ziehen, so schrieb Montgomery, haben den Kommentarbereich weniger nützlich werden lassen:

  • „Wir haben in den besonderen Bemühungen, das Interesse der Leser- und Zuhörerschaft mit dem Tiny Desk Contest und Generation Listen (Generation Hören)völlig neue Maßstäbe gesetzt. Es gab zum diesjährigen Tiny Desk Contest mehr als 6000 Einsendungen und die Welt hat Gewinnerin Gaelynn Lea kennen gelernt. In der Zwischenzeit besuchen unsere Journalisten regelmäßig Treffen von Generation Listen und stellen so in NPR-Radiostationen im ganzen Land die Verbindung zur nächsten Generation von Fans des öffentlichen Radios her.“
  •  

  • „Bei uns widmet sich ein ganzes Team den Publikumsbeziehungen, welches jeden Monat tausende E-Mails von Hörern liest und persönlich beantwortet. Dieses unentbehrliche Forum begegnet Ihrem essenziellsten Feedback und Ihren Fragen und gibt uns einen Raum für gleichermaßen bedeutende Antworten. Unsere Seite help.npr.org operiert plattformübergreifend und ist jederzeit offen für Ihre Fragen und Anliegen.“
  •  

  • „In den kommenden Wochen werden wir zusätzlich zur Weiterentwicklung unserer Herangehensweise in Bezug auf Live Interaktion auf Facebook beginnen, ein vielversprechendes neues Hilfsmittel zur Einbindung der Zuhörerschaft zu testen, das in den sozialen Medien bereits verwurzelt ist. Hearken ist eine digitale Plattform, die es den Journalisten und dem Publikum erlaubt, bei der Entwicklung von Ideen für Artikel als Partner zu agieren, und diese Plattform ist in Dutzenden von NPR-Radiostationen bereits in Gebrauch. Wir werden Hearken in unseren Goats and Soda Blog zu weltweiter Gesundheit und Entwicklung mit dem Potenzial für zukünftige Erweiterung involvieren.“

Zudem hat NPR in Elizabeth Jensen seine eigene Bürgerbeauftragte in Vollzeit, die dabei hilft, von Hörern angeschnittene Themen aufzugreifen. Selbstverständlich hat Jensen die Eliminierung der Kommentare abgewägt, in Erwartung einigen Widerstandes gegen die Tatsache, dass eine öffentliche Medienorganisation einen Kanal für öffentliche Beiträge entfernt. NPR benutzte die externe Plattform Disqus, ein System, das – so schrieb Jensen – „teurer wurde, je mehr Kommentare hinterlassen wurden, und innerhalb einiger Monate hat dies NPR zweimal mehr gekostet als im Budget veranschlagt„. In anderen Worten hat NPR die Kosten für eine kleine Gruppe von Menschen getragen, die nicht zwingend repräsentativ für das Gesamtpublikum waren: Nur 4300 Nutzer posteten je etwa 145 Kommentare, das sind etwa 67 Prozent aller auf NPR.org verfassten Kommentare innerhalb eines Zeitraumes von zwei Monaten. Mehr als die Hälfte aller Kommentare von Mai, Juni und Juli zusammen stammten von lediglich 2600 Nutzern. Es ist nicht möglich, Aussagen darüber zu treffen, wer die Verfasser dieser Kommentare sind; manche Nutzer kommentieren anonym. Aber es gibt einige Anzeichen, die darauf hindeuten, dass die Kommentierenden nicht völlig repräsentativ für das Gesamtpublikum des NPR sind: Sie kommentieren mit großer Mehrheit über den Desktop (jüngere Nutzer neigen dazu, NPR.org per Handy aufzurufen) und eine Schätzung von Google legte Montgomery zufolge nahe, dass die Verfasser zu 83 Prozent männlich sind, während unter der Gesamtheit der Nutzer von NPR.org nur 52 Prozent männlich sind. Joel Sucherman, NPR Abteilungsdirektor für digitale Produkte, teilte Jensen zudem mit, dass die Leser von NPR.org mit großer Wahrscheinlichkeit „innerhalb der nächsten sechs bis neun Monate neue Optionen sehen werden„. Auf Twitter wurde die Mitteilung überwiegend positiv begrüßt, obwohl manche Besorgnis über den wachsenden Einfluss sozialer Netzwerke äußerten. Die Kommentare unter Jensens und Montgomerys Posts sprechen jedoch so ziemlich für sich. Dieser Artikel erschien zuerst auf “Nieman Journalism Lab” unter CC BY-NC-SA 3.0 US. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „NPR Building“ by Cliff (CC BY 2.0)


Weiterlesen »

Mädchen und die Sozialen Medien: Psychodruck im Internet

code(image by JESHOOTS [CC0 Public Domain] via Pixabay)

Aktuelle Forschungsergebnisse des britischen Bildungsministeriums zeigen, dass sich das geistige Wohlergehen von Mädchen im Teenageralter im Vereinigten Königreich verschlechtert hat. Die Studie, die auf den Angaben von 30 000 14-jährigen Schülern in den Jahren von 2005 bis 2014 fußt, kommt zu dem Ergebnis, dass 37 Prozent der Mädchen unter psychischen Belastungen leiden, wohingegen es im Jahr 2005 nur 34 Prozent waren. (Im Vergleich sind nur 15 Prozent der Jungen im Teenageralter betroffen, während es ein Jahrzehnt zuvor noch 17 Prozent waren). Die Autoren der Studie weisen darauf hin, dass eine Sache, die sich zwischen 2005 und 2014 geändert habe, der „Beginn des Zeitalters der sozialen Medien“ sei.

Die Jugendjahre sind eine Zeit der enormen körperlichen, kognitiven und emotionalen Entwicklungen. Teenager gehen aufeinander ein, um zu lernen, wie man ein kompetenter Erwachsener wird. In der Vergangenheit wandten sie sich an Eltern, Lehrer und andere Erwachsene in ihrem Umfeld sowie entfernte Familienangehörige und Freunde. Heute können wir zu dieser Liste der sozialen und emotionalen Entwicklungen auch die sozialen Medien hinzufügen. Doch warum sollte der Beginn des Zeitalters der sozialen Medien ein Problem darstellen?

Untersuchungen weisen darauf hin, dass Mädchen ein höheres Risiko aufweisen, die negativen Aspekte der sozialen Medien zu spüren zu bekommen, als Jungen dies tun. Junge Mädchen sind mit ihrer noch eingeschränkten Fähigkeit zur Selbstkontrolle und ihrer Anfälligkeit für Gruppenzwang gefährdet, online schlechte Erfahrungen zu machen, die ihre Entwicklung zu gesunden Erwachsenen negativ beeinflussen und zu Depressionen sowie Angststörungen führen könnten.

Im Laufe der Adoleszenz erwerben Menschen Charaktereigenschaften wie Selbstbewusstsein und Selbstkontrolle. Da jugendliche Gehirne noch nicht vollständig entwickelt sind – und es bis zum Erreichen des frühen Erwachsenenalters auch nicht sein werden – fehlt es ihnen noch an den kognitiven Fähigkeiten der eigenen Bewusstheit und Privatheit, und so kann es dazu kommen, dass sie unangebrachte Nachrichten, Bilder und Videos posten, ohne sich der Langzeitwirkungen derer bewusst zu sein. Was sie posten, bleibt möglicherweise nicht nur im kleinen Kreis ihrer Freunde, sondern kann weit und breit mit verheerenden Konsequenzen die Runde machen.

Im Gegensatz zu ihren männlichen Altersgenossen sind Mädchen eher geneigt, zu viele persönliche Informationen über sich selbst oder über andere zu teilen, was die Wahrscheinlichkeit erhöht, eine negative Reaktion wie Mobbing oder abwertende Kommentare bei Altersgenossen hervorzurufen.

Falsche Ideale

Die sozialen Medien vermitteln der „Generation X-Factor“ das Streben nach Prominenten-Status und unmögliche Erwartungen. Die Social-Media-Plattformen sind voll von umwerfend aussehenden Models, denen junge Mädchen nacheifern können. Die Körperwahrnehmung der Mädchen im Teenageralter wird geprägt durch Emotionen (das Bedürfnis, gemocht zu werden), Wahrnehmungen (eine der Entwicklung angemessene Größe des Busens) und darüber hinaus von kulturellen Botschaften und gesellschaftlichen Standards. Die sozialen Medien ermöglichen es den Mädchen, sich sowohl mit Freunden als auch Prominenten zu vergleichen und liefern „Lösungen“ wie extreme Ernährungs- oder Trainingstipps gleich mit, damit die Mädchen ihre Ziele erreichen können.

Untersuchungen haben ergeben, dass heranwachsende Mädchen gefährdet sind, Essstörungen oder Dysmorphophobie zu entwickeln (der Drang, eine wahrgenommene Unvollkommenheit operativ zu beheben, z.B. zu kleine Brüste). Sorgen, die ihr Körperbild betreffen, können ihre Lebensqualität nachhaltig negativ beeinflussen, indem sie sie beispielsweise davon abhalten, gesunde Beziehungen zu pflegen. Sie könnten viel Zeit darauf verwenden, sich zu sorgen, die besser darin investiert wäre, andere Aspekte ihrer Persönlichkeit zu entwickeln.

Die sozialen Medien können sich ebenfalls negativ auf die Pubertät auswirken, indem sie junge Mädchen ermuntern, die „Welt der Erwachsenen“ zu betreten und sexuell aktiv zu sein, bevor sie reif genug sind, mit all den Konsequenzen zurechtzukommen, die dies mit sich bringen kann.  Sexting ist zu einer gewöhnlichen Erscheinung unter 20 Prozent der Jugendlichen geworden. Sie schicken dabei Bilder, auf denen sie nackt oder halbnackt sind, an Gleichaltrige. Kommt es zum Betrug, muss sich der Teenager gegen Demütigung wappnen, die er erleben kann, wenn ein anderer Mensch, dem er private Informationen anvertraut hat, ein privates Foto im Netz verbreitet. Die extremen psychischen Belastungen, denen diese Mädchen ausgesetzt sind, und ihre Auswirkungen auf die geistige Gesundheit sind weitreichend dokumentiert.

Die Adoleszenzphase ist auch eine Zeit, in der die Jugendlichen beginnen, fortgeschrittene Fähigkeiten zum logischen Denken auszubilden, und während der ihre kognitive Entwicklung vorangetrieben wird. Es ist eine Zeit, in der sie beginnen, darüber nachzudenken, wie sie von anderen wahrgenommen werden. Jugendliche Mädchen haben die Tendenz, sich in Profanes hineinzusteigern und Handlungen und Gedanken immer wieder zu analysieren, da sie bestrebt sind, sich anzupassen und die Informationen zu verarbeiten. Dies ist grundsätzlich ein gesundes Verhalten, doch Untersuchungen haben gezeigt, dass sich dieses Verhalten in Verbindung mit sozialen Medien zu einer ungesunden Aktivität steigern und so zu einem Vorboten von Depressionen und depressiven Symptomen werden kann.

Die sozialen Medien können Freund oder Feind sein – und statt sich nur auf die negativen Aspekte zu fokussieren, sollten wir sie stattdessen als ein Mittel nutzen, das den heranwachsenden Mädchen dabei helfen kann, zu verstehen, dass die Bilder, die in den sozialen Netzwerken konstant projiziert werden, keinesfalls eine durchschnittliche Person widerspiegeln. Wir sollten ihnen auch beibringen, dass es eine enorme Vielfalt an Aussehen und Entwicklungsgeschwindigkeiten gibt. Wir sollten junge Mädchen dazu ermuntern, sich mit den sozialen Medien kritisch auseinanderzusetzen.

Heranwachsende Mädchen verbringen einen großen Teil ihrer Zeit online. Der Versuch, dieses Verhalten zu unterbinden oder zu kontrollieren, wird nur zu heimlichen Online-Aktivitäten führen.  Stattdessen sollten Eltern sich mehr engagieren, ihre Teenager beim Überwinden von Social-Media-Hindernissen zu unterstützen und ein gesundes Selbstbewusstsein vorleben.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image ”Mädchen chattet” by JESHOOTS (CC LIZENZ)


Weiterlesen »

Asoziales Verhalten – Es ist alles in deinem Kopf

Punch (adapted) (Image by Edgar Languren [CC0 Public Domain] via flickr)

Viele Jahre lang haben Wissenschaftler geglaubt, dass es eine Verbindung zwischen gravierendem asozialem Verhalten und verhaltensauffälliger Entwicklung gibt. Jedoch gab es sehr wenig Forschung, die sich mit dieser Theorie beschäftigt. In einer kürzlich durchgeführten Studie nutzten wir MRT-Scans, um die Hirne von Teenagern zu untersuchen, bei denen eine Verhaltensstörung diagnostiziert wurde; also eine psychiatrische Erkrankung, die starkes asoziales Verhalten und Aggression mit sich bringt. Diese Scans lieferten weitere Belege dafür, dass Verhaltensstörungen echte psychiatrische Störungen sind, und nicht, wie manche Experten behaupten, eine übertriebene Form von jugendlicher Rebellion. Wir untersuchten die Hirne von 58 jungen Teilnehmern im Alter von 16 bis 21 mit Verhaltensstörung und von 25 gesunden Kontrollpersonen in der selben Altersgruppe. Wir benutzten die Scans, um die Dicke von 68 unterschiedlichen Teilen der äußeren Hirnrinde zu messen – diese hat unter Anderem Einfluss auf Bereiche wie Bewusstsein, Wahrnehmung, Aufmerksamkeit, Erinnerung und Sprache. Anschließend maßen wir den Grad der Ähnlichkeit zwischen diesen verschiedenen Regionen der Rinde. Diese Ähnlichkeitsmessung sagt etwas darüber aus, ob unterschiedliche Bereiche der Hirnrinde sich in einem vergleichbaren Verhältnis entwickeln. Dies wäre ein Hinweis darauf, dass sie „zusammen wachsen“ – das würde wiederum bedeuten, dass sie zusammenarbeiten und funktional verbunden sind. Man kann zudem messen, ob sie sich in einem sehr unterschiedlichen Verhältnis entwickeln. Dies würde nahelegen, dass sie unterschiedliche Funktionen haben. Wir rechneten damit, herauszufinden, dass die jungen Leute mit der Verhaltensstörung Letzteres aufweisen würden, also weniger Ähnlichkeit zwischen der Dicke verschiedener Teile der Hirnrinde als die gesunden Kontrollpersonen. Wir wurden von den Ergebnissen überrascht. Sie zeigten klare Unterschiede zwischen den jungen Leuten, deren Verhaltensprobleme bereits früh im Leben begonnen hatten, und denen, derer Verhaltensprobleme in der Pubertät begannen. Allerdings unterschieden sich beide Gruppen von der gesunden Kontrollgruppe. Wir stellten fest, dass diverse Teile der Hirnrinde sich in Bezug auf die Dicke der Hirnrinde bei den Teenagern, die bereits in jungen Jahren Verhaltensprobleme entwickelt hatten, deutlich mehr ähnelten, als bei den gesunden Kontrollpersonen. Dies legt den Schluss nahe, dass die Entwicklung des Gehirns bei Kindern, die früh an Verhaltensproblemen leiden, viel synchroner vonstatten geht. Es könnte bedeuten, dass ihre Gehirne weniger speziell geprägt sind. Im Gegensatz dazu entwickeln sich bei normal entwickelten Kindern typischerweise die Teile der Rinde, die nahe beieinander liegen, mit ähnlicher Geschwindigkeit, während andere, die weiter voneinander entfernt liegen oder die unterschiedliche Funktionen haben, sich mit unterschiedlicher Geschwindigkeit entwickeln. Das bedeutet, dass die Hirne normal entwickelter Kinder strenger in verschiedene Netzwerke unterteilt sind, die unterschiedliche Funktionen erfüllen. Doch wir wissen nicht, in welcher Verbindung diese Spezialisierung zu asozialem Verhalten steht. Dieses Muster der verstärkten Ähnlichkeit zwischen verschiedenen Bereichen der Hirnrinde bei Jugendlichen mit frühen Verhaltensproblemen könnte durch die verzögerte Entwicklung der Regionen erklärt werden, die sich normalerweise in der frühen Kindheit entwickeln. Oder es könnte daran liegen, dass die Regionen, die normalerweise später im Leben reifen, sich hier früher entwickeln. Eine andere Feststellung, die uns überraschte, war das Ausmaß dieser strukturellen Veränderungen. Statt Unterschiede zwischen den Gruppen in spezifischen Teilen des Hirns zu finden, die zuvor bereits mit asozialem Verhalten in Verbindung gebracht wurden – beispielsweise im Frontalkortex – fanden wir weitgehende Veränderungen quasi über die gesamte Hirnrinde verteilt. Jedoch fanden wir auch ein völlig anderes Veränderungsmuster der Rindendicke bei den Teenagern, deren Verhaltensprobleme sich in der Jugend entwickelten (die „Spätzünder“). Unterschiedliche Bereiche ihrer Hirnrinde wiesen im Vergleich mit den normal entwickelten Jugendlichen sogar noch weniger Ähnlichkeit miteinander auf. Dies war ebenfalls ein weit verbreitetes Muster, das viele verschiedene Bereiche des Hirns betraf, nicht nur ein oder zwei spezifische Regionen. Dieses Ergebnis könnte Veränderungen der Gehirnentwicklung widerspiegeln, die insbesondere in der Jugend auftreten. Beispielsweise entwickeln sich bei dieser Gruppe Hirnregionen, deren Entwicklung normalerweise in der späten Kindheit oder Jugend stattfindet, langsamer als bei gesunden Personen.

Neue Wege öffnen

Diese Ergebnisse liefern einige der stärksten Belege dafür, dass Anomalien in der Entwicklung des Gehirns möglicherweise zur Entwicklung ernsthaften asozialen Verhaltens in der Kindheit oder der Jugend beitragen. Sie legen außerdem den Schluss nahe, dass es wichtige Unterschiede zwischen den Gehirnstrukturen der Leute, die bereits früh Verhaltensprobleme entwickeln, und denen solcher Personen, die in ihrer Jugend „auf die schiefe Bahn geraten“ sind, gibt. Studien, die die Veränderungen in der Gehirnentwicklung und asoziales Verhalten über längere Zeiträume hinweg verfolgen, sind notwendig, um herauszufinden, ob das Verhalten einer Person sich verbessert, wenn die Entwicklung ihres Gehirns sich normalisiert. Und die Methode, die wir nutzten, um den „Schaltplan“ des Gehirns zu studieren, könnte in Zukunft auch genutzt werden, um den Einfluss von Psychotherapien oder Medikamenten zu untersuchen, oder um bei Kindern mit hohem Risiko – wie beispielsweise die jüngeren Geschwister jugendlicher Straftäter – intervenieren zu können, bevor sie ernsthafte Verhaltensprobleme entwickeln. Es wird außerdem wichtig sein, herauszufinden, ob die Veränderungen, die wir in den Hirnen der Teenager mit Verhaltensproblemen feststellten, von umweltbedingten Risikofaktoren verursacht werden; beispielsweise Missbrauch, Vernachlässigung oder Alkohol- und Tabakkonsum der Mutter während der Schwangerschaft. Weiterhin gilt es, herauszufinden, ob die Veränderungen zum Teil auch von genetischen Unterschieden zwischen den Personen mit Verhaltensproblemen und den normal entwickelten Jugendlichen verursacht werden könnten. Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Punch“ by Edgar Languren (CC0 Public Domain)


Weiterlesen »

Wie Afrika einen heimischen Technik-Sektor entwickeln kann

RHoK Nairobi, Kenya (adapted) (Image by Erik (HASH) Hersman [CC BY 2.0] via flickr)

Afrika geht rasant online. Das Internet verbreitet sich auf dem Kontinent schneller als in irgendeiner anderen Region der Welt und bietet Millionen von Menschen Zugang zu besserer Kommunikation, Information und Geschäftsgelegenheiten. Obwohl nur etwa 20 Prozent aller Menschen in Afrika Zugang zum Internet haben (im Vergleich zum weltweiten Durchschnitt von 40 Prozent), ist diese Anzahl von weniger als 5 Prozent vor zehn Jahren angestiegen. Was aber noch fehlt, ist eine bedeutsame Anzahl an Onlineservices, die vor Ort erstellt und gehostet wurden und sich auch in einheimischem Besitz befinden. So gibt es beispielsweise pro Million Einwohnern in Afrika nur 12 sichere Webserver, im Vergleich zu 1171 in Nordamerika. Statt einheimische Anbieter zu nutzen bevorzugen viele Länder populäre Marken, welche in anderen Teilen der Welt beheimatet sind, wie etwa Google und Facebook. Dieser Mangel an einheimischer afrikanischer Online-Präsenz setzt den Kontinent einem ernsten Nachteil aus, indem den Menschen nicht zugestanden wird, das volle Potenzial des Internets auszuschöpfen. Die schwierige Frage lautet, was man dagegen tun kann. Man könnte argumentieren, dass Afrikas Verlangen nach internationalen Onlinemarken eine gute Sache sei, zeigt er doch, wie das Internet aufstrebende Regionen nahtlos an den globalen Markt anschließt. Aber es gibt einen Preis dafür. Entwicklungsländer mit hochentwickeltem Wettbewerb zu überfluten, birgt das Risiko, dass die Entwicklung neuer, einheimischer Alternativen unterdrückt wird – ein Problem, das Ökonomen und Politikern seit hunderten von Jahren Kopfzerbrechen bereitet. Wie kann etwa ein einheimischer Online-Service, der noch in den Kinderschuhen steckt, gegen einen Konzern wie Google bestehen? Es ist möglich, dass dieses Hindernis die wirtschaftlichen Gewinne der Länder Afrikas beschränkt und sie daran hindert, das Web weiter zu bereichern und von wenigen großen Playern weg zu verändern. Bei meiner eigenen, kürzlich erfolgten Analyse habe ich herausgefunden, dass die Probleme Afrikas mit dem Internet nicht nur mit der Erschaffung und der Eigentümerschaft von Webseiten zu tun haben. Sogar Angebote, die vor Ort designt werden (wie etwa neue Webseiten) werden oft von außerhalb des Kontinents, etwa von den USA oder Europa aus, gehostet und betrieben. Der Hauptgrund hierfür liegt im günstigeren und verlässlicheren Hostingservice, der im Ausland angeboten wird. Ein neuer Bericht der Internet Society zeigt, dass ruandische Inhaltsanbieter im Jahr 111 US-Dollar sparen können, indem sie ihre Inhalte im Ausland hosten.

Langsamer und teurer

Aber das ist ein zweischneidiges Schwert. Für die Webseiten mag es billiger sein, aber es ist wesentlich teurer für die örtlichen Dienstleister (Internet Service Provider, also die Unternehmen, die die Nutzer mit dem Internet verbinden), welche die Daten von überall auf der Welt abrufen müssen. Beim Beispiel von Ruanda müssten die örtlichen Dienstanbieter, die den Inhalt für Internetnutzer verfügbar machen, 13.500 US-Dollar mehr zahlen als wenn sie sich mit Servern in Afrika verbinden würden, was die Kosten für alle in die Höhe treibt. Das Problem endet aber nicht an dieser Stelle. Die Notwendigkeit, sich mit Webseiten zu verbinden, die im Ausland gehostet sind, führt auch zu langsameren Download-Geschwindigkeiten. Das kann todlangweilig und frustrierend für die Nutzer sein, was sie davon abhält, Seiten mit schlechter Leistung aufzurufen. Andererseits zeigt das Beispiel von China, dass es nicht so sein muss. Die strenge Zensurpolitik des Landes beschränkt die Einfuhr ausländischer Webseiten. Das hat der Entstehung von alternativen Seiten geführt, welche vor Ort erstellt und gehostet werden. Im Gegenzug hat dies dem Land dabei geholfen, eine schnell wachsende Internettechnikindustrie zu entwickeln, mit Branchenriesen wie der Suchmaschine Baidu, dem Online-Shop Taobao und der Videoseite Youku, welche nicht nur ein gewaltiges Innovationspotenzial bergen, sondern auch entsprechende wirtschaftliche Vorteile. Vom moralischen Standpunkt her ist es schwierig, eine solche Zensur für Afrika zu rechtfertigen. Menschen den Zugriff auf Videos bei YouTube oder den globalen Einfluss von Facebook zu verweigern scheint fundamental falsch zu sein. Es würde zudem die Idee des Netzneutralität untergraben – die Vorgabe, dass Internetanbieter den Zugriff auf alle Inhalte des Internets gleichermaßen bieten sollen – was viele als Kernprinzip des Internets ansehen. Und während viele Länder im Lauf der Geschichte Schutzpolitik betrieben haben, um ihre so genannten jungen Wirtschaftszweige zu schützen, ist das Internet eine andere Sache. Seine globale Natur und die Art, wie es andere Wirtschaftszweige unterstützen kann, führen dazu, dass die Beschränkung ausländischer Webseiten, und sei es nur für wenige Jahre, zu viele negative Folgen haben kann. Man stelle sich nur einen Onlinehandel vor, der plötzlich den Zugriff auf Ebay verliert.

Positive Lösungen

Statt ausländische Webseiten zu sperren, sollten wir nach positiveren Lösungen suchen. Eine angemessene Regulierung, Investitionen in die Infrastruktur und vor allem in die Ausbildung sind der Schlüssel, um einheimische Innovationen zu fördern. Ein guter Ausgangspunkt wäre, Ausschau nach jenen Angeboten zu halten, die unbedingt einen lokalen Bezug brauchen. Viele Bedürfnisse der afrikanischen Nutzer spiegeln jene der anderen Nutzer weltweit. Daher ist es schwierig, ein einzigartiges Verkaufsargument festzulegen, das sich im Wettbewerb gegen die großen internationalen Konzerne durchsetzt. Mit lokalem Bezug vorzugehen und sich auf die Arten von Angeboten zu konzentrieren, die noch nicht von der globalen Elite abgedeckt werden, wäre eine Möglichkeit, dieses Problem zu umgehen. Glücklicherweise kommen immer mehr Beispiele auf, wie etwa Ushahidi, welches entwickelt wurde, um Berichte von Gewalt in Kenia nach den Wahlen 2008 aufzuzeichnen. Angebote in anderen aufstrebenden Wirtschaften können ebenfalls Pate stehen, wie etwa der indische Buchungsservice für Rikschas Autowale. Diese wunderbaren Beispiele zeigen Innovation in bester Form: die Lösung für echte Probleme vor der Haustür zu finden. Und vielleicht wird sich aus dem einheimischen Start-Up der nächste globale Tech-Gigant entwickeln. Indem man die einheimischen Kompetenzen und Kapazitäten ausbaut, wird der Grundstein für die Zukunft gelegt. Es ist nur eine Frage der Zeit, bis wir eine afrikanische Webseite zwischen den Lesezeichen von Internetnutzern auf der ganzen Welt sehen werden. Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „RHoK Nairobi, Kenya“ by Erik (HASH) Hersman (CC BY 2.0)


Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me

  • INTERNETANBIETER sueddeutsche: Der Routerzwang endet – was Internetnutzer jetzt wissen müssen: Ab dem 1.August kann man in Deutschland frei entscheiden, welchen Router man benutzen möchte. Verträge, die ab diesem Datum abgeschlossen werden, dürfen den Nutzer nicht mehr dazu zwingen, einen bestimmten Router verwenden zu müssen. Grund für diese Änderung soll die Unzufriedenheit vieler Kunden sein, da manche Router technisch schlecht seien und ein Sicherheitsrisiko darstellen. Ungeklärt ist jedoch, ob es Kunden möglich sei, die aktuell noch einen Vertrag laufen haben, einen eigenen Router zu wählen.

  • FACEBOOK usatoday: Facebook could get hit with $3B to $5B tax bill: Am Mittwoch sind im Facebook Hauptquartier höchstwahrscheinlich einigen die Kinnladen etwas abgesackt, als ein Brief des Internal Revenue Service beim Unternehmen landete. Das IRS teilte Facebook mit, dass es den Zeitraum 2008 bis 2013 untersuche, weil man Unregelmäßigkeiten entdeckt haben wolle, die sich auf einen Geldtransfer zu einer irischen Subsidiarität beziehe. Facebook wolle das nicht akzeptieren und gab bereits bekannt, rechtliche Schritte dagegen einzuleiten. Es geht um einen Betrag, der bis zu 5 Milliarden Dollar erreichen könnte. Das würde das Unternehmen hart treffen.

  • STARTUP gruenderszene: „Viele Patienten lesen sich gefährliches Halbwissen an“: Das Internet hat einige Menschen zu Hobbyärzten gemacht. Eine Stunde im Netz, um den Grund für bestimmte Symptome herauszufinden und schon hat man sich davon überzeugt an Krebs zu leiden. In Wirklichkeit ist es natürlich viel harmloser. Aber vielen Menschen ist es zu stressig, einen spontanen Termin bei Arzt zu machen. Deshalb haben drei Gründer nun ein Startup ins Leben gerufen, das seine Nutzer via Chat, Video oder Telefon mit einem Arzt verbindet. Das soll Menschen davon abhalten falsche Diagnosen zu stellen und Medikamente zu kaufen, die bei falscher Benutzung gefährlich sein können.

  • MICROSOFT reuters: Microsoft to cut 2,850 more jobs: Vor zwei Jahren kaufte Microsoft den finnischen Telekommunikationskonzern Nokia, um eine Konkurrenz zu Apple und Samsung aufbauen zu können. Im Mai hieß es dann, dass 1.850 Jobs in ihrer Smartphonesparte wegfallen werden – die meisten davon in Finnland. Nun gab der Konzern bekannt noch einmal rund 2.850 Jobs zu kürzen. Das würde seit Mai eine Kündigungsanzahl von 4.700 Angestellten bedeuten. Also rund 4% der Angestellten von Microsoft.

  • SOFTWARE macerkopf: Apple heuert QNX-Gründer Dan Dodge für Apple Car Team an: Höchste Priorität bei Apple soll nun die Entwicklung eines Systems für selbstfahrende Autos sein. Fraglich ist nur, ob Apple ein komplett eigenes Fahrzeug entwickelt, mit Partnern zusammenarbeitet oder einen Fahrzeughersteller übernimmt. Als Unterstützung hat sich Apple den ehemaligen CEO Dan Fodge von QNX ins Boot geholt. Dieser soll die Entwicklung schnell vorantreiben.

Weiterlesen »

Nanotechnologie könnte unser Essen leckerer und gesünder machen

Healthy Food flying (Image by spiltshire.com [CC0 Public Domain], via Pexels)__

In jedem Bissen der Nahrung, die wir zu uns nehmen, wimmelt es von chemischen Reaktionen. Das Hinzufügen von Zutaten und der Zubereitungsvorgang helfen uns, diese Reaktionen zu kontrollieren und das Essen leckerer und haltbarer zu machen. Wie wäre es, wenn man die Nahrung auf dem molekularen Level kontrollieren könnte, indem man beispielsweise speziell entwickelte Partikel hineinmischt, mit deren Hilfe die chemischen Reaktionen noch genauer gesteuert werden können?
Diese Idee verfolgen Lebensmitteltechniker bereits. Sie können bereits einige beeindruckende Ergebnisse vorweisen – beispielsweise von Nahrungsmitteln, die salzig schmecken, aber das Gesundheitsrisiko umgehen, das durch das Beimischen von Salz entstehen kann, bis hin zu Brot, das gesunde Fischöle enthält, aber keinen fischigen Nachgeschmack mit sich bringt.

Während die Nanotechnologie unser Essen deutlich aufwerten könnte, wirft sie aber auch einige sicherheitstechnische Fragen auf. Wir müssen nur die harschen Reaktionen auf genetisch veränderte Lebensmittel betrachten, um uns der Bedeutung des Themas bewusst zu werden. Wie können wir sicherstellen, dass es bei Nanotechnologie in Lebensmitteln anders sein wird? Ist unsere Nahrung sicher? Und werden die Menschen diese neue Form der Lebensmittel akzeptieren?

Nanotechnologie ist eine aufstrebende Technologie, die Materialien und Partikel in der Größe eines Nanometers – also ein Milliardstel eines Meters – kreiert und einsetzt. Um zu verstehen, wie klein das tatsächlich ist, stelle man sich vor, ein Nanopartikel hätte die Größe eines Fußballs – dann wäre beispielsweise ein Schaf im Vergleich so groß wie die Erde.

Mit solchen kleinen Partikeln zu arbeiten, ermöglicht es uns, Materialien und Produkte mit verbesserten Eigenschaften zu erschaffen, von leichteren Fahrrädern und robusteren Bierflaschen bis hin zu kosmetische Cremes mit besserer Absorption und Zahnpasta, die das Bakterienwachstum eindämmt. Wenn wir in der Lage sind, Materialeigenschaften zu verändern, können wir ebenso die Nanotechnologie dazu nutzen, viele innovative Lebensmittel und Anwendungen zu entwickeln, die die Art und Weise, wie wir Lebensmittel verarbeiten, haltbar machen und verpacken, verändern können.

Nanotechnologie kann beispielsweise für „intelligente“ Verpackungen eingesetzt werden, die den Zustand der Nahrung überwachen, während sie gelagert und transportiert wird. Wenn Lebensmittel verunreinigt oder schlecht geworden sind, nehmen die in die Verpackung integrierten Sensoren die Dämpfe auf, die von den Bakterien verursacht werden, und ändern ihre Farbe, so dass jeder, der dieses Nahrungsmittel verzehren möchte, vorgewarnt ist.

Zum Stand der Technik

Silber wird aufgrund seiner antibakteriellen Eigenschaften bereits in Gesundheitsprodukten wie Zahnpflegeutensilien verwendet. Silberpartikel in Nano-Größe verbessern die Fähigkeit, Bakterien abzutöten, denn es vergrößert die Oberfläche des Silbers, dem die Bakterien ausgesetzt sind. Israelische Wissenschaftler haben außerdem herausgefunden, dass das Beschichten von Verpackungen mit Silberpartikeln in Nano-Größe Bakterien wie E. coli bekämpft und die Haltbarkeit von Produkten verlängert.

Ein anderes Beispiel für den Einsatz von Nanotechnologie in der Lebensmittelverarbeitung ist die Nano-Verkapselung. Diese Technologie wurde eingesetzt, um den Geschmack und den Geruch von Thunfisch-Ölen zu überdecken, sodass diese eingesetzt werden können, um Brot mit Omega-3-Fettsäuren anzureichern, die förderlich für die Herzgesundheit sind. Fischöl-Partikel werden in eine Filmbeschichtung eingeschlossen, um zu verhindern, dass das Fischöl mit Sauerstoff reagiert und dann seinen Geruch freisetzt. Die Nanokapseln brechen erst dann auf, wenn sie im Magen angekommen sind, sodass man von den gesundheitlichen Vorteilen, die ein Verzehr mit sich bringt, profitieren kann ohne dabei den Fischgeruch zu erleben.

Zur gleichen Zeit untersuchen Wissenschaftler an der Universität von Nottingham, wie man mit Salzpartikeln in Nano-Größe den salzigen Geschmack von Lebensmitteln steigern kann, ohne dabei den tatsächlichen Salzgehalt zu steigern.

Genau wie bei Silber vergrößert das Aufbrechen von Salz in Nanopartikel die Oberfläche. Auf diese Weise kann der Geschmack effizienter verbreitet werden. Die Wissenschaftler berichten, dass so der Salzgehalt von gewöhnlichen Chips um 90 Prozent reduziert werden könne, während der Geschmack komplett erhalten bliebe.

Trotz all der Vorteile, die die Nanotechnologie der Lebensmittelindustrie bietet, verbleiben die meisten Fortschritte bislang im Forschungs- und Entwicklungsbereich. Diese schleppende Inanspruchnahme ist zurückzuführen auf einen Mangel an Informationen über die gesundheitlichen und ökologischen Auswirkungen dieser Technologie. Beispeilsweise gibt es Bedenken, ob aufgenommene Nanomaterialien in verschiedene Teile des Körpers, wie in der Leber oder die Nieren, wandern und sich dort ansammeln könnten. Dies könnte die Funktionalität dieser Organe langfristig beeinträchtigen.

Unbekannte Risiken

Unser Wissen um die Risiken, die mit dem Einsatz von Nanomaterialien verbunden sind, ist unvollständig. Diese Sachverhalte müssen besser erforscht und der Öffentlichkeit verständlich gemacht werden, damit Nanotechnologie in Lebensmitteln akzeptiert werden kann. Dies hängt von dem Verständnis der Öffentlichkeit von der Technologie und davon ab, wie sehr sie der Lebensmittelindustrie und den Kontrollmechanismen, die den Prozess überwachen, vertrauen.

Die Forschung hat zum Beispiel gezeigt, dass die Konsumenten den Einsatz von Nanotechnologie eher in Lebensmittelverpackungen als in der Lebensmittelverarbeitung akzeptieren. Nanotechnologie in der Lebensmittelverarbeitung wurde jedoch dann als akzeptabler bewertet, wenn sich diese auf die gesundheitlichen Vorteile der Nahrung positiv auswirke, wobei die Verbraucher jedoch nicht unbedingt gewillt wären, dafür mehr zu bezahlen.

Bei unseren aktuellen Umfragen haben wir bislang keine starke Haltung oder Ablehnung gegen Nanotechnologie in der Lebensmittelverpackung erlebt. Jedoch gab es immer noch eine kleine Gruppe Konsumenten, die Zweifel an der Sicherheit der Lebensmittel haben. Dies zeigt, wie wichtig es für Lebensmittelproduzenten und Kontrollinstanzen sein wird, die Konsumenten bestmöglich mit Informationen über Nanotechnologie zu versorgen – inklusive jeglicher Unsicherheiten, die gegenüber dieser Technologie bestehen.

Dieser Artikel erschien zuerst auf “Nieman Journalism Lab” unter CC BY-NC-SA 3.0 US. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image Healthy Food flying by splitshire.com (CC0 Public Domain)


Weiterlesen »

Smart Homes müssen ihre Bewohner besser behandeln

Time Switch (Image by KVDP [CC0 Public Domain], via Wikimedia Commons)

Vielleicht sind wir noch weit davon entfernt, dass wir nach Hause kommen und Roboter für uns kochen und saubermachen, trotzdem hat das Zeitalter der übergreifenden Automatisierung der Haushalte bereits begonnen. Immer mehr Menschen verfügen heutzutage über „intelligente“ Ausgaben von Thermostaten und Leuchtmitteln in ihren Häusern. Diese funktionieren automatisch oder werden über das Smartphone gesteuert.

Der Automatisierungsmarkt für Zuhause steckt jedoch noch weitestgehend in den Kinderschuhen. Es gibt zahlreiche neuentwickelte Produkte von verschiedenen Firmen und nur wenige von ihnen sind miteinander kompatibel. Dieser Mangel an Standardisierung weist auf eine schwierige Zeit für Hersteller und Konsumenten hin. Solange die Industrie sich nicht mit diesen Kernproblemen beschäftigt, wird es weiterhin Probleme geben.

Die neueste Entscheidung Googles, einige ihrer Automatisierungsprodukte für den Haushalt unbrauchbar zu machen, macht dabei nicht viel Hoffnung. Die Abteilung für Smart Homes, Nest, wurde dafür kritisiert, dass rivalisierende Unternehmen Revolv aufgekauft und anschließend geschlossen zu haben.

Revolv stellte eine Schnittstellentechnologie her, die es ermöglichte, mehrere intelligente Geräte unterschiedlicher Hersteller über eine einzelne Smartphone-App zu bedienen. Nest übernahm die Firma einschließlich ihrer Expertise und der Angestellten mit dem Ziel, ihre eigene übergreifende Plattform namens „Works with Nest“ zu entwickeln. Theoretisch sollte dieser Schritt zu einer höheren Kompatibilität zwischen den verschiedenen intelligenten Geräten in einem weniger überlaufenen Markt positive Auswirkungen auf den Sektor haben. Nest entschloss sich jedoch dazu, die Server, die die Schnittstellentechnologie von Revolv versorgten, abzuschalten. Dies war ein Schritt, der dazu führte, dass Kunden nun nutzlose Boxen besaßen, die sie 300 US-Dollar gekostet hatten. Dieser Schritt wurde entgegen ursprünglicherer Versicherungen und dem Versprechen von Nest an die Kunden, dass Produkte von Revolv „lebenslang“ nutzbar sein würden, unternommen.

Nicht zu viel versprechen

Was wir aus diesem Vorfall lernen sollten, ist, dass wachsende Anbieter (wie Revolv) niemals “lebenslange” Laufzeiten anbieten sollten und dass potenzielle Kunden bei solchen Versprechungen aufhorchen sollten – möglicherweise sollten sie dies sogar als Zeichen dafür sehen, das Produkt nicht zu kaufen. Nest wird sicherlich versuchen müssen, seine Glaubwürdigkeit durch Entschädigungen mit Revolv-Geräten zurückzugewinnen. Diese Praxis haben sie auch bereits auf einer Einzelfall-Basis zugesichert. Natürlich müssen hier verschiedene Faktoren behandelt werden, auch wenn dies möglicherweise in unterschiedlichem Tempo geschehen muss. Dies schließt die Einführung angemessener Regularien zum Schutz von Kunden vor zukünftigen Problemprodukten wie die bald schon unbenutzbaren Schnittstellenverbindungen von Revolv mit ein.

Wir brauchen zudem offenere Produktpaletten und Services, die auf einer standarisierten Plattform basieren und die nicht auf bestimmte Hersteller angewiesen sind. Ein gutes Beispiel dafür findet sich im Bereich des Home Entertainment, wo Radio, Fernsehen und jetzt auch Streamingdienste weitestgehend vereinheitlicht wurden.

Die Vereinheitlichung der Automatisierung im Haushalt hat bei vielen großen Herstellern bereits mit der Konzeption des drahtlosen Kommunikationsprotokolls „Zigbee“ stattgefunden. Es gibt jedoch auch andere drahtlose Kontrollplattformen wie beispielsweise „Z-Wave“, die weiterhin beliebt sind.

Sicherheit und Belastbarkeit

Ein weiterer Bereich, der berücksichtigt werden muss, ist die Sicherheit und im Besonderen, wie Geräte und die von ihnen produzierten Daten vor Hackerangriffen geschützt werden können. Firmen machen an dieser Stelle oft nur Lippenbekenntnisse, behandeln das Problem jedoch nur zweitrangig, solange bis schließlich Hacker eindringen und Daten stehlen oder Systeme und Services stören – dann erst werden die Plattformbetreiber hellhörig.

Jetzt, da IT und Kommunikation das Herzstück vieler täglich genutzter Systeme darstellen, werden sie zunehmend  kritischer betrachtet. Sie werden immer häufiger zu Zielen von Cyberattacken. Zukünftig könnte dies auch die Automatisierung im Haushalt, wo sich Schnittstellen, intelligente Stromzähler und Sicherheitskameras befinden, betreffen – auf diese könnte dann aus der Ferne von Hackern zugegriffen werden. Diese könnten dann private Daten einsehen oder die Geräte im Haus steuern.

Die dauerhafte Belastbarkeit sowie die Fähigkeit von Systemen, sich zu erholen und weiterhin Dienstleistungen bereitzustellen, ist möglicherweise noch wichtiger und damit ein wichtiger Punkt in der Forschung von IT-Wissenschaftlern. Belastbarkeit bedeutet, zu erkennen, dass Systeme, selbst solche, die durch Schutzprogramme geschützt werden, Schwachstellen besitzen und diese auch zu Tage kommen werden. Damit sind nicht nur Cyberattacken gemeint, sondern alle Arten von Herausforderungen, wie Hard- und Softwareprobleme, Probleme aufgrund von Systemfehlern und auch menschliches Versagen. Die Forschung im Bereich der Belastbarkeit beschäftigt sich mit der Identifizierung von Problemen und der Konzeption von Mechanismen, um jederzeit zu einem normalen Betrieb zurückkehren zu können.

Wir benötigen möglicherweise auch erneuerte und grundlegendere Anwendungen, bevor die Automatisierung letztendlich in die Haushalte Einzug halten kann. Intelligente Kühlschränke, die Ihnen eine Kurznachricht zusenden, wenn keine Milch mehr da ist, reichen dann wahrscheinlich nicht aus.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Time Switch“ by KVDP (CC0 Public Domain)


Weiterlesen »

Cybathlon: Was Bionik für Millionen von Menschen bedeuten könnte

Cybathlon 2016 (Screenshot by Cybathlon)

Nach den Olympischen Spielen und den Paralympics erleben wir dieses Jahr die Weltpremiere des Cybathlon, des weltweit ersten Wettkampfes für Parathleten und Personen mit schweren Behinderungen, die mit Hilfe von bionischen Implantaten, Prothesen und anderen unterstützenden Technologien antreten.

Der Cybathlon beinhaltet sechs Disziplinen, jede auf die speziellen körperlichen Bedürfnisse der Wettkämpfer zugeschnitten. Beweglichkeitsläufe testen Menschen mit bionischen Armen und Beinen, während bei Rennen mit elektrisch angetriebenen Rollstühlen und Exoskeletten Hindernisse wie Treppen überwunden werden müssen. Es gibt auch ein Fahrradrennen für Wettkämpfer, die ihre Beine mithilfe von elektronischer Muskelstimulation bewegen. Für die, die ihren Körper nicht mehr eigenständig steuern können und ihn mit einer Schnittstelle zwischen Hirn und Computer kontrollieren, gibt es ebenfalls Wettkämpfe.

Es stimmt, dass der Cybathlon nicht das gleiche athletische Können wie die Olympischen oder Paralympischen Spiele bieten kann. Aber er wird aufzeigen, wozu Technologie fähig ist, anstatt dass sie in Forschungslaboren versteckt bleibt. Alle Anstrengung und jeglicher Enthusiasmus werden darauf ausgerichtet, das Leben von Menschen mit schwerwiegenden Behinderungen und lebensverändernden Verletzungen zu revolutionieren. Der Organisator ETH Zürich, die Eidgenössische Technische Hochschule, wird 80 Teams von Anwendern, Wissenschaftlern und der Technikindustrie zum nachdenken anregen, was benötigt wird, um Technologien zu schaffen, die die alltäglichen Probleme, denen Menschen mit Behinderungen tagtäglich ausgesetzt sind, lösen zu können.

Der Schwerpunkt liegt auf den praktischen Problemen, die das Design der Wettbewerbe bestimmen. Zum Beispiel beinhaltet das Rennen für Teilnehmer mit Armprothesen eine Station, bei der eine Scheibe Brot geschnitten und eine Tasse Kaffee eingegossen werden muss. Bei einer weiteren Station müssen die Parathleten durch eine Tür gehen, während sie ein Tablett mit Gegenständen tragen. Dies sind alltägliche Aktivitäten, die die meisten von uns für selbstverständlich halten, aber die für die von der WHO auf 15 Millionen geschätzten Menschen mit Behinderungen schwer oder sogar unmöglich sind.

Während viele mit Technologien wie bionischen Armen vertraut sind, wird der Hirn-Computer-Schnittstelle-Wettkampf für die Meisten wohl etwas Neues sein. Eine Hirn-Computer-Schnittstelle ist ein System, das die Gehirnaktivität eines Menschen verschieden interpretiert und in mögliche Befehle für die Ausrüstung des Anwenders umformt. Dies gibt schwer behinderten Menschen, deren kognitive und sensitive Fähigkeiten dennoch funktional sind, die Kontrolle über ihre Ausrüstung zu behalten und sich mit ihrer Hilfe zu bewegen oder zu kommunizieren.

Es kommt selten vor, dass solche Interface-Systeme außerhalb des Forschungslabors Anwendung finden. Viele existieren nur in der Theorie oder auf den Seiten von Wissenschaftsjournalen. Sie erscheinen wie Requisiten aus Science-Fiction-Filmen und dennoch existieren sie in verschiedenen Formen bereits seit Jahrzehnten.

Das Gehirn als Steuergerät

Eine Hirn-Computer-Schnittstelle beinhaltet verschiedene Komponenten. Die Erste ist natürlich das Gehirn der Person. Dort entstehende elektrische Impulse werden durch EEG-Sensoren (Elektroenzephalogramm) registriert. Diese Sensoren werden non-invasiv auf der Kopfhaut befestigt, ähnlich wie in Krankenhäusern üblich. Die Signale beinhalten oft Interferenzen von muskulären Bewegungen, wie zum Beispiel der Augen. Deshalb ist der erste Schritt, das brauchbare Signal von Störsignalen zu isolieren.

Die Signale werden anschließend mit Hilfe der Merkmalsextraktion verarbeitet. Es gibt hier verschiedene Ansätze, aber eine verbreitete Technik ist die, dass sich der Anwender eine bestimmte Bewegung vorstellt, beispielsweise das Öffnen und Schließen der Hand. Dieses geistige Bild erschafft ein bestimmtes Muster im Motorcortex des Gehirns, welches wiederum als ein EEG-Signal erkannt und von der Hintergrund-EEG-Aktivität abgegrenzt werden kann.

Die EEG-Signale werden während der Merkmalsextraktion verarbeitet, um sie für die nächste Komponente, den Klassifikator, leichter verständlich zu machen. Ein Klassifikator identifiziert, wie sich Signalmuster unterscheiden, abhängig davon, ob der Anwender beispielsweise an eine Bewegung seiner linken oder rechten Hand denkt oder wie diese Signale sich verändern, wenn der Anwender Berechnungen im Kopf durchführt. Ein guter Klassifikator erlernt diese Unterschiede und identifiziert die wahrscheinlichste Intention, die der Anwender hatte. Dies wird durch Muster-Erkennung und maschinelle Lernalgorithmen erreicht.

Der Cybathlon wird die Wettkämpfer des Hirn-Compter-Schnittstelle-Rennens mit Hilfe eines Videospiels testen. In diesem zeichnen die Teilnehmer bis zu vier verschiedene Aktionen des Gehirns, welche von dem Klassifikator des Systems verstanden werden müssen. Sie müssen die richtigen Entscheidungen zum richtigen Zeitpunkt senden, um mit ihren Avataren, die sie im Spiel repräsentieren, vorwärts zu kommen. Das beste System ist das, welches am schnellsten und genauesten auf die Gehirnaktivität des Nutzers reagieren und gleichzeitig die richtigen Kommandos auswählen kann.

Der Auftritt des Gehirn-Computer-Schnittstelle im Rahmen des Cybathlon ist ein seltenes Ereignis außerhalb des Labors. Es fordert von ihren Entwicklern eine beträchtliche Verbesserung ihrer Systeme. Im Vergleich zu denen, die nur in einem Labor funktionieren müssen, werden sie zum Beispiel verlässlicher und können besser auf eine eventuelle Ablenkung des Anwenders reagieren.

Die momentanen Systeme sind noch nicht ausgereift genug für die Menschen, deren Leben sie so entscheidend verändern könnten. Dennoch werden die neuen Entwicklungen der letzten Jahre, welche der Cybathlon unterstützt, Technologien nicht nur verbessern, sondern diese auch dem Gebrauch außerhalb des Labors besser anpassen – um endlich eine Technologie zu vollenden, deren Entwicklung schon über 20 Jahre andauert.

Dieser Artikel erschien zuerst auf “The Conversation”unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image Screenshot (adapted) by Cybathlon


The Conversation

Weiterlesen »

Warum die Evolution klüger ist als wir dachten

IMG_0157.JPG (adapted) (Image by Darrell Rudmann [CC BY 2.0] via flickr)

Die Evolutionstheorie nach Charles Darwin bietet eine Erklärung dafür, warum biologische Organismen scheinbar so gut konzipiert sind, um auf unserem Planeten leben zu können. Dieser Prozess wird typischerweise als  “unintelligent” beschrieben – also basierend auf zufälligen Variationen ohne Ausrichtung. Doch trotz ihres Erfolges stellen sich einige dieser Theorie entgegen, da sie nicht glauben, dass lebendige Dinge sich Schritt für Schritt entwickeln können. Sie behaupten, dass etwas so komplexes wie das Auge eines Tieres schlichtweg das Produkt eines intelligenten Schöpfers sein muss.

Ich denke nicht, dass das Berufen auf eine übersinnliche Schöpfergestalt eine wissenschaftlich brauchbare Erklärung darstellen kann. Aber was ist mit einer Intelligenz, die nicht übersinnlich ist? Neueste Ergebnisse, die auf Computer-Modellen basieren, verbinden den Evolutionsprozess mit den Prinzipien des Lernens und intelligenter Problemlösung – ohne ein Mitwirken jeglicher höherer Kräfte. Dieser Umstand deutet an, dass, obwohl die Evolution zunächst “blind” mit ihrem Werk begonnen hatte, nach ein paar Milliarden Jahren um einige Erfahrung reicher geworden ist.

Was ist Intelligenz?

Intelligenz kann Einiges sein, aber manchmal ist es nicht viel mehr, als ein Problem von dem richtigen Standpunkt aus zu betrachten. Eine intelligente Lösung zu finden, kann einfach nur bedeuten, wahrzunehmen, dass etwas, was als gleichbleibend vermutet wurde, durchaus variierbar ist – so wie die Ausrichtung des Blattes im unteren Bild. Es kann genauso darum gehen, ein Problem mit den richtigen Bausteinen anzugehen.

Mit entsprechend guten Bausteinen (hier beispielsweise mit ein paar Dreiecken) ist es leicht, eine Kombination von Schritten (hier visualisiert durch Knicke) zu finden, die in der Lage ist, das Problem durch eine schrittweise Verbesserung (hier: jeder Knick deckt etwas mehr vom Bild ab) zu lösen. Aber mit schlechten Bausteinen (hier demnach: Knicke, die zu langen, dünnen Rechtecken werden) ist eine vollständige Lösung unmöglich.

Beim Menschen entsteht die Fähigkeit, ein Problem mit den entsprechend passenden Bausteinen anzugehen, durch die Erfahrung – weil wir lernen. Bisher haben wir geglaubt, dass Evolution, die auf natürlicher Selektion basiert, nicht lernen kann – sie kommt unerwartet und hämmert, ohne Rücksicht auf Verluste, mit einer Art “Hammer” auf alles drauf. Dabei können minimale Veränderungen entstehen, wenn sie sich als Vorteil herausstellen.

Die Evolution der Evolvierbarkeit

In der Computerwissenschaft benutzen wir Algorithmen, etwa wie solche, die die neuronalen Netze im Gehirn formen, um zu verstehen, wie Lernen funktioniert. Lernen ist an sich kein Hexenwerk: Maschinen können mit schrittweisen Algorithmen dazu gesteuert werden zu lernen. Solche erlernten Algorithmen sind ein nachvollziehbarer Part innerhalb der künstlichen Intelligenz. Zum Lernen in einem neuronalen Netz gehört das Anpassen der Verbindungen zwischen den Neuronen (diese können stärker oder schwächer sein) in die Richtung, die die Belohnungen möglichst groß ausfallen lässt. Mit den einfachen Methoden wie dieser ist es möglich, neuronale Netzwerke dazu zu programmieren, Probleme nicht nur zu lösen, sondern Lösungen in Laufe der Zeit zu verbessern

Aber was ist mit der Evolution – kann sie sich auch im Laufe der Zeit weiterentwickeln? Diese Idee ist bekannt als die Evolution der Evolvierbarkeit . Die Evolvierbarkeit, hier beschrieben als die Fähigkeit, sich zu entwickeln, hängt von der passenden Variation ab, Selektion und Vererbung. Dies sind die Eckpfeiler, mit Hilfe derer auch Darwin seine Theorie aufbaute. Interessanterweise können all diese Komponenten, durch eine bereits geschehene Entwicklung, verändert werden. Das bedeutet, dass vergangene Evolutionsstufen die Handlungsweise der zukünftigen Evolution beeinflussen kann.

Zum Beispiel kann die zufällige genetische Variation die Länge der Gliedmaßen eines Tieres verändern. Aber sie kann genauso Einfluss auf die vorderen und die hinteren Gliedmaßen haben, ob sie sich unabhängig oder in Korrelation miteinander verändern. Eben diese Veränderungen können die zukünftigen Bausteine der Evolution umwandeln. Wenn frühere Evolutionsstufen die Bausteine gut geformt haben, kann die Lösung neuer Probleme leichter erscheinen – zumindest leicht genug, um mit schrittweiser Verbesserung gelöst zu werden. Wenn sich beispielsweise Gliedmaßen so entwickelt haben, dass sie sich unabhängig voneinander verändert haben, erfordert die Entwicklung, einer veränderten Körpergröße, eine vielfache Veränderungen (auf jede Gliedmaße betreffend). Zwischenstadien kann es sogar noch schlechter treffen. Aber wenn Veränderungen miteinander korrelieren, dann könnten individuelle Veränderungen von Vorteil sein.

Die Idee der Evolution der Evolvierbarkeit ist schon seit einiger Zeit im Umlauf, aber die detaillierte Anwendung der Lerntheorie stellt erst den Anfang dar, um diesem Bereich die notwendige theoretische Grundlage zu geben.

Unsere Arbeit zeigt, dass die Evolution der regulierenden Verbindungen zwischen Genen, die bestimmt, wie Gene sich auf unsere Zellen auswirken , die gleichen Lernfähigkeiten besitzen wie die neuronalen Netze. Anders ausgedrückt, die genetischen Netze entwickeln sich so, wie die neuronalen Netze lernen. Während Verbindungen sich in den neuronale Netzen insoweit verändern, dass sich die Belohnung maximiert, wird durch die natürliche Selektion in der genetischen Verbindung die Kondition verstärkt. Die Fähigkeit zu lernen ist an sich nicht etwas, das entwickelt werden muss – es ist ein unweigerliches Produkt einer zufälligen Variation und Selektion, wenn an den entsprechenden Verbindungen gearbeitet wird.

Das spannende an dieser Schlussfolgerung ist hierbei, dass Evolution sich ebenfalls zum besseren entwickeln kann , und zwar in der exakt gleichen Weise, wie das neuronale Netzwerk lernt, die Probleme besser zu lösen: durch die Erfahrung. Der intelligente Teil ist nicht explizit das “Denken im Voraus” (oder irgendetwas anderes Undarwinistisches) – es ist die Evolution der Verbindungen, die es erlaubt, neue Probleme zu lösen, ohne vorauszuschauen.

Wenn sich ein evolutionärer Prozess, der als besonders schwierig empfunden wurde (wie etwa das Design und die Herstellung eines Auges), doch durch eine zunehmende Verbesserung möglich wird, kann nicht angenommen werden, dass eine “stumpfe” Evolution hierfür ausreicht. Im Gegenteil, es sollte erkannt werden, dass die Evolution durch das Finden von Bausteinen, die das Problem einfacher aussehen lassen, einen intelligenten Schritt gemacht hat.

Interessanterweise hat Alfred Russel Wallace (er schlug eine Theorie natürlicher Selektion, beinahe zeitgleich zu Darwins Theorie, vor) später den Fachbegriff “intelligente Evolution” dazu genutzt, um für die göttliche Intervention in der Zeitschiene des Evolutionsprozesses zu argumentieren. Wenn die formelle Verbindung zwischen Lernen und Evolution weiter ausgebaut wird, könnte der gleiche Begriff demnächst vielleicht dafür genutzt werden, das genaue Gegenteil zu implizieren.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.

The Conversation


Image (adapted) „IMG_0157.JPG“ by Darrell Rudmann (CC BY 2.0)


Weiterlesen »

Wie Roboter die Evolution lernten – und was wir davon haben

Hölzener Roboter (Image by kaboompics (CC0 Public Domain) via Pixabay)

Die Roboter kommen, um uns zu vernichten, heisst es oft in dystopischen Filmen. Jetzt können sie auch noch eigene Nachkommen bauen – doch daran ist nicht Schlechtes. Im Gegenteil! Oft wird die moderne Forschung dargestellt, als sei sie nur einen Schritt von der unaufhaltsamen Roboterapokalypse entfernt, wie man sie aus den Terminator-Filmen kennt. Obgleich bei der Entwicklung von Künstlicher Intelligenz Risiken bestehen, die ernst genommen werden müssen, könnte eine übermäßig ängstliche Reaktion auf jede Neuerung im Bereich der Robotikforschung und Kreativität behindern.

Zum Beispiel könnte eine Künstliche Intelligenz, die in der Lage ist, zukünftige Versionen von sich zu entwerfen – also ein Roboter, der sich selbst reproduzieren und weiterentwickeln kann – uns unter Umständen dabei hilft, Innovationen zu entwickeln, auf die wir alleine nie gestoßen wären. Eine solche Künstliche Intelligenz würde sorgfältiger Beobachtung und Kontrolle bedürfen, und doch hätten wir keinen Anlass zur Sorge. Vielmehr könnte sie uns zu einem tieferen Verständnis der physischen Welt und unserer eigenen Entwicklung verhelfen.

Unnatürliche Auslese

Der Einsatz Künstlicher Intelligenz zur Verbesserung eines Designs, indem man es wiederholt, vervielfältigt und jedes Mal ein klein wenig abwandelt (iteratives Design), ist keine neue Herangehensweise, fand bisher aber nur bei Computersimulationen Anwendung.

Indem man eine Gruppe von Lebensformen entwirft, die zur Reproduktion fähig sind, kann man einen Prozess simulieren, der der natürlichen Auslese der echten biologischen Evolution ähnelt. Die erfolgreichsten Individuen pflanzen sich mit größerer Wahrscheinlichkeit fort und verbreiten so ihr ganz eigenes Design. Auf diese Weise wird man nach ein paar Generationen zu einer optimierten Version der Lebensform gelangt sein, die ein menschlicher Entwickler vielleicht so nicht hätte konstruieren können.

Computersimulationen der natürlichen Auslese und Evolution bringen eine Reihe von Vorteilen mit sich. Wie viele Generationen produziert werden und wie schnell das vonstatten geht, hängt theoretisch nur von der Geschwindigkeit des Computers ab. Wenig versprechende Modelle können einfach verworfen, Modelle mit großem Potenzial schnell ausgetestet werden. Zudem besteht kein großer Bedarf an Rohstoffen, denn Computerspeicher ist im Überfluss vorhanden, kostengünstig und platzsparend.

Das Problem dabei ist, dass die simulierten Lebensformen eventuell nur beschränkt dem ähneln, was in der echten Welt existieren kann. Andererseits sind Roboter, die tatsächlich gebaut werden können, für gewöhnlich ihre gesamte Existenz über an eine physische Form gebunden.

Robo-Babies-Image-by-Fumiya-Iida
So sehen die ersten Robo-Babies aus (Image by Fumiya Iida)

Um diese Probleme zu überwinden, haben meine Kollegen und ich einen „Mutter“-Roboter gebaut, der seine eigenen „Kinder“ auch ohne menschlichen Eingriff herstellen kann, wie vor Kurzem in der Fachzeitschrift PLOS One (Public Library of Science) berichtet wurde. Wir haben ihn so programmiert, dass er einfache Roboter produzieren kann, die aus einem bis fünf kriechfähigen Plastikwürfeln mit eingebautem kleinem Motor bestehen. Die Kinderroboter werden im weiteren Verlauf automatisch getestet, um herauszufinden, welches Modell die beste Leistung erbringt.

Auf Grundlage dieser Ergebnisse produzierte der Mutterroboter dann nach dem Prinzip der natürlichen Auslese eine zweite Generation. Er benutzte die „virtuelle DNS“ der besten Kinder der ersten Generation als Ausgangspunkt für seine Entwürfe, um die bevorzugten Eigenschaften weiterzugeben. Dieser Prozess wurde hunderte Male wiederholt, bis schließlich die stärksten Individuen aus der letzten Generation eine bestimmte Bewegungsabfolge doppelt so schnell absolvieren konnten wie die stärksten Individuen aus der ersten Generation.

Die Mutter der Erfindung

Indem man dem Mutterroboter die Möglichkeit gab, unentwegt Hunderte neuer Formen und Gangarten für seine Kinder zu entwickeln, erschuf er Modelle, zu deren Konstruktion ein menschlicher Entwickler wohl nie in der Lage gewesen wäre. Die interessanteste und wichtigste Erkenntnis ist, dass der Roboter dabei echte Kreativität unter Beweis stellte.

Anders als herkömmliche mechanische Systeme wie Verpackungsroboter in Fabriken, die von Menschen programmierte Bewegungen wiederholen, war unser Mutterroboter in der Lage, eigenständig, ohne Einflussnahme menschlicher Entwickler, Kinderroboter herzustellen. Er kann folglich neue Modelle „erfinden“.

Momentan sind die Kinderroboter noch zu simpel und ihre Fähigkeiten zu eingeschränkt, daher handelt es sich nicht um eine vollständige Entsprechung der natürlichen Evolution. Nichtsdestotrotz gibt es angesichts der fortschreitenden Technologie keinen Grund anzunehmen, dass dies nicht in Zukunft möglich sein wird.

Blocks-Image-by-Funiya-Iida
Wenn er groß ist, will er mal ein Roboter werden: Klötze, die kriechen können. (Image by Fumiya Iida)

Aber stellen Roboter, die sich eigenständig weiterentwickeln, nicht eine zu große Gefahr dar? Wir glauben nicht. Das Ziel unserer Forschung ist es, grundlegende Funktionsweisen der Kreativität auf Maschinen anzuwenden. Wir wollten herausfinden, wie Maschinen mit unbekannten Objekten umgehen, wie neue Ideen und Entwürfe aus einem statistischen Prozess heraus entstehen können, und wie viel Energie, Rohstoffe und andere Ressourcen benötigt werden, um etwas wirklich Innovatives zu erschaffen.

Die bisher erstellten Roboterkinder haben uns mit ihren einzigartigen Designs und ihrer Beweglichkeit einige Überraschungen beschert, da menschliche Ingenieure kaum je auf solche Ideen gekommen wären. Entwicklung ist ja immer ein fortschreitender Prozess, bei dem Technologie Stück für Stück aufgebaut wird und man hinterfragt, warum und wie Dinge funktionieren. Darum befinden sich unsere intelligenten Roboter, anders als biologische Lebewesen, noch immer innerhalb der von uns gesetzten Grenzen und unter unserer Kontrolle. Und dort werden sie auch immer bleiben.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Teaser & Image “Robot Wood” (adapted) by kaboompics (CC0 Public Domain)


Weiterlesen »

Zurückgeblättert: Abenteuer Computer im Jahr 1995

19941995 Flatland BBS Menu Screen (adapted) (Image by Tim Patterson Folgen [CC BY-SA 2.0] via flickr)

Abenteuer Computer: Elektronik verändert das Leben” hieß das Spiegel Special Heft 3/1995, in dem es um die weltbewegende Gestaltungskraft des Internets ging. In der amüsanten und lehrreichen Lektüre ging es neben technischen Aspekten, dem Kampf der Chip-Hersteller und der Sprache im Netz unter anderem auch um zukünftige digitale Entwicklungen. Dabei gelangen einigen Vordenkern mitunter erstaunlich präzise Vorhersagen.

Mega Super Information Highways und Netzwelsch

Man mag es Arroganz der Gegenwart nennen, aber wie vor zwei Jahrzehnten über das Internet gesprochen wurde, ist mitunter sehr amüsant. Was damals eine Revolution der Kommunikation war, ist 2015 Teil der digitalen Realität, das Internet nichts neu zu Entdeckendes mehr, die Geschwindigkeit der Datenübertragung eine Selbstverständlichkeit. Schon im Editorial von “Abenteuer Computer” schreibt Uly Foerster, der ein Jahr zuvor den Grundstein für Spiegel Online gelegt hatte, von “Mega Super Information Highways”. Überhaupt war Mitte der 1990er Jahre der Begriff “Datenautobahn”, so oder in abgewandelter Form, quasi ein Muss im Digitalsprech, wie zahlreiche Artikel des Heftes beweisen. Auch heute wird er noch angewandt, meist jedoch nur, wenn es um Breitbandanschlüsse in ländlichen Regionen geht, die bislang von den Mega Super Information Highways ausgeschlossen waren.

Begriffe, die heutzutage tagaus, tagein völlig selbstverständlich verwendet werden, mussten vor zwei Dekaden noch erklärt werden. So heißt es an einer Stelle, dass Verknüpfungspunkte “fachsprachlich” Links heißen, “spezielle Suchhilfen” war der üblichere Begriff für Browser, Netscape war damals der “coolste” unter ihnen. Beim “Netzwelsch mit Smileys” befasste sich Uly Foerster außerdem mit der Sprache, die “sich nur schreiben, nicht sprechen” lässt. Dort konnte man lernen, dass RTFM “Read the fucking manual” und <g,d&r> “grin, duck and run” bedeutet. Zudem stellte er eine Reihe Smileys aus einem darüber verfassten Buch vor. Die Anleitung lehrte, dass ;-) eine “Bemerkung mit Augenzwinkern, nicht ganz ernst gemeint” ausdrückt und dass der Absender von :-{} Lippenstift trägt. Auch erfuhr der geneigte Leser, dass sich “die Witzbolde der Szene” immer wieder neue Symbole für Tiere, Schauspieler, Sänger oder Politiker ausdenken. =:0] heißt? Richtig. Bill Clinton. Man kann natürlich darüber lachen, mit welch banalen Dingen sich damals beschäftigt wurde. Wenn man aber sieht, dass das Wort des Jahres 2015 der renommierten Oxford Dictionaries ein tränenlachendes Emoji ist, versteht man den kulturellen Einfluss der Smileys von damals.

“Unsere Technik befreit den Zuschauer”

Bei der Lektüre der Artikel, die sich im März 1995 mit der Entwicklung der Medien befassten, ist es erstaunlich, dass schon damals bemerkenswerte korrekte Aussagen getätigt wurden. Wer hat Video-On-Demand-Streaming erfunden? Netflix? Falsch. Sie haben es nur markttauglich gemacht. Die Idee wurde schon Jahrzehnte früher artikuliert, zum Beispiel im Interview mit dem damaligen Time-Warner-Chef Gerald Levin. Auch wenn er später vom US-Sender CNBC für die Fusion von Time Warner mit AOL zu einem der schlechtesten CEOs aller Zeiten gekürt wurde, war seine Vision der medialen Zukunft nah an der heutigen Realität. Im Interview erzählt er, dass sich bei Time Warners – später gescheitertem – Full Service Network, “unser digitales interaktives Fernsehen”, theoretisch unbegrenzt viele Filme ordern lassen. Auch das Spielen von Videogames, “gegen andere Zuschauer im Netz oder allein”, sollte schon möglich sein. Was Netflix, Amazon Prime, Maxdome & Co ausmacht, beschreibt Levin dann auch genau: “Unsere Technik befreit den Zuschauer: Er kontrolliert, was im Fernsehen läuft – und nicht mehr die TV-Sender.

Nicht nur die Information, dass PDFs “übertragbare Dokument-Dateien” sind, bekam man bei der Lektüre von “Alice im Datenland” von Gerd Meißner und Jörg Schieb, die sich mit Online Publishing befassten, zu lesen. Ihre Ausgangsfrage, ob “digitale Netze eine Gefahr für das gedruckte Wort” sind, kann man heute klar bejahen. Zum Stand des Online Publishings hieß es im Artikel: “Digitalversionen des Koran lassen sich ebenso auf die Festplatte des PC holen wie holländische Pornofotos, faksimilierte Handschriften der Vatikan-Bibliothek, die Washington Post, Tageszeitung, Frankfurter Allgemeine und der SPIEGEL.” Es muss festgehalten werden, dass man neben holländischen Pornofotos im Jahr 2015 erotische Inhalte mitunter auch aus anderen Ländern auf der Festplatte speichern kann. Wie weitreichend die Umwälzungen in der Medienbranche darüber hinaus sein würden, wurde hingegen nicht vorhergesehen. Immerhin: Aus “über zwei Dutzend deutschsprachigen Tageszeitungen und Magazinen”, die sich damals online abrufen ließen, sind viele Hunderte geworden.

Noch immer nicht genug Gehirnschmalz

Schon damals meldete sich allerdings Rainer Klute vom Dortmunder Werbestudio Nads zu Wort und gab zu bedenken: “Auf die Reklame im Netz wird noch eine Menge Gehirnschmalz verwendet werden müssen.” Dass 20 Jahre später noch nicht genug Gehirnschmalz auf die Lösung dieses Problems verwendet wurde, zeigt sich tagtäglich. Noch immer schwirren schrecklich nervige Werbebanner über das Display, AdBlocker können – solange das Geld nicht einfach vom Himmel fällt – auch nicht die Lösung sein, Sponsored Posts sind ebenfalls nicht jedermanns Sache. Was also tun? Noch mehr Gehirnschmalz einsetzen und vielleicht lässt sich dann in weiteren 20 Jahren sagen, dass es endlich gereicht hat.

Als präziseste Aussage im Heft hat sich wohl die von Newt Gingrich herausgestellt, von der im Artikel “Eine Revolution mit ungewissem Ausgang” die Rede ist. Meißner schrieb:

Gingrich selbst, der sich gern als Cyber-Konservativer geriert, kündigte an, im 21. Jahrhundert werde ‚jeder Amerikaner ein Funktelefon mit sich herumtragen, das dann vermutlich auch als Fax und Modem dient und ihn mit dem Rest der Welt verbindet – auf diese Weise muß jeder Amerikaner, ob er will oder nicht, auf dem Weltmarkt mit Deutschland, China und Japan konkurrieren.

Wir haben weder Fax noch Modem in unseren Smartphones, doch deren Funktionen werden erfüllt. Das damalige Einwählen ins Internet verstehen nur noch diejenigen, die das Fiepen und Kratzen eines analogen Modems live miterlebt haben, Nachrichten sind schon seit Jahren ohne Umwege in Sekundenbruchteilen beim Empfänger und von wo aus gearbeitet wird, spielt in vielen Berufen eine immer geringere Rolle. Konkurrenz wird im Digitalen schon lange nicht mehr nach Nationalitäten getrennt.

Das Spiegel Special Heft 3/1995 ist eine hochinteressante Lektüre, mit der sich leicht ein Bogen vom Damals ins Jetzt spannen lässt. Wir können von Glück sagen, dass etwa der Obolus zum Internetzugang stark gesunken ist und nicht mehr “26 Mark pro Monat für die ersten drei Stunden und 7 Mark pro weiterer Stunde” kostet. Ansonsten gilt in Teilen noch immer, was Jaron Lanier, Vordenker im Bereich der Virtual Reality, bei den “Mega-Trends 1995” feststellte: “Das World Wide Web ist voller Wunder. Niemand weiß, was dort alles geboten wird. Es ist uns über den Kopf gewachsen und hat ein Eigenleben entwickelt.” Bewegen wir uns heute online auch ebenso schrittsicher wie offline, so wird es uns doch niemals möglich sein, die Netzrealität gänzlich zu fassen zu bekommen. Vielleicht stellt sich die Situation in weiteren 20 Jahren vollkommen anders dar, wir leben in einer entcomputerisierten Welt, Wearables sind der Standard beim Online-Zugang und irgendwo auf der Welt lacht sich ein Redakteur über die Naivität kaputt, mit der man 2015 über die Digitalisierung geschrieben hat.


Image (adapted) “1994/1995 Flatland BBS Menu Screen” by Tim Patterson (CC BY-SA 2.0)


 

Weiterlesen »

Netzwerk-Schrot für die Next Economy

Welt (adapted) (Image by TheAndrasBarta [CC0 Public Domain] via Pixabay)

In einer Replik auf die Schrotflinten-Ökonomie von Google, wird auf den Plattform-Ansatz verwiesen, der eine Vielfalt von Anschlüssen bietet. Unternehmen als Verknüpfungsmaschinen – so neu sei das allerdings nicht. Firmen suchten immer schon nach Verknüpfungen bei Kunden, Lieferanten und “Helfern”. Diese waren aber nur dann erfolgreich, soweit sie sich als Verknüpfung für andere profilierten.

Der schwere Abschied vom Taylorismus

Unternehmen waren immer schon Orte des Zusammenwirkens von Menschen, Plänen, Prozessen und Leistungen?—?wobei die Organisationsformen sich historisch wandelten.” Etwa die Metamorphose von der Agrarwirtschaft zum Industriekapitalismus mit zahlenorientierten Management-Methoden, zerlegten Arbeitsschritten, vorgeschriebenen Handgriffen und hierarchischer Kommunikation. Also all das, was wir unter dem Taylorismus subsummieren.

Davon müssen wir uns nun verabschieden, auch wenn das Notiz-Amt immer noch viele Protagonisten wahrnimmt, die den alten Methoden anhängen und wenig auf engagierte, kreative und selbstdenkende Mitarbeiter setzen.

Die Abkehr vom “dummen” Taylorismus zur “intelligenten” kooperativen Wirtschaft über digitale Plattformen, könnte für Unternehmen in Deutschland eine interessante und machbare Herausforderung sein. Das gilt besonders für die Forschung und Entwicklung in technologisch offenen Welten.

Wenn Mittelstand die Netzszene trifft

Hier könnte das Zusammenwirken mit jungen Technologiefirmen und generell mit der Netzszene besonders für den Mittelstand Vorteile bringen.

Wer nur im eigenen Saft schmort und das Altbekannte perfektioniert, wird mit den radikalen Innovationen der Netzökonomie, branchenfremden Software-Anwendungen und neuen Plattform-Anbietern wie AirbnB nicht zurecht kommen. Rezepte gegen die eigene Engstirnigkeit bekommt man nicht in der eigenen Organisation.

Auf der Suche nach externen Disruptoren

Meistens kommen die disruptiven Technologien und Geschäftsmodelle von Außenstehenden. Sie machen das Altbekannte sprunghaft obsolet. Unter Umständen binnen weniger Monate. Man sollte daher den eigenen Kontext hinter sich lassen und sich mit potentiellen “Disruptoren” verbünden.

Statt mit Dollar-Schrot zu schießen wie Google, empfiehlt der Medium-Autor Netzwerk-Schrot. Auch gut. “Wir leben in der Epoche der beginnenden Netzwerk-Ökonomie. Silicon Valley selbst könnte man vielleicht als den Prototypen einer solchen Verknüpfungsmaschine sehen.

Mehr Kooperation, Interaktivität und Offenheit

Die nächste Stufe der wirtschaftlichen Entwicklung bestehe aus noch produktiverer Vernetzung, noch mehr Kooperation, noch mehr Interaktivität zwischen den unterschiedlichsten Teilnehmern und Kräften, noch mehr hierarchiearme Kommunikation zwischen den Vernünftigen, den Rechnern, den Träumern, den Tüftlern und Codern, noch mehr Offenheit nach außen, mehr Außenkontakte, mehr Neugier?—?mehr Interesse am sich Entwickelnden und Freude am sich Ändernden.


Image (adapted) „Welt“ by TheAndrasBarta (CC0 Public Domain)

Weiterlesen »

Digitale Agenda gesucht

Digital DNA, City of Palo Alto, Art in Public Places, 9.01.05, California, USA (adapted) (Image by Wonderlane [CC BY 2.0] via Flickr)

Von Abfall bis Zahnbürste, alles wird digital. Wie aber bringen wir Gabriel und Co. dazu, das auch zu verstehen? Netzökonomie-Campus-Initiative ist ein höchst pragmatischer Vorschlag in die Diskussion geworfen worden, wie man internet-aversive Unternehmer, Verbandsfunktionäre und sonstige relevante Entscheider in Teutonien ins Netzzeitalter katapultieren könnte. Man ummantelt schlichtweg die analogen Organisationen, Maschinen, Produkte, Services und Verwaltungsaufgaben mit einer digitalen „Schicht“. So eine Art „Verwaltungsschale“.

Mit Vernetzungskonzepten überzeugen

Dann wird vielleicht auch dem Mittelständler im schönen Westerwald, dem Kommunalpolitiker in Buxtehude und dem Wissenschaftler am Overhead-Projektor an der Uni Koblenz klar, was passiert, wenn man sich nach außen vernetzt. Alles, was analog ist, bekommt an irgendeiner Schnittstelle den Zugang zur binären Logik. In unserem eigenen Haus habe ich das schon längst umgesetzt, da es immer noch keine umfassenden Vernetzungskonzepte für die eigenen vier Wände aus einer Hand gibt. Unsere alte Yamaha-Musikanlage – der unkapputbare Verstärker stammt noch aus meiner Uni-Zeit in den 1980er-Jahren – ist beispielsweise mit dem Airport von Apple verdrahtet und spult alles herunter, was in der digitalen Bibliothek abgerufen werden kann. Warum sollte ich also die High-End-Teile für satten Sound als Elektronikschrott entsorgen?

Legobau-Kenntnisse: Kleine Schritte in die digitale Transformation

Wer mit kleinen Digital-Experimenten operiert, bekommt schnell Appetit auf mehr. Was mit robusten Verstärkern möglich ist, kann man auch mit TV, Waschmaschine, Geschirrspüler, Beleuchtung und mit dem kompletten Haus bewerkstelligen – unabhängig vom Hersteller und vom Betriebssystem. Schnell landet man bei Open Source, offenen Schnittstellen und Protokollen – auch wenn man diese Begriffe überhaupt nicht im Vokabular führt. Legobau-Kenntnisse aus der Jugendzeit reichen aus.

So kann man mit Legostein-ähnlichen Klemmen des Anbieters Digitalstrom analoge Geräte wie Lampen, Rauchmelder, Rollos und Haushaltsgeräte mit wenigen Handgriffen digital aufrüsten. In dem Lichtschalter von Digitalstrom befindet sich nicht nur eine Kommunikationseinheit, die man über das Internet steuern kann, sondern auch ein Sensor für Licht und Geräusche, wie Hannes Schleeh in einem Blogbeitrag ausführlich erläutert: Allein dadurch könne die bisher nur ein- und ausschaltbare Leuchte gedimmt, per Licht und Geräusch gesteuert werden. Das offene und modulare Konzept bietet Herstellern und Kunden nach Ansicht von Schleeh die Möglichkeit, individuelle Konzepte mit unendlichen Variationen auf den Weg zu bringen und eine Schneise für das Internet der Dinge zu schlagen.

Lernen vom ersten Hacker des 13. Jahrhunderts

Wenn Produkte und Services mit kleinen Stellschrauben für die digitale Welt anschlussfähig gemacht werden, vollzieht sich das Wunder der Kombinatorik auf den Spuren des Geistlichen Raimundus Lullus. Er hat die Digitalisierung bereits in seinem Hauptwerk „Ars Magna“ im Jahr 1300 auf Mallorca vorgedacht. Seine logischen Entwürfe wurden von den Wissenschaftlern Werner Künzel und Peter Bexte in die Computersprachen Cobol sowie Assember auf einen Großrechner übertragen und erwiesen sich als ablauffähige Software – nachzulesen in dem viel zu wenig beachteten Opus „Allwissen und Absturz – Der Ursprung des Computers“, erschienen im Insel-Verlag und über Amazon als antiquarische Kostbarkeit zu humanen Preisen noch verfügbar. „Lullus war der erste Hacker in den himmlischen Datenbanken“, schreiben die beiden Autoren.

Wo ist die digitale Agenda, die diesen Namen verdient?

Seine Kombinatorik leistet bereits die Verknüpfung von allem mit allem. So entstehen Netzwerke, als deren ältester Programmierer der merkwürdige Mönch in dem von mir mehrfach besuchten Kloster auf dem mallorquinischen Berg Randa gilt. Wie wäre es, wenn die liebwertesten Neuland-Gichtlinge der Großen Koalition und sonstige Null-Eins-Skeptiker im Lullus-Refugium in Klausur gehen würden? Sie könnten mit der ab 1275 konzipierten Denkmaschine ein Werkzeug ausprobieren zum Finden und Erfinden von komplizierten Fragen, zum Entwerfen und Erobern neuer Räume des Denkens – eine scharfe Waffe des erkennenden Verstandes für eine digitale Agenda, die diesen Namen verdient. Ein Fernrohr für den digitalen Geist!

Dieser Beitrag erschien zuerst auf The European.


Image (adapted) „Digital DNA, City of Palo Alto, Art in Public Places, 9.01.05, California, USA“ by Wonderlane (CC BY 2.0)


 

Weiterlesen »

Die Denkfallen der Industrie-4.0-Initiative

Industrie (adapted) (Image by Huskyherz [CC0 Public Domain] via Pixabay)

Die Industrie-4.0-Initiative steckt in einer Denkfalle: Wenn der deutsche Mittelstand nicht entscheidende Entwicklungen verschlafen will, braucht es mehr Team-Spirit und weniger Normierungswahn. Viele Unternehmen haben nach einer Mind-Business-Studie noch nicht den Einstieg in den digitalen Wandel gefunden. Es fehlt die notwendige Expertise, um die Chancen digitaler Technologien für das eigene Geschäft zu erkennen, zu bewerten und zu erschließen. Fehlender Leidensdruck in den Chefetagen verhindert oder verschleppt den Wandel, der von der Organisation bereits gesehen und gewünscht werde. Es mangelt dabei nicht an der Wahrnehmung der Umbrüche. Die Führungskräfte der deutschen Wirtschaft scheinen jedoch von schwerfälligen und komplexen Business-Systemen und -Prozessen „paralysiert“ zu sein.

Es liegt vielleicht an den klassischen hierarchischen Führungsmodellen, die in einer vernetzten Ökonomie nicht mehr so richtig greifen: „Je stärker wir in das digitale Zeitalter kommen, umso stärker werden Unternehmen die Notwendigkeit spüren, Kommunikationsverantwortung und damit Macht zu dezentralisieren. Die Abneigung dem Neuen gegenüber, vor allem im Mittelbau deutscher Unternehmen, ist insofern verständlich, weil es gerade für sie ein mehr an Arbeit bedeutet. Die meisten Firmen werden den Transformationsprozess nur dann schaffen können, wenn sie Personal an wichtigen Stellen austauschen oder den Generationswechsel gestalten„, so die Empfehlung der Studienautoren.

Mehr Freiraum für Querdenker

Den Querdenkern müsse mehr Anerkennung entgegengebracht werden – sie brauchen Freiräume in der Organisation: „Wer das Nutzenversprechen für die nächste Ära seines Geschäfts entwickeln will, der darf nicht linear denken, sondern muss wie Internet-Start-ups denken lernen. Viele Unternehmen machten, als sie die Notwendigkeit zur Digitalisierung der Geschäftsmodelle erkannten, den Fehler, ,analogen Wein in digitalen Schläuchen‘ zu verkaufen„, kritisieren die Mind-Business-Analysten.

Die Gefahren einer unsicheren digitalen Zukunft könne man verringern, indem digitale Strategien von Internet-Start-ups Teil des Szenario-Prozesses werden: „Das Internet im Allgemeinen und die Digitalisierung im Besonderen führen dazu, dass ganze Branchen durch Software neu gestaltet werden. Erfahrungswerte und das Wissen über das Bewährte dürfen daher nicht als Wegweiser für die digitale Transformation herangezogen werden. Denn immer dann, wenn Produkte und Dienstleistungen zu Software werden, verlieren sie ihre physikalischen Eigenschaften und Beschränkungen.

Die Geschäftserfolge der Vergangenheit würden dabei wie Denkfallen wirken. Wer ausschließlich wie eine Hardware-Company denkt, verpasse neue Chancen, weil man ähnlich wie Best Buy versucht, die Neuentwicklung zu bremsen, indem man Störsender in den Verkaufsflächen installiert, anstatt wie in den Apple Stores neue Zahlverfahren per Handy einzuführen, um den vernetzten Kunden besser zu bedienen.

Internet der Industrie kommt nicht voran

Eine Erkenntnis bleibt in jedem Fall: Man kann technologische Entwicklung nicht stoppen, man kann sie nur zu seinen Gunsten nutzen„, resümieren die Analysten von Mind Business. Die von den Beratern dargestellte Gemengelage passt zu den Ungereimtheiten bei den diversen Industrie-4.0-Aktivitäten von Bundesregierung, Produktionsfirmen und Spitzenverbände wie die Faust aufs Auge.

In den vergangenen Tagen wurde deutlich, dass wir trotz hektischem Aktionismus von Kanzlerin Angela Merkel, Wirtschaftsminister Sigmar Gabriel und Wissenschaftsministerin Johanna Wanka auch beim „Internet der Industrie“ den Wettbewerb mit den USA verlieren könnten, kritisiert Netskill-Geschäftsführer Winfried Felser in der Sendung „Kompetenzgespräche“.

Dass zugleich deutsche Industrie-Ikonen ihre neue Liebe zum amerikanischen Wettbewerber, dem Industrial Internet Consortium, in der Breite entdecken, ist der eigentlich wichtigste Warnindikator dafür, dass der bisherige deutsche Weg 4.0 auf einem Abstellgleis enden kann„, so Felser.

Industrie 4.0 bedeutet nicht nur Roboter und RFID-Chips, sondern vor allem bessere Produkte, Services und Prozesse durch Zusammenarbeit in Produktionsnetzwerken. „Wir arbeiten uns in Gremien jahrelang an Standards und Normungen ab, klopfen uns gegenseitig auf die Schulter und verlieren dabei die Marktdynamik aus dem Auge„, weiß Felser.

Karl Tröger von der PSI AG, der in fast allen Industrie-4.0-Kreisen mitwirkt, hält die Organisationsprobleme für beschämend. „Wir bekommen es nicht hin, solche Initiativen auf die Straße zu bringen. Man braucht nicht den allumfassenden Super-Standard, sondern Beispiele und Ideen. Jeder zieht sich auf seine persönlichen ökonomischen Interessen zurück, statt etwas im Sinne der Gesamtheit zu tun„, betont Tröger im Kompetenzgespräch.

Industrie-4.0-Bürokraten

Es werden enorme Potenziale durch die Umsetzung der hinter Industrie 4.0 stehenden Ideen erwartet. Dennoch sei der Bekanntheitsgrad der entsprechenden Konzepte in Unternehmen eher gering. „Diese Diskrepanz zwischen der Beschreibung der wirtschaftlichen Potenziale und der Wahrnehmung in der Industrie muss überwunden werden. Das ‚Team Deutschland‘ braucht einen entsprechenden Team-Spirit„, fordert Tröger.

Industrie 4.0 sei vor allem eine dezentral-intelligente, vernetzte und kooperative Industrie. „Technik ist dafür nur der Enabler„, erklärt Felser. Wir machen es in Deutschland schön kompliziert, statt komplex zu denken und einfache Lösungen auf dem Markt zu etablieren. Das macht das IIC besser und das liegt vor allem an der Führungsfigur. Richard Mark Soley ist ein Antreiber, Marktkenner und exzellenter Redner im Unterschied zu den Industrie-4.0-Bürokraten in deutschen Spitzenverbänden und Ministerien, erklärt ein Branchenkenner. Soley gibt der amerikanischen Initiative ein Gesicht. Die liebwertesten 4.0-Gichtlinge in Deutschland verstecken sich lieber hinter Arbeitskreisen und Normungsgremien. Es reicht nicht aus, wenn Verbandsvertreter des Maschinenbaus, der Elektroindustrie und der Informationstechnologie, das Bundeswirtschaftsministerium sowie das
Bundesministerium für Bildung und Forschung mit dem IIC sprechen. Sie sollten international auch das nötige Sendungsbewusstsein entwickeln.

Dieser Beitrag erschien zuerst auf The European.


Image (adapted) „Industrie“ by Huskyherz (CC0 Public Domain)

Weiterlesen »

5 Lesetipps für den 11. Dezember

In unseren Lesetipps geht es um Medien und die digitale Revolution, Cyberangriffe im nächsten Jahr, das Datenschutzrecht, digitale Entwicklungen 2015 und Online-Marketing im Wahlkampf. Ergänzungen erwünscht.

  • MEDIEN Horizont: It’s only the beginning: Wie Hubert Burda das Internet sieht: Dass die Medien das Internet verschlafen hätten, ist ein gern genutzter Vorwurf, mit dem Zeitungen, Verlage und Co. konfrontiert werden. Hubert Burda hingegen zeigt, dass dem nicht immer so sein muss. Er hat bei Horizont 25 Jahre digitale Revolution bilanziert und zeigt anhand von fünf Entwicklungen, wie das Internet und die Digitalisierung die Medien verändert haben. Dabei geht er von Facebook über Google bis hin auf das Thema „Geld verdienen im Internet“ ein und zeigt, dass das Märchen, dass die Medienhäuer das Internet verschlafen hätten, auf ihn nicht zutrifft.

  • CYBERANGRIFFE DIE WELT: Das sind die größten Cyber-Gefahren im Jahr 2015: Das Internet verändert sich und damit auch sowohl die Anzahl als auch die Art und Weise der Cyberangriffe. Für das kommende Jahr hat das Computersicherheitsunternehmen McAfee eine Studie vorgestellt, die eine weitere Zunahme an Angriffen aus dem Internet prognostiziert. Hierbei stehen vor allem ungeschützte Computer im Fokus. Darüber hinaus ergeben sich aber auch neue Gefahren. So wurde bei der Entwicklung des „Internet of Things“ versäumt Sicherheitsmaßnahmen einzubauen, sodass hier eine große Gefahr von ausgeht. Dazu stehen auch die mobilen Endgeräte im Fokus der Cyberkriminellen.

  • DATENSCHUTZ FAZ: Datenschutzrecht: Kommt heraus aus der Defensive: Der Datenschutz muss endlich aus der Defensive kommen und Amerika klargemacht werden, dass Grundrechte auf dem Spiel stehen, fordert Gerhart Baum auf FAZ.net. Google und Co. sowie die Geheimdienste wuchern weiter in die Gesellschaft hinein. Doch die Bundesregierung tut merklich wenig, auch wenn laut Baum viel dafür spricht, dass die Geheimdienste verfassungswidrig handeln und die Grundrechte ausgehöhlt werden. Somit sei es wichtig, dass europäische Datenschutzverordnung durchgesetzt wird und eine Verwässerung des Datenschutzes verhindert wird.

  • CROSSMEDIA JakBlog: Medien 2015: Crossmedia ist tot: 2015 steht kurz vor der Tür. Grund genug um sich Gedanken zu machen, was im kommenden Jahr Trend sein könnte und was nicht. Das hat sich auch Christian Jakubetz auf seinem Blog gemacht und die These aufgestellt: „2015 ist Crossmedia tot“ Neben dieser argumentiert er zudem, dass die Medien sich mehr mit ihren Nutzern beschäftigen müssen, aus ihrem Publikum eine Community machen sollten, Inhalte entbündeln und insgesamt mehr ausprobieren sollten.

  • WAHLKAMPF Hamburger Wahlbeobachter: Online-Marketing im Wahlkampf: Wie man mit Online-Kampagnen Wähler adressiert: Der Wahlkampf findet längst nicht mehr nur offline statt. Auch online buhlen die Parteien und Spitzenkandidaten um ihre Wähler. Doch worauf muss bei einer Online-Marketing-Wahlkampagne geachtet werden? Benjamin Birkner und Viktor Zawadzki erklären dies beim Hamburger Wahlbeobachter und schreiben, dass Online-Marketing im Wahlkampf helfen kann, wenn es richtig eingesetzt wird. So kann die Zielgruppe exakter und wirkungsvoller angesprochen werden, indem mit ihr durch einen effektstarken Dialog interagiert wird. Im Endeffekt wird so eine optimale Wirkung des verfügbaren Werbebudgets erzeugt und die Parteien haben höhere Chancen neue Wähler dazu zu gewinnen.

Nutze Netzpiloten 1-Klick: Mit nur einem Klick werden dir bequem alle 40 Sekunden die hier besprochenen Seiten „vorgeblättert“ START.

Weiterlesen »