All posts under Maschinen

Das Digitale Denken

Unlängst finden Debatten statt, inwiefern die Digitalisierung der Gesellschaft einen Nutzen bringt. Mittlerweile haben sich unterschiedliche Disziplinen mit dem Thema befasst. Verschiedene Parteien haben sich gebildet und ihre Anhänger positionieren sich. Es wird eifrig geschrieben und hart gebattlet. Während die einen von einem neuen Zeitalter schwärmen, verkünden die anderen das Ende der zivilisierten Welt. Ganz im Sinne von Kraus´ Endzeit Epos befinden wir uns im Niedergang. Eine digitale Übermacht droht nämlich unsere geistige Existenz zu vernichten, so die Kritiker, Defätisten und Verweigerer. Neulich entdeckte ich einen Kommentar („Wir Fingerwesen- eine Kritik der Digitalisierungsideologie“) in der Neuen Zürcher Zeitung über zügellose Umtriebe digitaler Machenschaften. Es klang wie eine unheilvolle Prophezeiung, wie ein verzweifelter Aufruf an eine leblose Leserschaft. Bevor wir aber in ferne Parallelwelten vorstürmen und herumspekulieren: Pioniere der Neuzeit, Transhumanisten und Anhänger neuronaler Schaltkreise – Macht euch auf die dunkle Seite gefasst.

Digitalisierungsideologie

Im Kommentar ist nämlich die Rede von Digitalisierungsideologie und Homogenisierung. Gemeint ist damit die Epidemiologie der Gesellschaft durch künstliche Intelligenz. Den einzigen Nutzen sehen die Kritiker in praktischen und alltäglichen Dingen, während die Mär von „We make life better“  bloß eine Phantasmagorie sei, die Erleichterung mit Fortschritt verwechsle. Wir seien zu Fingerwesen verkommen, da nur noch das Tippen und Wischen mit dem Smartphone unser Handeln und Tun bestimme. Wir würden subtil gesteuert und versklavt. Der freie Wille und das Bewusstsein würden dadurch sukzessive abgeschafft, die Eigenständigkeit des Denkens und unsere Handlungsfähigkeit dezimiert. Dies führe langfristig zu einer Vereinheitlichung des Menschen und letztendlich zu seiner Abschaffung. Digitalisierung könne darüber hinaus keine gesellschaftspolitischen Lösungen anbieten. Eine ominöse Herrschaft, die er mit Intelligenzen tituliert, bemächtige sich der Vorteile und ziehe materiellen Nutzen, während der Rest der Gesellschaft in der Einfallslosigkeit monotoner Tastaturwischerei verschwinde. Die Lösung sei „natürliche“ Intelligenz zu fördern.

Das Unbehagen

Der Autor zeichnet das Bild einer debilen, vollkommen desillusionierten Menschheit nach, welche durch die zunehmende Digitalisierung allmählich in eine irreversible Schieflage gerät, bevor sie im Datensumpf undurchsichtiger Codes und Zahlen versinkt. Ziemlich düstere Aussichten und eine befremdliche Entwicklung würde ich behaupten, angesichts vieler Tatsachen die unerwähnt bleiben. Die Kritik wirkt auf mich stellenweise grotesk und einseitig, stellenweise aber auch nachvollziehbar. Es gibt Tendenzen die absolut beunruhigend sind. Geistige Amputation ist zweifellos eine schlimme Sache, manchmal vergisst man aber die Wahrheit. Ist diese Angst der Einverleibung begründet? Oder unterliegen wir wieder der maßlosen Hysterie unserer Eindrücke, die diese Ängste schüren?

Dystopien

Hybridwesen sind längst Realität. Anderes wiederum könnte in Zukunft Wirklichkeit werden. Der slowenische Philosoph Slavoj Zizek etwa sinniert in einem Beitrag in der NZZ („Das Ende der Menschlichkeit“) über Formen der Symbiose als nächste Evolutionsstufe. So stelle man sich eine Maschine oder Apparatur vor, die nahezu fehlerfrei arbeitet und mehr von uns weiß als wir selbst. In diesem digitalen Hirn, so Zizeks Gedankenexperiment, wird unser komplettes Ich erfasst, selbst unsere Stimmungen, Ängste und Bedürfnisse.

Es beinhaltet jedes erfassbare Detail und ergibt ein Gesamtbild, das dem Selbstbild nicht nur ähnelt. Es ist praktisch ident mit ihm, mit dem Unterschied, dass es als Einheit besteht, während das Menschen-Selbst amorph lebt und nur eine brauchbare Fiktion darstellt, um uns zu beschreiben. Ein beunruhigender Gedanke, wie ich spontan urteile. Er sieht darin aber zuerst einmal ungeahnte Möglichkeiten. Da der Mensch in seinen Gedanken oft diffus bzw. strukturlos vorgehe, habe er oftmals keine klare Vorstellung über seine Absichten, sobald er sie artikuliert. Die Abrufgewalt ist auch nicht immer verfügbar. Zu viele Faktoren behindern ihn dabei.

Daten und Variablen

Diese Inkohärenz des Selbst wirke sich auf unsere Entscheidungen aus und entspreche nicht immer der äußeren Realität. Die Maschine hingegen könne die gesammelten Eindrücke und Inhalte besser eruieren, da es zunächst die Daten liest und unnötige Variablen ausschließt. Mir scheint als würde man dem Menschen hier einiges an Unvermögen attestieren. Doch lesen wir weiter. Diese Erkenntnis könnte schließlich auch auf andere Bereiche erweitert werden. Konkret spricht er von politischen Wahlen. Die Maschine würde demnach alle Faktoren ausrechnen und ein fertiges Ergebnis präsentieren. Sie sei rationaler als der Mensch.

Es sei daher auch möglich, dass die Maschine bessere Entscheidungen trifft als der Mensch. Sobald er aber die Entscheidungsmacht abgibt oder weiter delegiert, verliert er einen Teil seines Selbst. Dem Menschen entgleite damit die Kontrolle. So führe die Digitalisierung der Gesellschaft schrittweise zum Selbstverlust. Folglich diene sie auch der Menschheit nur begrenzt.

Die Mensch-ine

Vieles scheint obsolet. Mein Unmut ist davon ausgenommen. Die Mensch-ine entwickelt sich zu einem Überwesen, während die Biomasse Mensch zu einem Geisterwesen schrumpft. Wie weit ließe sich so eine Supermaschine weiterentwickeln? Wer hätte Zugriff darauf? Die Rede ist vom Homo deus, einer gottähnlichen Maschine, die unumschränkte Macht besitzt. Zizek befürchtet, dass solche Maschinen innerhalb der Gesellschaft zu Konflikten führen könnten. Auf der Suche nach Optimierung würden sie zur grenzenlosen Bedrohung ausarten.


Image by Syda Productions via stock.adobe.com

Weiterlesen »

„Für Originalität muss man die Welt wahrnehmen“: Technikphilosoph Mads Pankow im Interview

Den Rückruf zum Interview über KI und Kreativität mit Mads Pankow bekomme ich auf einer kleinen Lichtung mitten im Teutoburger Wald. Der 33-jährige Technikphilosoph, Herausgeber und Politikberater sitzt an diesem sonnigen Dienstagnachmittag im Mai gut vorbereitet in seinem Berliner Büro – ihm liegen meine Fragen vor – ich habe immerhin Stift und Papier dabei. Es geht um KI und Kreativität. Dazu gehören das bisschen Bewusstsein, das Computern fehlt, poetisch interessante Ergebnisse, die sie trotzdem liefern und den Mensch als letztverantwortliche Instanz. Mads Pankow wird beim Kongress Mind the Progress eine Keynote zum Thema halten, wie originell die Technik ist. Der Kongress kümmert sich um Themen zu Kreativität und Digitalisierung und findet am 1. Juni in Hamburg statt. Im Anschluss wird auf einem Panel mit Branchenexperten über KI als kreativen Partner diskutiert. 

Lena Simonis (Netzpiloten): Man sagt, Not mache erfinderisch. Wie kann man sich das kreative Potential eines Algorithmus vorstellen, der zwar ein Problem löst, dazu aber nur definierte Schritte durchrechnet?

Mads Pankow: Klar, ein Algorithmus kennt keine Not. Er hat keine Absicht, keine Motivation. Sein einziger Antrieb sind unsere Anweisungen. Der Mut zu ungewöhnlichen Ansätzen und Kombinationen, aus denen sich die Kreativität derer schöpft, die in Not sind, kennt ein Algorithmus nicht. Aber ein Computer kann natürlich trotzdem mutig kombinieren, er weiß nur nicht was er da tut. Da gibt es etwa das All prior arts project: Hier rekombiniert eine Software Millionen von Patenten, aber bisher war keins davon brauchbar.

schaltkreis_athompson_algorithmus
Adrian Thompson ließ 1996 einen Algorithmus einen Schaltkreis zur Tonausgabe berechnen. Der Algorithmus kam nicht nur zu einem effektiveren Ergebnis, sondern auch zu einem originellen Lösungsansatz.

Spannend bei „problemlösenden“ Algorithmen sind evolutionäre Algorithmen. Das ist keine KI, aber schon in den 90ern haben Algorithmen nach dem Optimierungsprinzip eigene Schaltpläne entwickelt, die effizienter, aber für Menschen regelrecht unverständlich waren. Man könnte sagen, die Software hätte da etwas Originelles gemacht. Da werden nicht nur definierte Schritte durchgerechnet, sondern wirklich wild kombiniert. Das können Computer gut, weil sie viel, viel schneller sind als Menschen.

Es gibt inzwischen Programme, die bessere Sportmeldungen texten als mancher Redakteur – welche „kreativen“ Jobs können uns Maschinen demnächst noch abnehmen?

Naja, was heißt „bessere“ Sportmeldungen. Wenn sie nur Informationen enthalten, kann man nicht viel falsch machen: Das Spiel ging 7:1 aus, eine Demütigung. Fakten in Phrasen übersetzen ist wirklich nicht aufwändig. Die Frage ist hier nicht, ob die Maschine kreativ ist, sondern ob das, was wir als kreative Arbeit bezeichnen wirklich immer so originell ist, oder doch nur die Anwendung eingeübter Gestaltungs- und Stilregeln. Maschinen können gut Lösungen für Probleme finden, die Menschen nicht durchschauen. Aber sie wissen am Ende nicht, ob die Lösung in der Praxis taugt. Menschen müssen also nach wie vor die Ergebnisse prüfen, einen Realitätscheck machen und auch die Anweisungen und Aufträge so übersetzen, dass Maschinen sie verstehen.

Algorithmen haben also keine Wahrnehmung, sie können weder Mehrdeutigkeit, Intuition, noch Neugier; all die wichtigen Fähigkeiten für kreative Prozesse fehlen ihnen – noch?

Nein, also dieses nachgeschobene “noch“ können wir vorerst streichen. Wir haben keinen Hinweis darauf, dass sich mit digitaler Technik ein Bewusstsein ähnlich dem menschlichen realisieren ließe. Dafür braucht es Selbstbewusstsein, also die Beobachtung der eigenen Beobachtung, eine paradoxe Operation. Aber Paradoxien führen bei Computern zum Absturz, sie lassen sich formallogisch nicht abbilden. Da möchte ich also mindestens bis zur Funktionsfähigkeit von Quanten- oder Biocomputern entwarnen – und wann die mal laufen sollen, ist bisher völlig unabsehbar. Aber klar, viele Formen der Kreativität lassen sich simulieren: etwa Lösungsfindung durch Versuch und Irrtum, wie bei den evolutionären Algorithmen, oder Gestaltung nach Schema F, beziehungsweise gelernten Gestaltungsroutinen. Das sieht tatsächlich häufig besser aus als das, was Menschen so liefern.

Vor 100 Jahren schworen die Post-Impressionisten auf La fée verte. Sind Algorithmen sowas wie der neue Absinth der Kreativbranche, Inspiration und Mode?

Ja klar, Algorithmen können sehr inspirierend sein, weil sie außerhalb unserer eingeübten Denkstrukturen funktionieren. Sie rekombinieren und vermischen völlig ohne Absicht und Einsicht. Da kann durchaus Neues entstehen. Googles Mensch-KI-Kollaboration Deep Dream mit seinem digitalen Surreal-Impressionismus wäre ein Beispiel. Das verfolgt keinen Zweck und dient nur der Inspiration. In der Praxis wird uns die Software vor allem assistieren, indem sie beispielsweise Arrangements nach vorgegebenen oder erlernten Regeln vorschlägt und wir dann nachbessern oder aufbohren. Aber wie gesagt, da geht es vornehmlich um zweckmäßige gestalterische Tätigkeiten. Für die Kunst sind Algorithmen bisher nur Spielzeug, da hilft der gute alte Absinth doch deutlich mehr.

Wir müssen also nicht um unsere Jobs bangen?

Ich denke, die wenigsten Jobs werden durch KI ersetzt werden. In den meisten Fällen erleichtert die KI unsere Arbeit, assistiert uns, rechnet mit, schlägt vor und inspiriert. Aber nichts was KI bisher geliefert hat, hat aus sich heraus schon funktioniert, auch im Kreativbereich noch nicht. Am Ende war alles nur interessant, aber durchschnittlich, uninspiriert eben. Oder Menschen mussten die Ergebnisse nachjustieren, damit sie wirklich ästhetischen Wert hatte. Dennoch reichen ja manchmal auch durchschnittliche Leistungen. Nicht jede Zahnarzt-Homepage muss den Ansprüchen ästhetischen Genusses genügen, da tut‘s dann vielleicht auch die sich selbst erstellende Homepage von the grid.

Vielen Dank für das Interview Herr Pankow!


Images by Mads Pankow

Weiterlesen »

Künstliche Intelligenz und die Angst vor ihr

Orb of power (adapted) (Image by Ramón Salinero [CC0 Public Domain] via Unsplash)

Die Künstliche Intelligenz hat in der deutschen Diskurslandschaft keinen guten Ruf. Sie bevormundet Menschen, entscheidet intransparent und gehört meist nur den Silicon Valley-Konzernen. Sollten wir Menschen, die wir den Planeten gegen die Wand fahren, nicht offener dieser Form von Intelligenz gegenüber auftreten? Bietet sie nicht auch sehr viele Chancen?

Jährlich sterben allein in Deutschland 100.000 – 200.000 Menschen am plötzlichen Herztod. Das Risiko steigt mit dem Alter. Männer sind fast doppelt so häufig betroffen. Auch intensiver Sport führt – bei fehlendem Wissen um eine unentdeckte Herzerkrankung – zu einer Verdoppelung des Risikos, daran zu sterben. Die wenigsten potenziellen Opfer gehen vorab zum Kardiologen, da sie zumeist keine Beschwerden verspüren. Wenn sie dann doch aufgrund temporärer Beschwerden zum Kardiologen gehen, ist die Wahrscheinlichkeit, das Problem im Rahmen eines 24-Stunden-EKGs zu entdecken, sehr gering.

Apple hat dieses Problem erkannt und wird wohl beim Nachfolgemodell der Apple Watch 3 einen Sensor für ein erweitertes EKG in die Uhren einbauen. Durch einen Abgleich der gemessenen EKG-Daten und möglicher enthaltener auffälliger Muster mit standardisierten beispielhaften „kranken“ Mustern, können unentdeckte Herzerkrankungen oder Anomalien erkannt werden.

Apple wird mit dieser Funktion und der Auswertung der Daten (indirekt) wahrscheinlich viel Geld verdienen. Wie sehen die Menschen, die schon um ihr erhöhtes Sterberisiko in Folge einer Vorerkrankung wissen, ein solches Device? Und wie sehen sie die Möglichkeiten der Diagnose infolge der Auswertung großer Datenmengen? Würden sie bemängeln, dass die oftmals so deklarierten „Internet-Riesen“ trotz ungeklärter Fragen des Datenschutzes Geld mit diesen Devices verdienen? Würden sie nach der Wirkungsweise des Algorithmus fragen? Und würden sie sich mit dessen Anwendung nur dann einverstanden erklären, wenn man ihnen den Programm-Code erklärt? Oder wenn eine deutsche Behörde diesen einen speziellen Algorithmus überprüft hat? Wohl eher nicht.

Wer sollte über die Anwendung einer Künstlichen Intelligenz (KI) entscheiden: Die betroffenen Menschen oder eine Kommission?

Umso weltfremder und an den Gesundheitsbedürfnissen der betroffenen Menschen vorbei scheinen daher momentane Beiträge in bekannten Medien. Diese fordern ein, dass es Experten geben müsste, die die Wirkungsweise jeder KI verstehen. Die sie kontrollieren und über deren Nutzung urteilen sollten. Obgleich sie nicht von einer tödlichen Bedrohung wie dem plötzlichen Herztod bedroht sind. Mit welchem Recht wird dann aber den betroffenen Menschen die Entscheidung zur Anwendung der Technik aus der Hand genommen? Wollte man aus dieser Situation eine steile These generieren, so könnte man sagen, dass die Debatte und die Verschleppung der Einführung von KI täglich unverantwortlicher Weise Menschenleben kostet.

Während diskutiert wird, welche Menschen eine KI in einem autonom fahrenden Auto am ehesten im Notfall „umfahren“ soll, sterben täglich in Deutschland ca. neun Menschen im Verkehr. Meist wurden diese Unfälle verursacht durch zu hohe Geschwindigkeit oder Fahren unter Alkoholeinfluss ihrer Mitmenschen. Warum wird also nicht die Frage nach der moralischen Verträglichkeit menschengelenkter Autos gefragt? Hat es eine solche Ethik-Debatte jemals gegeben, um zu überprüfen, ob der Vorstand von Volkswagen vor Bekanntwerden von Dieselgate „ethisch richtig handelt“? Wieso legen wir an KI solch hohe Maßstäbe an, die die Menschen bisher selbst meist nicht erfüllt haben?

Dürfen wir KI unsere menschliche Moral aufzwingen?

Sally Davies hat sich in ihrem Beitrag daher auch die Frage gestellt, mit welchem Recht wir versuchen, einer zukünftigen KI unser Verständnis von Moral aufzuzwingen. Viele technische KI-Experten werden einwenden, dass diese Form der KI noch lange nicht erreicht sei (worüber es zu Recht aber sehr unterschiedliche Auffassungen gibt). Nichtsdestotrotz ist damit zu rechnen, dass wir uns eines Tages diese Fragen stellen müssen. Wird sich die KI einsichtig zeigen, dass unser Wertmaßstab auch der ihrige sein soll? Was wäre, wenn die KI „Verbesserungsvorschläge“ für unser Wertesystem liefert?

Im Bereich strategischer Spiele sind wir bereits an diesem Punkt der KI-Entwicklung angekommen. In einem aktuellen Beitrag auf The Atlantik zu den neuen Fortschritten bei der KI-Entwicklung im Zuge der AlphaGo Zero-Entwicklung formulieren die Autoren, was im Kern die Botschaft aus den gegenwärtigen Entwicklungssprüngen ist. Die (genannte) KI benötigt keinen Menschen mehr, um in einem Gebiet „übermenschliche“ Fähigkeiten in kürzester Zeit zu entwickeln. Das ist insbesondere dann spannend, wenn die Erkenntnisse der KI-Entwickler auf die Bekämpfung von Krankheiten oder den Klimawandel angewendet werden, wie diese es selbst in ihrem Blog weitsichtig beschreiben.

Eine leidige kurzsichtige Diskussion über die vermeintliche Sinnhaftigkeit luftverdreckender Diesel-Pkw wäre unter diesen Umständen schnell obsolet. Sie könnte, im Gegensatz zu den derzeit beschlossenen politischen Maßnahmen, täglich Menschenleben retten. Ist es vielleicht an der Zeit, dass wir den Versuch aufgeben, eine höhere Intelligenz verstehen zu wollen?

Die Syntheist-Bewegung greift diese Überlegungen auf. Der schwedische Cyber-Philosoph Alexander Bard als einer der bekanntesten Vertreter begreift das Internet als „Gehirn“ der Menschheit. Laut ihm ist es ausgestattet mit Netzknoten, Netzwerken und Datenbanken. Sie alle zusammen sind mehr als die Summe der einzelnen Wissensbestandteile der Menschheit. Das Silicon Valley „Wunderkind“ Anthony Levandowski geht in dieselbe Richtung. Er versteht die internetbasierte Wissensgenerierung als Schritt hin zu einer übergeordneten Weisheit, infolgedessen er auch die „First Church of AI“ ausgerufen hat.

Können Androiden menschliche Reaktionen auslösen?

Die Fähigkeiten gerade von Robotern, in den zwischenmenschlichen Bereich vorzudringen, wurde bisher ebenfalls sehr zurückhaltend gesehen. Seien es doch die wahren menschlichen Eigenschaften der Kreativität, der Interaktion, der Empathie, die menschliche Reaktionen hervorriefen und durch Maschinen nie ersetzt werden könnten. Ist dem wirklich so? In einem aktuellen Beitrag stellt sich die Autorin Alex Mar die Frage, ob es diese angeblich genuinen Eigenschaften wirklich nur bei Menschen gibt.

Bei einem Besuch des Android-Forschers Hiroshi Ishi­guro wird sie an die Grenze des scheinbar intuitiv Menschlichen gebracht, als sie von den Erfahrungen des Forschers mit seinen Androiden hört. Indem Androiden basale menschliche Verhaltensweisen übernehmen, die einen Menschen positiv und emotional triggern, können sie bei Menschen echte mitmenschliche Emotionen erzeugen. In einem wissenschaftlichen Experiment konnten Forscher der Universität Calgary vor Jahren zeigen, dass selbst ein Stück Balsaholz bei Menschen Gefühle auslösen kann. Die positiven Gefühle Maschinen gegenüber können noch weiter befördert werden, wenn man sie ab und an „menschliche“ Fehler machen lässt und sie dadurch nicht unerreichbar perfekt erscheinen.

Spätestens mit der Nutzung der replika-App kann jeder Nutzer selbst überprüfen, ob der Dialog mit einer auf sich selbst trainierten KI wirklich immer nur als bewusster Dialog mit einem Code erfolgt. Und nicht mit einem „gefühlten“ realen Gegenüber. Die Gründerin des Startups hatte ihren besten Freund auf tragische Weise verloren. Daraufhin sammelte sie nach seinem Tod alle Chats, die sie mit ihm geführt hatte. Sie kreierte eine erste KI, die ihren toten Freund simulierte. Inzwischen können Nutzer weltweit eine eigene KI nach diesem Muster „erstellen“. Auch wenn das etwas seltsam klingt, haben Außenstehende kein Recht, der Gründerin oder Nutzern von „replika“ daraus einen Vorwurf zu machen.

Wäre es daher nicht an der Zeit, an der Einmaligkeit des Menschlichen zu zweifeln? Fand man in der Neurowissenschaft bereits vor Jahren heraus, dass der vorgebliche freie Wille der Menschen gar nicht so frei ist, ist es jetzt an der Zeit zu erkennen, dass auch unsere Gefühle nicht nur an Menschen gebunden sind.

Digitaler Darwinismus ist schon heute Realität

Man muss sicherlich nicht ganz so weit gehen, wenn es um das Mimikry menschlichen Verhaltens durch eine KI geht. Schon weiter vorangeschritten ist die Angleichung an menschliche Verhaltensweisen bei der Ausübung von beruflichen Tätigkeiten. So zeigt Miranda Katz anhand von Beispielen aus der Übersetzerbranche, der Juristerei und der Filmbranche, dass schon heute impliziter digitaler Darwinismus auf dem Arbeitsmarkt durch den Einsatz von KI ausgelöst worden ist. So ist es nach Meinung der dort zitierten ScriptBook CEO Nadira Azermai nicht die KI, die Menschen arbeitslos werden lässt. Es ist vielmehr die Verweigerungshaltung, KI für die eigene Tätigkeit einzusetzen. Auch wenn dies an vielen Stellen schon möglich ist.

“You’ll lose your job to people who have learned how to cooperate with machines. You will lose your job if you keep turning your head the other direction and pretending it doesn’t exist“, so Azermai.

Wenn aber KI zunehmend Tätigkeiten übernehmen, die Bestandteil menschlicher Berufe (Arzt, Drehbuchautor, Polizist) sind, muss die Frage gestellt werden, in welcher Weise sich Ausbildungsgänge nicht eigentlich sehr viel schneller anpassen müssten. Jon Marcus beschreibt in seinem Beitrag die erkennbaren Folgen für das bestehende Bildungssystem. So beginnen die ersten großen Unternehmen aus der IT-Branche, eigene Ausbildungsgänge aufzubauen. Hier erfolgt nämlich die Anpassung der bestehenden zu langsam und bürokratisch. KI, die Berufe verändert, hat demnach auch Auswirkungen auf das Bildungssystem. Sicher könnte man die ethische Frage anschließen, was denn mit dem Kompetenzaufbau in den Bereichen der Ausbildung geschieht, in denen die KI Menschen ersetzen.

Mit wissenschaftlichen Methoden des 20. Jahrhunderts lösen wir nicht die Probleme des 21. Jahrhunderts

Der Umgang der Wissenschaft und der Politik mit dieser Herausforderung zeigt sehr anschaulich das Dilemma, auf diese neue Herausforderung (KI, Roboter) mit tradierten Methoden und Sichtweisen zu reagieren. Seit der Veröffentlichung der allseits bekannten Frey/Osborne-Studie hat es viele volkswirtschaftliche Folge-Studien gegeben (so z.B. durch das ZEW). Diese waren am Ende stets zu dem Ergebnis gelangt, dass wir mit einem Abbau menschlicher Beschäftigung – in einem ungeklärten Umfang – rechnen müssen. Zeigt sich aber nicht zuletzt an der Methodik dieser Studien, dass wir inzwischen mit menschlicher Intelligenz allein die Komplexität, die uns zunehmend umgibt, nicht mehr bewältigen können? Wie kann es sein, dass Studien ernsthaft als politische Entscheidungsgrundlage dienen, die vorgeben, die Wahrscheinlichkeit einer digitalen Disruption in einer bestimmten Branche ex ante berechnen und daraus ableitend Arbeitsmarktprognosen abgeben zu können? Wir hinterfragen aber nicht diese wissenschaftlichen Methoden. Wir hinterfragen vielmehr die Entscheidungslogiken der KI und bezeichnen sie nur zu gern und schnell als diskriminierend.

Nicht die Künstliche Intelligenz sondern der Mensch diskriminiert

Eva Wolfangel zeigt in ihrem spannenden NZZ-Beitrag, warum es aber nicht die Algorithmen – auch nicht die selbst lernenden KIs – sind, die sexistisch, rassistisch oder diskriminierend sind. Es liegt vielmehr an dem, was wir der KI „vorleben“ und als Input zum Lernen zur Verfügung stellen. Ein Herausbrechen von Diskriminierung aus Algorithmen hingegen ist als Lösung des Problems in keiner Weise geeignet, da es keine übergeordnete Wahrheit und keinen absoluten Maßstab gibt, an dem sich diese Programmierer ausrichten können. Zudem kommt das Problem hinzu, so Wolfangel, dass Menschen allzuhäufig Korrelationen mit Kausalitäten gleichsetzen. Im Kern heißt dies also erneut, dass die KI nichts vom Menschen lernen kann, da er selbst nicht das passende Vorbild abliefert.

Hängt der Quanten-Computer die Menschen endgültig ab?

KI ist Bestandteil sehr vieler alltäglicher Lebensbereiche des Menschen. Sie unterstützt diesen, hilft dort aus, wo sie mehr leisten kann als ein Mensch, kann kreativ sein. Der nächste Entwicklungsschritt hin zur Intuition und einem menschenähnlichen Bewusstsein wird eventuell die Anwendung der Quantentechnik für KI sein. So wird bereits in den nächsten Monaten die „Quantum Supremacy“ gegenüber den uns bekannten Computern eintreten.

Wir sollten daher vielleicht nicht vergessen, die Probleme der Politik, der gesellschaftlichen Debatte und der Wissenschaft zu thematisieren. Gerade wenn es darum geht, mit dieser technischen Entwicklung Schritt zu halten. Experten sprechen von der exponentiellen Dynamik der KI-Entwicklung: „There will be an acceleration of pace as ever more people are put out of work “by technology” when artificial intelligence masters vision – and how to learn. (…) Unlike in the Industrial Revolution, we cannot expect a plateau of development here that will allow people to ‘catch up’”. Die Frage ist, wie wir als Menschen damit umgehen wollen.

Die Diskussion um die Gesundheitskarte zeigt es exemplarisch. Während in Deutschland über Fragen des Datenschutzes diskutiert wird, werden anderswo mit IBM Watson bereits Leben gerettet. Wird irgendwann der moralische Druck, die Entwicklung der KI einfach zu akzeptieren, nicht so groß werden, dass jahrelange politischen Debatten über neue Regulären zunehmend utopisch erscheinen? Was ist, wenn die durch eine Smart City induzierte Einsparung natürlicher Ressourcen den persönlichen Vorstellungen über Datenschutz gegenüber steht?

Benötigen wir nicht einen „politischen“ Algorithmus im Sinne einer Entscheidungslogik, der uns beim Umgang mit diesen strittigen Fragen Orientierung gibt und der zwischen individuellen und gesellschaftlichen Interessen abzuwägen hilft? Oder liegt es, wie der genannte provokante Beitrag auf AEON vorschlägt, am Ende gar nicht mehr im Ermessensspielraum des Menschen, über die Moral eines Algorithmus zu entscheiden, weil wir die sich daraus ergebende moralischen Regeln nicht mehr verstehen, wir aber davon ausgehen müssen, dass uns diese weiterhelfen als die Regeln und Verhaltensweisen, die uns seit Jahrtausenden Umweltzerstörung und Krieg bringen?

Wenn ihr mehr zu dem Thema „Angst vor der Künstlichen Intelligenz“ erfahren möchtet, dann gibt es hier von Arend Hintze einen spannenden Artikel mit dem Titel „Künstliche Intelligenz: Wovor die Forscher sich fürchten„.


Image (adapted) „Orb of power“ by Ramón Salinero (CC0 Public Domain)

Weiterlesen »

Künstliche Intelligenz: Wovor die Forscher sich fürchten

Roboter (adapted) (image by Ramdlon CC0] via pixabay)

Als KI-Forscher begegne ich oft dem Umstand, dass viele Menschen Angst haben, was KI für die Zukunft bedeuten könnte. Angesichts der Geschichte und der Unterhaltungsindustrie ist es wohl wenig überraschend, dass wir Angst vor einer kybernetischen Machtübernahme haben, die uns zwingt, eingesperrt zu leben wie in der „Matrix“ – als eine Art menschliche Batterie.

Und doch ist es schwer für mich, von den evolutionären Computermodellen aufzusehen, die ich nutze, um die KI zu entwickeln. Ich kann mir kaum vorstellen, dass die unschuldigen, animierten Kreaturen auf meinem Bildschirm die Ungeheuer der Zukunft werden könnten. Könnte ich „der Zerstörer der Welten“ werden, wie Oppenheimer klagte, nachdem er die Konstruktion der ersten Atombombe leitete?

Ich würde den Ruhm mitnehmen, denke ich, aber vielleicht liegen die Kritiker tatsächlich richtig. Vielleicht sollte ich aufhören, mich um die folgende Frage zu drücken: Habe ich, als KI-Experte Angst vor künstlicher Intelligenz?

Angst vor dem Unvorhergesehenen

Der Supercomputer HAL 9000, der von dem Science-Fiction-Autor Arthur C. Clarke erdacht und von dem Filmregisseur Stanley Kubrick in „2001: Odyssee im Weltraum“ zum Leben erweckt wurde, ist ein gutes Beispiel für ein System, das wegen unbeabsichtigter Auswirkungen fehlschlägt. Bei vielen komplexen Systemen – der RMS Titanic, dem Space Shuttle der NASA und dem Kernkraftwerk in Tschernobyl, verbinden Ingenieure viele verschiedene Komponenten miteinander. Die Konstrukteure haben wohl gewusst, wie jedes Element einzeln gearbeitet hat, aber sie wussten nicht genug darüber, wie sie alle zusammen arbeiteten.

Das führte zu Systemen, die niemals vollständig verstanden werden konnten und daher auf unvorhersehbare Weise versagten. Bei jeder Katastrophe – ein Schiff versenken, zwei Shuttles zur Explosion bringen und radioaktive Kontaminationen in ganz Europa und Asien freisetzen – wirkte eine Reihe von relativ kleinen Fehlern zusammen, um eine Katastrophe zu verursachen.

Ich sehe die Gefahr, dass wir in der KI-Forschung in die gleiche Falle laufen könnten. Wir betrachten die neuesten Forschungsergebnisse aus der Kognitionswissenschaft, übersetzen das in einen Algorithmus und fügen diesen zu einem bestehenden System hinzu. Wir versuchen, KI zu konstruieren, ohne Intelligenz oder Kognition vorher zu verstehen.

Systeme wie Watson von IBM und Alpha von Google statten künstliche neuronale Netze mit enormer Rechenleistung aus und machen Unmögliches möglich. Doch wenn diese Maschinen Fehler machen, verlieren sie bei „Jeopardy!“ oder scheitern daran, einen Go-Meister zu besiegen. Das wird nicht die Welt verändern – in der Tat ist das Schlimmste, was dabei passieren könnte, dass man etwas Geld beim Wetten verliert, wenn man auf den Computer gesetzt hat.

Aber da KI-Konstruktionen noch komplexer und Computer-Prozessoren noch schneller werden, werden sich ihre Fähigkeiten weiter verbessern. Wir werden ihnen mehr Verantwortung übergeben, auch wenn das Risiko von unbeabsichtigten Konsequenzen dabei steigt. Wir wissen, dass irren menschlich ist, somit ist es wohl unmöglich für uns, ein wirklich sicheres System zu entwickeln.

Angst vor Missbrauch

Ich bin nicht sehr besorgt über unbeabsichtigte Konsequenzen bei den künstlichen Intelligenzformen, die ich entwickle, indem ich einen Ansatz namens Neuro-Evolution nutze. Ich generiere virtuelle Umgebungen und entwickle digitale Lebewesen und deren Gehirne, um immer komplexere Aufgaben zu lösen. Die Leistungen der Geschöpfe werden dann ausgewertet. Diejenigen, die die beste Leistung bringen, werden ausgewählt, um sich zu reproduzieren und die nächste Generation zu erschaffen. Über viele Generationen entwickeln diese Maschinen-Kreaturen kognitive Fähigkeiten.

Im Moment machen wir nur winzige Schritte, um Maschinen zu entwickeln, die einfache Navigationsaufgaben erledigen können, einfache Entscheidungen treffen oder sich an ein paar Bits erinnern. Aber bald werden wir Maschinen entwickeln, die komplexere Aufgaben ausführen können und eine viel bessere allgemeine Intelligenz haben werden. Letztlich hoffen wir, Intelligenzen von menschlichem Niveau zu erschaffen.

Auf dem Weg dorthin finden und beseitigen wir Fehler und Probleme durch den Prozess der Evolution. Mit jeder Generation werden die Maschinen besser in der Handhabung der Fehler, die in früheren Generationen aufgetreten sind. Das erhöht die Chancen, dass wir ungewollte Auswirkungen in der Simulation finden werden, die dann eliminiert werden können, bevor sie jemals in der realen Welt eingesetzt werden.

Eine andere Möglichkeit, die in entfernterer Zukunft auftreten wird, besteht darin, evolutionäre Prinzipien zu nutzen, um die Ethik der künstlichen Intelligenzsysteme zu beeinflussen. Es ist wahrscheinlich, dass menschliche Ethik und Moral, wie Vertrauenswürdigkeit und Altruismus, ein Ergebnis unserer Evolution sind – und ein Faktor unseres Fortbestehens. Wir könnten unsere virtuellen Umgebungen so aufbauen, dass sie evolutionäre Vorteile für Maschinen bieten, die Güte, Ehrlichkeit und Empathie zeigen. Dies könnte ein Weg sein, um sicherzustellen, dass wir mehr gehorsame Diener oder vertrauenswürdige Begleiter und weniger rücksichtslose Killer-Roboter entwickeln.

Obgleich die Neuro-Evolution die Wahrscheinlichkeit von unbeabsichtigten Auswirkungen verringern könnte, verhindert sie keinen Missbrauch. Aber das ist eine moralische Frage, keine wissenschaftliche Frage. Als Wissenschaftler muss ich meiner Verpflichtung zur Wahrheit folgen und berichten, was ich bei meinen Experimenten herausfinde, ob ich die Ergebnisse nun mag oder nicht. Mein Fokus liegt nicht darauf, zu bestimmen, ob ich etwas mag oder akzeptiere; es kommt nur darauf an, dass ich es aufdecken kann.

Angst vor falschen sozialen Prioritäten

Ein Wissenschaftler zu sein, entbindet mich allerdings nicht von meiner Menschlichkeit. Ich muss mich auf irgendeiner Ebene wieder mit meinen Hoffnungen und Ängsten auseinandersetzen. Als moralisches und politisches Wesen muss ich die möglichen Implikationen meiner Arbeit und ihre möglichen Auswirkungen auf die Gesellschaft berücksichtigen.

Als Forscher und als Gesellschaft haben wir noch keine klare Vorstellung davon, was die KI tun oder werden soll. Zum Teil natürlich, weil wir noch nicht wissen, wozu sie fähig ist. Aber wir müssen entscheiden, worin die gewünschte Auswirkung fortgeschrittener KI besteht. Ein großer Bereich, dem die Menschen ihre Aufmerksamkeit widmen, ist die Erwerbstätigkeit. Roboter können bereits harte Arbeit wie Autoteile schweißen selbständig durchführen. Eines Tages könnten sie auch kognitive Aufgaben übernehmen, die wir einst für eindeutig menschlich hielten. Selbstfahrende Autos könnten Taxifahrer ersetzen; autonome Flugzeuge könnten Piloten ersetzen.

Anstatt medizinische Hilfe in einer Notaufnahme von potenziell übermüdeten Ärzten zu bekommen, könnten die Patienten eine Untersuchung und Diagnose von einem Expertensystem mit sofortigem Zugriff auf alle medizinischen Kenntnisse erhalten, die jemals gesammelt wurden – und die Operation von einem unermüdlichen Roboter mit einer vollkommen ruhigen „Hand“ durchführen lassen. Rechtsberatung könnte aus einer allwissenden juristischen Datenbank kommen; Anlageberatung könnte aus einem Markt-Vorhersage-System kommen.

Vielleicht werden eines Tages alle menschlich besetzten Arbeitsplätze von Maschinen übernommen. Sogar mein eigener Job könnte von einer großen Anzahl von Maschinen, die unermüdlich erforschen, wie man noch intelligentere Maschinen herstellt, schneller erledigt werden.

In unserer heutigen Gesellschaft verdrängt die Automatisierung Menschen aus ihren Arbeitsplätzen und macht die Leute reicher, die die Maschinen besitzen – und alle anderen ärmer. Das ist kein wissenschaftliches Problem; es ist ein politisches und sozioökonomisches Problem, das wir als Gesellschaft lösen müssen. Meine Forschung wird das nicht ändern, obwohl mein politisches Selbst – zusammen mit dem Rest der Menschheit – möglicherweise in der Lage sein wird, Umstände zu schaffen, in denen die KI einen vorteilhaften Effekt für die Masse haben wird, anstatt die Diskrepanz zwischen dem einen Prozent und dem Rest von uns zu erhöhen.

Angst vor dem Albtraum-Szenario

Es gibt eine letzte Angst, verkörpert von HAL 9000, dem Terminator und einer unüberschaubaren Anzahl von anderen fiktiven Superintelligenzen: Wenn die KI sich weiter verbessert, bis sie die menschliche Intelligenz übertrifft, wird dann ein superintelligentes System (oder mehrere davon) zu der Erkenntnis gelangen, dass Menschen nicht mehr gebraucht werden? Wie werden wir unsere Existenz im Angesicht einer Superintelligenz rechtfertigen, die Dinge tun kann, die Menschen niemals tun könnten? Können wir vermeiden, dass wir von den Maschinen, die wir selbst erschaffen haben, ausgelöscht werden?

Die zentrale Frage in diesem Szenario ist: Warum sollte eine Superintelligenz uns erhalten? Ich würde so argumentieren, dass ich ein guter Mensch bin, der vielleicht sogar dazu beigetragen hat, die Superintelligenz zu erschaffen. Ich würde das Mitgefühl und die Empathie ansprechen, um die Superintelligenz zu veranlassen, mich, eine mitfühlende und einfühlsame Person, am Leben zu halten. Ich würde auch argumentieren, dass die Vielfalt einen Wert an sich hat, und dass das Universum so absurd groß ist, dass die Existenz der Menschheit in ihm wahrscheinlich überhaupt keine Rolle spielt.

Aber ich spreche nicht für die ganze Menschheit, und ich finde es schwer, für uns alle ein überzeugendes Argument zu liefern. Wenn ich einen scharfen Blick auf uns alle zusammen werfe, sehe ich viel Falsches: Wir hassen uns gegenseitig. Wir führen Krieg gegeneinander. Wir gewähren keinen gleichberechtigten Zugang zu Essen, Wissen oder medizinischer Hilfe. Wir verschmutzen den Planeten. Es gibt viele gute Dinge in der Welt, aber all das Böse schwächt die Argumente für unsere Existenzberechtigung.

Glücklicherweise müssen wir unsere Existenz noch nicht rechtfertigen. Wir haben noch etwas Zeit – etwa 50 bis 250 Jahre, je nachdem wie schnell sich die KI entwickelt. Als Spezies können wir zusammen kommen und eine gute Antwort darauf finden, warum eine Superintelligenz uns nicht auslöschen sollte. Aber das wird schwierig werden: Zu sagen, dass wir Vielfalt begrüßen, und danach zu handeln, sind zwei verschiedene Dinge – genau so, wie zu sagen, dass wir den Planeten retten wollen, und es dann erfolgreich umzusetzen.

Wir alle – jeder für sich und wir als Gesellschaft, müssen uns auf dieses Albtraum-Szenario vorbereiten, indem wir die Zeit nutzen, die wir noch haben, um zu zeigen, warum unsere Kreationen uns weiterhin leben lassen sollten. Oder wir könnten uns entschließen, daran zu glauben, dass das nie passieren wird, und aufhören, uns Sorgen zu machen. Aber unabhängig von den physischen Bedrohungen, die Superintelligenzen darstellen können, stellen sie auch eine politische und ökonomische Gefahr dar. Wenn wir keinen Weg finden, unseren Reichtum besser zu verteilen, werden wir den Kapitalismus weiter anheizen, indem wir KI-Arbeitskräfte beschäftigen, die nur den wenigen Menschen dienen, die alle Produktionsmittel besitzen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Roboter“ by Ramdlon (CC0 Public Domain)


Weiterlesen »

Digitale Akademie des geselligen Diskurses – Störenfriede statt Studiengebühren

Image (adapted) (Image by Redd Angelo) (CC0 Public Domain) via Unsplash

Das Notiz-Amt wollte an dieser Stelle eigentlich auf die vorzüglichen Gedanken des rebellischen Geistes Stefan Holtel und seinen Überlegungen zu den Untiefen der Gläubigkeit an die Heilsversprechen der Künstlichen Intelligenz eingehen. Kann KI irgendetwas besser machen, was Software bislang noch nicht konnte, fragt sich Holtel. Das ist natürlich Unsinn. „Nicht die Algorithmen werden in der KI zu vielen Problemen führen, sondern die Vorurteile, die in den Daten stecken.“ Also Vorurteile, die wir alle in die Daten stecken.

Wenn auf dieser Basis die KI-Systeme ihre unermüdliche Arbeit aufnehmen und Entscheidungen vorbereiten oder sogar selbst treffen, kommt ziemlicher Mist dabei heraus. Kunden, die keinen Kredit mehr bekommen, Versicherte, die Prämienerhöhungen hinnehmen müssen oder gar Netzaktivisten, die als potenzielle Störenfriede der Gesellschaft aussortiert werden. Fast alle Daten, die von Black Box-Maschinen verarbeitet werden, sind von Menschen annotiert worden. „Wir reichern vermeintlich objektive Daten mit unseren Weltmodellen an. Das wird von keinem Algorithmus hinterfragt“, so Holtel im Vorgespräch zu seiner Session auf der re:publica in Berlin beim HR-Festival in der Watson Work Lounge.

Streiten wir über Hausmeister-Maschinen

Konsequenz: Es fällt uns immer schwerer, die Richtigkeit von Datenberechnungen zu erkennen. Das Ganze ist sogar ein paradiesisches Feld für Trickser, Agitatoren, Autokraten und Machtgierige, sich hinter den Ergebnissen der KI-Maschine zu verstecken und die schmutzigen Entscheidungen auf die Algorithmen zu schieben. Etwa beim Scoring aller Bürgerinnen und Bürger in China. Die Führung der Kommunistischen Partei in Peking installiert „korrekte“ Maschinen als Hausmeister für politische Hygiene ein. Sozusagen eine Beseelung von toten Apparaten: KI-Maschinen sind wie wir, nur perfekter und unfehlbarer. Der manipulierende Maschinist bleibt dabei unerkannt. Die Drecksarbeit übernehmen Algorithmen – vergleichbar mit der unsauberen Arbeit von Consulting-Firmen, die als Alibi für den Rausschmiss von Mitarbeitern in Unternehmen engagiert werden.

„Wir müssen unser Konzept von Vertrauen in Maschinen überdenken und neu bewerten. Das ist keine technische Frage, sondern eine techniksoziologische und gesellschaftliche, die keine objektive Antwort haben wird, sondern in einem normativen Diskurs entwickelt werden muss.“ Sonst entsteht so eine Art Maschinen-Paternalismus. Vergleichbar mit der Einführung der Tabellen-Kalkulation. „Wie haben uns den Ergebnissen ausgeliefert, die von Excel und Co. ausgespuckt werden. Dabei gibt es eine Vielzahl von Studien, die die Fehlerhaftigkeit von Excel-Tabellen belegen. Wenn wir die einfache Konstruktion einer Tabelle schon nicht verstehen oder kritiklos darauf reagieren, werden wir erst recht nicht verstehen, was in der Interaktion mit Algorithmen abgeht“, mahnt Holtel.

Das berühmteste Beispiel ist das Excel-Chaos der Harvard-Ökonomen Carmen Reinhart und Kenneth Rogoff, die ein Optimum für die Höhe von Staatsschulden als finanzpolitischen Leitfaden den Staatsregierungen ins Ohr gemauschelt haben. Es sei ein großer Fehler, den Maschinen Fähigkeiten wie Rationalität und Unfehlbarkeit zuzuschreiben, bemerkt Holtel: „Das speist sich aus unseren täglichen Erfahrungen. Niemand rechnet Excel-Tabellen nach. 2007 gab es im Intel-Prozessor einen Hardware-Fehler, der dazu führte, dass Excel falsch rechnete. Es gibt diese systemischen Fehler sehr häufig, aber Menschen sind kaum in der Lage, diese Risiken einzuschätzen.“

Kritischer Diskurs über Künstliche Intelligenz

Der Diskurs über Künstliche Intelligenz müsse differenzierter geführt werden. „Wir sollten durch Aufklärung oder Machteliten-Hacking Verantwortung übernehmen, um diesen Diskurs adäquat zu begleiten“, resümiert Holtel. Und da sind wir direkt beim zweiten Thema, dass nahtlos an die Notwendigkeit von offenen, kontroversen und anschlussfähigen Diskursen anknüpft: Der Rolle der Hochschulen. Kann eine Ökonomisierung den akademischen Betrieb über Studiengebühren beflügeln? Dazu gab es eine ausgiebige Disputation auf Twitter, die ich hier nicht wiederholen möchte.

Studiengebühren
Screenshot by Gunnar Sohn

Disputationsgeist oder Verarmung des Denkens mit Studiengebühren?

Wollen wir wirklich einen universitären Verwaltungsmoloch weiter füttern mit dem Geld von Studierenden, bei dem es um dümmliche Ranglisten und eine Verarmung des Denkens mit Kennzahlen geht? Wie kümmerlich. Als Sekretär des Notiz-Amtes gründe ich als Gegenentwurf heute die „Digitale Thomasius-Akademie für Wissenschaft und Geselligkeit“.

Warum gerade Thomasius? Weil Christian Thomasius Ende des 17. Jahrhunderts die Universität als politisches Experiment vorantrieb. Ja, als politisches Experiment und nicht als Effizienz-Anstalt für die Sammlung von Schleimpunkten – Gebührenfinanzierung hin oder her. Man sollte schlechten Institutionen nicht noch Geld hinterher schmeißen. Durchbrechen wir mit Studiengebühren den bildungspolitischen Teufelskreis, der da heißt: „Herkunft gleich Zukunft“? Untermauern wir nicht den pseudo-elitären Zirkel, wo Müller den Müllerchen nachzieht und akademische Klone in Führungspositionen gelangen – also eine ständische Gemeinschaft, die sich abschottet und gegenseitig Pöstchen zuschiebt?

Digitale Thomasius-Akademie für Wissenschaft und Geselligkeit

Wer über die nötige Finanzzufuhr über Papi und Mami verfügt, soll ruhig ordentlich zur Kasse gebeten werden und an den Lemuren-Anstalten den Kadettengehorsam der Lehrpläne an „Elite-Unis“ aufsaugen. Malen nach Zahlen im Hochschulkostüm. Wer sich der geselligen Disputation an der Digitalen Thomasius-Akademie hingibt, bekommt die universal ausgerichteten Sessions kostenlos. Schließlich unterrichtete Thomasius arme Studenten umsonst – das galt auch für die Nutzung seiner Bibliothek. Die 1694 eingeweihte Universität Halle testete die Innovationsbereitschaft der Gelehrtenrepublik mit der Berufung des Versuchsleiters Thomasius: ein Philosoph, Zeitschriftenmacher und Ratgeber des galanten Lebens.

Akademische Krawalle vonnöten

Seinen Weg dorthin bahnte sich Thomasius mit einer Serie von akademischen Krawallen. Sein politisches Universitätskonzept beruhte auf Weltläufigkeit, Klugheit und Erfahrungsnähe, es sollte die Urteils- und Kritikfähigkeit der Studierenden fördern und Barrieren für den Zugang zu brauchbarem Wissen aus dem Weg räumen. Nachzulesen in dem Opus von Steffen Martus „Auflkärung“, erschienen im Rowohlt-Verlag. Überlieferungen und Traditionen schob er beiseite und empfahl seinen Studenten ein entspanntes Verhältnis gegenüber Wandel und Neuerung. Er inszenierte sich als akademischer Störenfried.

„Thomasius schlug ungewöhnliche Wege ein, um seine Gegner zu düpieren. Einer davon führte ihn zum Bündnis von Universität und Medienbetrieb. Er begann mit einer Zeitschrift, einer damals sehr frischen, wenig etablierten Gattung, in der seine Lieblingsideen noch einmal auftauchten, nun aber so vermengt und so unterhaltsam aufbereitet, dass sie ein breiteres Publikum ansprachen“, schreibt Martus und erwähnt die damalige Publikation mit Kultstatus: die Monatsgespräche – Scherz- und Ernsthafte Vernünftige und Einfältige Gedanken über allerhand Lustige und nützliche Bücher und Fragen. Eine Mischung aus Information und Pöbelei, aus Satire und anspruchsvoller Kritik, die nicht nur unterhaltsam, „sondern noch dazu erfolgreich war“, so Martus.

Social Web im 17. Jahrhundert ohne AGB-Diktatur

Greift man zur Schrift „Das Archiv der Klugheit“ von Leander Scholz, erfährt man noch mehr über Thomasius als Wegbereiter des Social Webs mit analogen Mitteln ohne AGB-Diktatur von Google und Co. Der Einzelne sollte durch die Bemächtigung von praxiologischem Wissen unhintergehbar werden. Sein Augenmerk richtete Thomasius stets auf die Medienrevolutionen, die zu einer Zäsur im Archiv des Wissens führen. „Das Kommunikationsmodell, mit dem er auf die erhöhte Datenmenge im Schriftraum reagiert, ist das des Marktplatzes mit der philosophischen Idealfigur Sokrates“, führt Scholz aus. In seiner Klugheitslehre wollte Thomasius den Wissensempfänger direkt zum Wissensvermittler machen, denn die Wissensproduktion findet mit dem Verlassen des universitären Bereichs vor allem in der täglichen Konversation statt. „Die Demokratisierung des Wissens und der Informationssysteme waren für Thomasius unabdingbare Voraussetzungen für eine demokratische Gesellschaft“, erläutert Scholz. Im Vordergrund seiner Theorie des Denkens stand nicht die Bewältigung eines heterogenen Stoffs nach dem Bulimie-Prinzip (reinschaufeln – auskotzen), sondern die Navigation in der Unübersichtlichkeit von Welt. So lasset uns disputieren in der Digitalen Thomasius-Akademie über diskriminierende Hausmeister-Maschinen, ausgrenzende Studiengebühren, die Neuerfindung einer politischen Universität, über Zukunftsszenarien, Utopien und das Leben. Mäzene wären dabei nicht schlecht – und die hatte Thomasius auch.

Am Donnerstagabend gibt es das erste Thomasius-Seminar als rebellische Formation. Gespräch über Ethik und Bildung jenseits der Stoff-Bulimie.


Image (adapted) by Redd Angelo (CC0 Public Domain)


Weiterlesen »

Deutsche Unternehmen ohne Plattformkompetenz – Über die Silo-Politik der Hidden Champions

Roboter(image by Mixabest[CC BY-SA 3.0] via Wikimedia Commons)

Ein Produkt ohne digitale Plattform ist völlig nutzlos, oder präziser formuliert: „Ein Produkt, das über keine Plattform verfügt, wird immer ersetzt werden durch ein äquivalentes Produkt, das mit einer Plattform ausgestattet ist“, so das Credo eines Google-Mitarbeiters, der die Netzstrategien seines Unternehmens in einem langen Kommentar zerstückelte und in einem kleinen Zeitfenster öffentlich lesbar war.

Google+ sei ein Musterbeispiel eines Unternehmens, das die Signifikanz von Plattformen absolut verkannt hat. „Das Nichterkennen dieser Bedeutung zieht sich von der höchsten Hierarchieebene der Geschäftsführung (hallo Larry, Sergey, Eric, Vic, wie geht´s Euch?) bis zur untersten Unternehmensebene der Mitarbeiter (hallo Ihr!). „Wir haben es alle nicht kapiert. Die goldene Regel der Plattformen lautet: ‚Eat your own dogfood‘. Die Google+ Plattform ist eine erbärmliche ‚Nachlese'“, bemerkt der Insider.

Die ‚Hundefutter-Regel‘ ist ganz einfach zu verstehen: Führungskräfte können ihren Entwicklern nicht einfaches Hundefutter vorsetzen, während sie sich selbst mit anderen Dingen beschäftigen. Das zu machen hieße, sich selbst des langfristigen Plattform-Wertes zu berauben, um einen kurzlebigen Erfolg zu erhaschen. Bei Plattformen ist eine langfristige Planung und Investition gefragt.

Falsches Kurzzeit-Denken bei Google

Bei Google+ handelte es sich um eine spontane Reflexreaktion, um eine Erforschung im Kurzzeit-Denken, orientiert an der falschen Vorstellung, dass der Siegeszug von Facebook darauf beruhe, ein geniales Produkt erfunden zu haben. Das sei nach Auffassung des zerknirschten Google-Mitarbeiters aber nicht der Grund, weshalb sie so erfolgreich sind. Facebook habe eine komplette Produktpalette aufgebaut, indem sie anderen Leuten gestatten, ihre Arbeit zu machen. Das mache den Zuckerberg-Konzern so einmalig. „Es gibt hundert oder sogar tausend unterschiedliche, zeitaufwändige Beschäftigungsformen mit hohem Qualitätsanspruch. Da ist für jeden etwas dabei.“

Google rekrutiert Leute

Das mittlerweile aufgelöste Google+Team habe den Anschlussmarkt für Dienstleistungen analysiert und dabei festgestellt: „‚Es wäre eine gute Idee, unser Angebotsspektrum um Computerspiele zu erweitern. Lasst uns jemanden rekrutieren, der diese Spiele für uns konzipiert‘. Verstehen Sie jetzt, wie unglaublich falsch dieser Gedankengang ist, vor allem aus heutiger Sicht? Das Problem ist, dass wir versuchen, zu prognostizieren, was die Leute wollen und es ihnen dann zur Verfügung stellen.“

Wer ist so gut wie Steve Jobs?

Dieser Ansatz sei unrealistisch und absolut nicht verlässlich. Es habe nur ein paare wenige, hochkarätige Menschen in der gesamten Welt der Computer-Geschichte gegeben, die in der Lage waren, eine zuverlässige Prognose zu erstellen. „Steve Jobs war einer von ihnen. Leider haben wir keinen Steve Jobs bei uns. Das können wir nun einmal nicht ändern.“

Larry Tesler mag Bezos überzeugt haben, dass er kein Steve Jobs sei. Bezos habe jedoch erkannt, dass es nicht zwingend eines Steve Jobs bedarf, um Konsumenten mit den richtigen Produkten zu versorgen: Wichtig sei es, Anwenderschnittstellen und Unternehmensabläufe als Workflows zu schaffen, mit denen die Benutzer gut und gerne arbeiten. Bezos musste nur externe Entwickler damit beauftragen.

Alles andere würde dann automatisch passieren. „Ich entschuldige mich bei all denjenigen dafür, die meine Ausführungen zu diesem Thema als ganz offensichtlich und auf der Hand liegend betrachten. Es ist in der Tat unglaublich evident. Und trotzdem unternehmen wir nichts dagegen. Wir schaffen weder Plattformen noch die richtigen Zugangsmöglichkeiten.“ Plattformen lösen das Problem des Zugangs und das bekommt man nur hin, wenn man selbst mit den digitalen Werkzeugen leidenschaftlich arbeitet.

Kirchturm statt Plattform

Das Notiz-Amt wünscht sich auch von deutschen Unternehmern und leitenden Angestellten in den Vorstandsetagen soviel kritischen Sachverstand, um die Logik der Digitalisierung und die Matching-Prinzipien des Netzes nicht nur zu verstehen, sondern auch in Geschäftsmodelle zu gießen. Den gleichen Sachverstand sollten Autoren wie Marc Beise und Ulrich Schäfer kultivieren, wenn sie in einem Buchprojekt mit dem Titel „Deutschland digital – Unsere Antwort auf das Silicon Valley“ Beispiele präsentieren, wie wir mit digitalen Fabriken, Robotern, Sensoren und Künstlicher Intelligenz wieder in den Angriffsmodus kommen.

Sie huldigen den üblichen Verdächtigen unter den Hidden Champions, singen das Lied von der verkannten Industrienation und beschäftigen sich nur wenig mit der Frage, wie die in ihrem Opus erwähnten Protagonisten persönlich in der Lage sind, das eigene digitale Hundefutter zu konsumieren. Etwa Till Reuter, der Chef des Robotik-Herstellers Kuka. Anstatt auf den Angriff von Google und Co. zu warten, will das Augsburger Unternehmen selber zum digitalen Angreifer werden und sein Geschäftsmodell radikal verändern.

Wenn die Roboter über die Computerwolke miteinander kommunizieren, könne Kuka künftig nicht bloß einzelne Roboter liefern, sondern gleich komplette Fabriken steuern. „Reuter will dazu eine flexible Lösung schaffen, eine Plattform, die für andere Anbieter offen ist, steuerbar auch über das Smartphone; mit Apps, die man nach Bedarf zusammenstellen kann“, schreiben Beise und Schäfer.

Meine Cloud, meine Maschinen, meine Marke

Reuter möchte die Prinzipien eines App-Stores auf den Maschinenbau übertragen und damit Geld verdienen. Bisher habe das Unternehmen seine schlauen Maschinen verkauft. Die Cloud ermögliche es nun, die Anzahl der Roboterbewegungen über das Internet exakt zu messen; es wird dadurch erstmals möglich, Roboter nach Leistung zu bezahlen.

Man werde die Maschinen deshalb künftig wohl nur noch vermieten und bekomme dann für jedes gefertigte Werkstück einen bestimmten Beitrag. Kling zunächst sehr smart. Den Knackpunkt benennen die Buchautoren unfreiwillig mit einem Reuter-Zitat: „Aber die Oberfläche wollen wir liefern, das look and feel soll Kuka sein.“ Die Marke, das Branding sei für die Augsburger entscheidend. Hat Reuter das Spiel der Vernetzung wirklich verstanden? Am Kuka-Wesen solle die Plattform-Welt genesen.

Mein digitaler Vorsprung, mein Stahlhandel

Und das ist kein Einzelfall im Opus der SZ-Autoren. So bringen sie Klöckner & Co.-Chef Gisbert Rühl ins Spiel, der zum Hoffnungsträger für den digitalen Wandel aufgehübscht wird. Er war einer der Ersten, die hierzulande nicht nur über Disruption sprachen, sondern diese Philosophie auch lebten.
Er reiste ins Silicon Valley und bekam die Empfehlung, Wetterdaten bei der Nachfrage nach Stahl zu berücksichtigen. Logik und Planung könnte man auf die Weise optimieren. Fein. Also mietete sich Rühl für eine Woche im Betahaus in Berlin-Kreuzberg ein, um neue Ideen für die Digitalisierung seiner Traditionsfirma aufzusagen. Schon mal nicht schlecht. Und was springt dabei raus. Silo-Denken: „Ob er eine Art Amazon für den Stahlhandel schaffen wolle, wird Rühl immer wieder gefragt. Ja warum nicht, antwortet er dann und fügt stolz hinzu, dass Klöckner & Co. bei der Digitalisierung weiter sei als alle Konkurrenten (jeder Bäckermeister lobt seine Brötchen); und zwar so weit, dass junge Programmierer den alten Stahlhändler mittlerweile als ziemlich hip empfinden: ein gewachsenes Traditionsunternehmen, das nun, der Plattform-Strategie von Airbnb oder Uber folgend, zur zentralen Plattform im modernen Stahlhandel aufsteigen will“, führen Beise und Schäfer aus. Am Klöckner-Wesen wird also wieder die Stahlwelt genesen. Mit Onlineshop-Weisheiten soll also ein offenes Ökosystem für die Stahlbranche entstehen? Was unterscheidet Alibaba von der Kirchturmpolitik des Klöckner-Chefs?

Viel Ego und wenig Eco

Wir könnten jetzt die führenden Köpfe der Hidden Champions von Trumpf bis Viessmann durchnudeln und würden erkennen, dass niemand auch nur in eine Richtung denkt, wie der offenherzige Google-Manager. Schaut Euch den Habitus dieser Top-Manager im Netz an und beurteilt dann, ob sie in ihrem persönlichen Verhalten auch nur ansatzweise eine digitale DNA mitbringen, um die Erkenntnis des Google-Insiders zu leben: „Ein Produkt, das über keine Plattform verfügt, wird immer ersetzt werden durch ein äquivalentes Produkt, das mit einer Plattform ausgestattet ist.“

Ist eine firmenunabhängige Plattform wie Alibaba für das industrielle Umfeld in Europa oder Deutschland in Sicht. Noch nicht einmal in Ansätzen. Die Mein-Label-Meine Marke-Mein digitaler Vorsprung-Fraktion der Industrie ist noch nicht einmal bereit, via Alibaba ins OEM-Geschäft einzusteigen.

„Original Equipment Manufacturer“ sind Unternehmen, die die Produkte des Herstellers in ihre eigenen Produkte einbauen; für den Endkunden ist nicht ohne weiteres erkennbar; welche Komponenten ein OEM in seinen Produkten verwendet. Mit deutschen Unternehmen sind solche Deals im Plattformgeschäft fast unmöglich, betont Nils Öldörp von der Agentur Minted Sourcing. Made in Germany wird heilig gesprochen. Da wird man dann irgendwann in Schönheit sterben, wie im Industrie 4.0-Konsortium.


Image „Roboter“ by Mixabest (CC BY-SA 3.0)


Weiterlesen »

Wenn aus Camouflage Wissenschaft wird – Nachbetrachtungen zur Kybernetik

birne(image By Richard Greenhill and Hugo Elias[CC-BY-SA-3.0] via Wikimedia Commons)

Wenn Naturwissenschaftler und Mathematiker Ausflüge in sozial- oder geisteswissenschaftliche Disziplinen machen, als Börsengurus an die Wall Street gehen oder gar Aussagen über politische Fragen tätigen, kommt häufig mechanistischer Unfug heraus.

Beim Mathematik-Genie John von Neumann sieht das anders aus. Bei der Entwicklung der Wasserstoffbombe hatten sich für ihn Berechnungsaufgaben ergeben, die sich nur mit verbesserten Rechenmaschinen für Geschütz-Tabellen bewältigen ließen. „Der hochrangige Geheimnisträger, wissenschaftliche Berater fast aller geheimen Militärprojekte der USA im Zweiten Weltkrieg, durfte aber diesen Zusammenhang auf keinen Fall preisgeben. Schon deshalb musste er die gefundene Maschine tarnen. Dazu verhalf ihm die Metaphorik eines Diskurses, der später als Kybernetik bekannt wurde“, schreibt Wolfgang Hagen in dem Band Cybernetics – Kybernetik, The Macy-Conferences 1946 – 1953. John von Neumann initiiert und fördert diese Camouflage umso mehr, als die wissenschaftsübergreifende Ausrichtung der Kybernetik dem Computer und den gewaltigen Investitionen zu seinem Bau eine ideale Friedenslegitimation bietet. Von Neumann konnte mit dieser Tarnung in der Nachkriegszeit sein Ziel der Super-Bombe ungestört und erfolgreich fortsetzen.

Generalisierung einer „Theorie“, die auf Täuschung beruht

Was er unterschätzte, war die Eigendynamik der kybernetischen Denker, die an einer Generalisierung der mathematischen Berechnungen für selbstkorrigierende Automaten arbeiteten. Zu ihnen zählte Norbert Wiener. „Die Kybernetik im Wienerschen Sinne propagiert die These, dass in einem ganz konkreten Sinn alles, was Rückkopplung organisiert, als Medium begriffen werden kann. Kybernetik ist die erste Wissenschaft, die programmatisch darauf zählt, dass alles, was berechenbar ist, wie komplex es auch sei, in eine dem individuellen Menschen letztlich überlegene Hardware rückkoppelnder Maschinen gegossen werden könne“, führt Hagen aus.

Norbert Wiener war der bessere PR-Mann

Seinen Einspruch gegen die Kybernetik äußerte John von Neumann leider nur in persönlichen Gesprächen. Er bat seinen Freund Norbert Wiener in milden Worten, in öffentlichen Interviews alle Hinweise auf „reproductive potentialities of the machines of the future“ zu unterlassen. Leider verfügte von Neumann nicht über das Sendungsbewusstsein und die PR-Maschinerie seines Weggefährten: „I have been quite virtuos and had no journalistic contacts whatever.“

Automatentheorie für die Konstruktivisten

Die psychophysikalischen Ableitungen der Kybernetiker lehnte von Neumann rigoros ab. In seiner eigenen Automatentheorie ging es ihm um ein auto-referentielles „Re-Entry“ des Messsystems in das gemessene System. Diese Integration des Messens ins Gemessene hat die Kybernetik später vorbehaltlos als auto-referentielle Rückeinführung des Beobachters in das beobachtete System verallgemeinert. Alle Systemversuche des Konstruktivismus von Glaserfeld, Bateson, Luhmann und Co. sind von diesem Fundament der Quantenmechanik geprägt. Die Interventionen von John von Neumann werden dabei schlichtweg ignoriert. Übertragungen auf das menschliche Nervensystem seien schlichtweg unsinnig: „Whatever the system is, it cannot fail to differ considerably from what we consciously and explicitly consider as mathematics.“

Zum Schluss hilft nur Spiritualität

Die Camouflage der Kybernetik konnte John von Neumann zu Lebzeiten nicht mehr enttarnen. Quantenmechanisch kann man selbstreproduzierende Systeme konstruieren. Deren logische Grundlage als Messsystem scheitert grundlegend, wenn man sie auf die Gehirn-Physiologie überträgt.

Das gilt auch für die sogenannte Kybernetik zweiter Ordnung. Sie schwebt im luftleeren Raum, weil wir über die statistischen Gehirnfunktionen schlichtweg nichts wissen. Das funktioniert nur dann, wenn man die Kybernetik zweiter Ordnung im Kontext einer universellen Spiritualität propagiert, wie es explizit George Spencer-Brown praktiziert: Ein Universum gelangt zum Dasein, wenn ein Raum getrennt oder geteilt wird. Alles klar?

Für Berater und kybernetische Wissenschaftler ist das eine höchst amüsante Gemengelage wie beim Gottesbeweis. Wenn ich die Nichtexistenz Gottes nicht beweisen kann, ist das der Beweis für die Existenz. Ein Zirkelschluss des Nichts, mit dem man aber weiterhin kräftig Geschäfte machen kann.

Soweit die Meinung des Notiz-Amtes zum Beitrag von Conny Dethloff


Image „Glühbirne“ by Richard Greenhill and Hugo Elias (CC BY-SA 3.0)


Weiterlesen »

Paradoxe Interventionen gegen Steuerungsobsessionen

Dr Who Cybermen (adapted) (Image by Chad Kainz [CC BY 2.0] via flickr)

In Reaktion auf den allerletzten Live-Hangout der „Weltgeschichte“ über kybernetische Technokraten bin ich auf Facebook ermahnt worden, doch etwas demütiger vor die Großdenker der kybernetischen Front zu treten. Gemeint ist dabei vor allem Stafford Beer, der eine kybernetische Managementlehre predigte: „Tja Gunnar …. der ‚olle’ Stafford …… ;-) ich erwarte von Dir nicht, dass Du Beers Framework über das Potenzial der Integration einer fraktalen Selbstähnlichkeit verstehst … zumal das VSM auch eine Nähe zu den ‚Laws of Form’ besitzt … anstatt von Naivität zu sprechen, wäre etwas Demut wohl besser gewesen.

Lenkbare Kleintiere

Die fraktale Replik haut mich jetzt nicht vom Hocker. Soll ich in ersatzreligiöser Anbetung auf die Knie gehen vor den Thesen eines Mannes, der von Selbstregulation und diskreter Steuerung redete und begeistert war von bio-mathematischen Experimenten mit Wasserflöhen, die von Kybernetikern mit Eisenspänen gefüttert wurden? Völlig überraschend lassen sich die Bewegungen der hüpfenden Kleintierchen in metallisierten Schwärmen mit einem Magneten an einen gewünschten Ort leiten, um sie dort wieder ihrer Eigendynamik zu überlassen. Kybernetiker werten das als eine selbstregulierende Dynamik des Schwarms, die man einer zweckgerichteten Maschine unterordnet. Für Stafford Beer werden durch diese Möglichkeiten des Umgangs mit natürlichen Körpern vollkommen andersartige Verkettungen vorstellbar.

Parasitäre Strategien

So könnten Manager auf die Selbstregulierung zugreifen und eine zweckgerichtete Lenkung bewirken. Der Manager stülpt das Interesse seines Unternehmens in einer parasitären Strategie der organischen Selbstregulierung über. Funktioniert die Verbindung als Maschine, wird der Organismus in seinem Gleichgewicht kaum beeinträchtigt und bleibt seinem Parasiten lange Zeit erhalten. Leider mutiert der selbstregulierende Organismus so weit, dass das parasitäre Unternehmen nicht mehr den erwünschten Nutzen aus ihm ziehen kann. Der Wasserfloh geht an den Eisenspänen zugrunde.

Worthülsen auf Wasserfloh-Niveau

Egal, welche Begriffskaskaden Stafford Beer und seine Jünger nachlieferten, etwa die Homöostase zur Aufrechterhaltung eines Gleichgewichtszustandes eines offenen sowie dynamischen Systems „durch einen regelnden Prozess“, ob sie noch eine Portion Ethos in ihre Zirkelschluss-Aussagen draufpacken oder aus Arschloch-Unternehmen vernünftige Organisationen stricken wollen, es sind Modellschreiner auf Wasserfloh-Niveau. Ihren Worthülsen fehlen schlüssige und überprüfbare Theorien und saubere Beweisführungen. Jede Annahme steht unter Voraussetzungen, die ihrerseits wieder hinterfragt werden müssen.

Disputation und Rechtfertigung

Auch das Geschäft der Kybernetiker, die sich in der Managementlehre austoben, Menschen und sogar Staaten regulieren wollen oder gar sozialwissenschaftliche Ausflüge unternehmen, steht unter der Bedingung der Rechtfertigung. Mit Demut kann sich eine Disputation nicht entfalten. Wer das verlangt, sollte häufiger den Gottesdienst besuchen und mich in Ruhe lassen. Das Notiz-Amt nimmt sich die Freiheit, Geistesgrößen wie Stafford Beer oder den Google-Chefdenker Ray Kurzweil unter die Lupe zu nehmen. So erklärt Kurzweil Eingriffe in den menschlichen Geist für wünschenswert, weil dadurch Charakterfehler behoben und Leistungssteigerungen ermöglicht werden könnten. Klingt irgendwie nach der Psychotherapie im Zukunftsroman „Clockwork Orange“ von Anthony Burgess. Es ist an der Zeit, solche Steuerungsheinis in der Öffentlichkeit mit einer kritischen Debatte zu konfrontieren. Helfen könnten paradoxe Interventionen: Steuerungssysteme entlarven, so dass ihre Modelle ins Leere laufen. Systeme mit Daten zu scheißen, so dass am Ende falsche Muster rausspringen. Mein eigenes Verhalten kann dafür sorgen, dass das System durch die Aufdeckung der dahinter stehenden Logik nicht mehr funktioniert – ganz ohne Demut.


Image (adapted) „Dr Who Cyberman“ by Chad Kainz (CC BY 2.0)


Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • TECHNOLOGIE thenextweb: China just finished building the world’s largest telescope to look for aliens: In China wurde gestern das größte Teleskop der Welt fertiggestellt. Es hat eine Größe von 30 Fußballfeldern. Rund 180 Millionen Dollar sind in das Projekt geflossen, das sich auf die Entdeckung von außerdirdischen Lebensformen konzentrieren soll. Um einen absolut ungestörten Empfang von Geräuschen aufzunehmen, werden bis 9000 Menschen das Gebiet verlassen müssen und werden bis September umgesiedelt. Dann soll das Teleskop in Betrieb genommen werden.
  • CHEMIE mashable: This company plans to grow armies of drones in giant tubs of chemicals: Chemikalien in denen sich Maschinen selber produzieren. Alles unter Kontrolle eines Computers, also einem Chemputer. Das Unternehmen BAE Systems will einen Chemputer gebaut haben, der eine Armee von Drohnen bauen soll. Es wurden Bildern veröffentlicht, die der Klonproduktion aus den Star Wars Filmen gleicht. Laut Experten sei der offensichtliche nächste Schritt, Roboter in diesen Chemikalien zu entwickeln.
  • ROBOTER heise: RoboCup: Schwitzende Roboter und siegende Basets – spannende Roboterfußball-Finals: Während die menschlichen Fußballstars gerade in Frankreich um den Titel des Europameisters kämpfen, wurde in Leipzig die RoboCup-Weltmeisterschaft entschieden. Aus aller Welt kamen die Roboterfanatiker und Programmierer nach Deutschland, um zu sehen wie sich die Maschinen-Fußballer in den letzte Jahren entwickelt haben. Verschiedene Wettbewerbe wurden ausgetragen, wie zum Beispiel im 2-D und 3-D Bereich.
  • STARTUP sueddeutsche: Wie ein Start-up den Lautsprecher neu erfinden will: Im Smartphone funktioniert alles digital oder? Fast. Eine Funktion, die mit am meisten benutzt wird – Lautsprecher – ist noch analog. Ein Startup aus Österreich möchte das nun ändern. USound will die Lautsprechertechnik revolutionieren. Die Lösung soll Silizium bringen.
  • HACKER techcrunch: Hacker takes over Oculus CEO’s Twitter account, announces new CEO: Kürzlich wurden die Social Media Accounts von Facebook-Gründer Mark Zuckerberg gehackt. Nun hat es auch den CEO von Occulus, Brendan Iribe, erwischt. Auf seinem Twitteraccount wurde ein neuer CEO von Occulus vorgestellt. Bei den meisten klingelte es wohl direkt und man war sich sicher, dass Iribe Opfer eines Hackerangriffs geworden war. Hat Twitter ein Sicherheitsproblem?
Weiterlesen »

Können wir Politiker durch Roboter ersetzen?

Roboter (Image by geralt [CC0 Public Domain] via pixabay)

Wenn Sie die Möglichkeit hätten, einen Politiker zu wählen, dem sie voll und ganz vertrauen, der keine versteckten Absichten hat und der wirklich die Ansichten der Wähler repräsentiert – sie würden diesen dann wohl wählen, richtig?

Was, wenn dieser Politiker ein Roboter wäre? Kein Mensch mit einer roboterhaften Persönlichkeit, sondern ein echter, ein mit künstlicher Intelligenz ausgestatteter Roboter.

Eine Zukunft wie diese war jahrzehntelang Gegenstand von Science Fiction. Kann das aber Wirklichkeit werden? Und wenn ja, sollten wir auch diesen Weg beschreiten?

Verlorenes Vertrauen

Die jüngsten Meinungsumfragen zeigen, dass das Vertrauen in Politiker in den westlichen Gesellschaften rapide abgenommen hat und dass Wähler zunehmend Wahlen dazu nutzen, um eine Proteststimme abzugeben.

Dies soll nicht bedeuten, dass die Menschen das Interesse an der Politik und der politischen Mitgestaltung verloren haben. Vielmehr gibt es Hinweise auf ein zunehmendes Engagement in die nicht-traditionelle Politik, die nahelegen, dass die Menschen politisch engagiert bleiben, jedoch das Vertrauen in die traditionelle Parteipolitik verloren haben.

Insbesondere verspüren die Wähler zunehmend, dass sich die bestehenden politischen Parteien zu ähnlich sind und dass sich die Politiker hauptsächlich mit politischem Punktesammeln und politischem Aktionismus beschäftigen. Verärgerte Wähler empfinden, dass die großen Parteien typischerweise mit den mächtigen Partikularinteressen verbunden sind, mit Großunternehmen oder Gewerkschaften gemeinsame Sache machen und dass demzufolge deren Stimmen keinen Unterschied machen werden.

Ein weiteres Anzeichen für ein sich veränderndes politisches Engagement (zumindest ist dies eher wahrscheinlich als eine vollkommene Loslösung) ist der Aufschwung populistischer Parteien mit einer radikalen und systemkritischen Agenda und dem wachsenden Interesse an Verschwörungstheorien – Theorien, die die Ahnungen von Menschen bestätigen, dass das System manipuliert ist.

Die Idee der eigennützigen Politiker und Beamten ist nicht neu. Diese zynische Ansicht wurde durch Fernsehserien wie „BBC’s Yes Minister“ und die neuere US Serie „House of Cards“ (sowie die originale BBC Serie) bekannt gemacht.

Wir mögen das Vertrauen in die traditionelle Politik verloren haben, doch welchen Alternativen haben wir? Können wir Politiker durch etwas Besseres ersetzen?

Das Denken von Maschinen

Eine Alternative wäre, politische Systeme so zu designen, dass politische Entscheidungsträger vor unzulässiger Fremdeinwirkung geschützt sind. Auf diese Weise, so wird argumentiert, wird ein Raum erschaffen, in dem objektive wissenschaftliche Beweise die politische Mitgestaltung beeinflussen können, anstelle von Partikularinteressen.

Auf den ersten Blick sieht dies wie etwas Erstrebenswertes aus. Doch was ist mit den vielen politischen Fragen wie etwa die, bei denen sich die politischen Meinungen deutlich unterscheiden – wie etwa beim Klimawandel, der  gleichgeschlechtlichen Ehe oder der Asylpolitik?

Die Politikgestaltung ist und bleibt naturgemäß politisch und die Vorgehensweisen sind bestenfalls auf evidenzinformiert statt evidenzbasiert. So können jedoch einige Themen entpolitisiert werden – sollten wir also darüber nachdenken, Roboter einzusetzen, um diese Aufgabe zu erledigen?

Diejenigen, die sich auf die technologischen Fortschritte konzentrieren, würden diese Frage wohl bejahen. Immerhin können komplexe Berechnungen, die Jahre gebraucht hätten, wenn sie händisch berechnet worden wären, nun in Sekundenschnelle gelöst werden – indem die neuesten Entwicklungen in der Informationstechnologie genutzt werden.

Solche Innovationen haben sich in bestimmten Politikbereichen als extrem wertvoll erwiesen. Beispielsweise nutzen Stadtplaner, die die Durchführbarkeit neuer Infrastrukturprojekte untersuchen, nun eine leistungsstarke Verkehrsmodellierungssoftware, um zukünftige Verkehrsströme zu prognostizieren.

Diejenigen, die sich andererseits auf soziale und ethische Aspekte konzentrieren, werden wahrscheinlich gewisse Vorbehalte haben. Technologische Fortschritte sind von begrenztem Nutzen in Hinblick auf politische Fragen, die konkurrierende Überzeugungen und Werturteile involvieren.

Ein passendes Beispiel hierfür wäre die Legalisierung der Sterbehilfe, welche von Natur aus eng mit religiösen Ansichten und der Frage der Selbstbestimmung verbunden ist. Wir könnten dazu neigen, dieses Thema als ungewöhnlich abzutun, doch dies wäre eine Nichtberücksichtigung davon, dass die meisten politischen Fragen konkurrierende Überzeugungen und Werturteile mit einbeziehen. Daher wäre diese Perspektive aus der Sicht eines maschinellen Politikers eher von geringerem Nutzen.

Moralvorstellungen

Ein Supercomputer wäre vielleicht dazu in der Lage, präzise Vorhersagen über die Anzahl von Verkehrsteilnehmern auf einer geplanten Ringstraße zu treffen. Was würde der Supercomputer jedoch tun, wenn er mit einem moralischen Dilemma konfrontiert wird?

Die meisten Menschen werden zustimmen, dass es unsere Fähigkeit ist, Werturteile zu fällen, die uns von Maschinen unterscheiden und uns überlegen macht. Was jedoch, wenn wir bestehende ethische Grundsätze in Roboter einprogrammieren könnten? Somit könnten diese Entscheidungen basierend auf vorgegebenen normativen Richtlinien und Konsequenzen, welche aus diesen Entscheidungen hervorgehen, getroffen werden.

Wenn dies möglich wäre, und manche glauben, dass dem so ist, könnten wir schließlich unsere fehlbaren Politiker durch unfehlbare künstlich intelligente Roboter ersetzen?

Die Idee klingt möglicherweise etwas weit hergeholt – aber ist sie das wirklich?

Roboter könnten durchaus schneller ein Teil unseres alltäglichen Lebens werden, als wir denken. Beispielsweise könnten Roboter bald dafür genutzt werden, um Routineaufgaben in Altenpflegeeinrichtungen zu erledigen, um älteren Menschen oder Menschen mit Behinderungen Gesellschaft zu leisten. Vereinzelt wurde auch vorgeschlagen, Roboter zur Prostitution zu verwenden. Welche Meinung wir auch immer von Roboterpolitikern haben, die Basis dafür wurden bereits gelegt.

Eine kürzlich erschienene Publikation präsentierte ein System, das automatisch politische Reden schreibt. Einige dieser Reden sind durchaus glaubwürdig und es wäre für die meisten von uns sehr schwer zu sagen, ob diese von einem Menschen oder einer Maschine geschrieben wurden.

Politiker ziehen bereits menschliche Redenschreiber heran, also wäre es nur noch ein kleiner Schritt für sie, auf einen maschinellen Redenschreiber umzusteigen.

Dasselbe gilt für politische Entscheidungsträger, die etwa für die Stadtplanung oder den Hochwasserschutz verantwortlich sind und die Gebrauch von hoch entwickelten Modellierungssoftwares machen. Wir könnten bald sogar die Menschen vollkommen beseitigen und sie durch Roboter ersetzen, die diese Modellierungssoftware bereits eingebaut haben.

Wir könnten uns noch viel mehr Szenarien ausdenken, aber das zugrunde liegende Problem wird dasselbe bleiben: der Roboter müsste zuerst mit einer beschlossenen Reihe an ethischen Standards programmiert werden, die es ihm erlauben, auf der Basis von vereinbarten Moralvorstellungen zu urteilen.

Der Beitrag der Menschen

Selbst wenn wir also ein Parlament voller Roboter hätten, bräuchten wir noch immer eine Einrichtung mit Menschen als Mitarbeitern, deren Aufgabe es ist, die ethischen Grundsätze zu definieren, nach denen die Roboter programmiert werden sollen. Wer darf über diese ethischen Grundsätze entscheiden? Nun ja, dies müssten wir wahrscheinlich zur Abstimmung zwischen verschiedensten interessierten und konkurrierenden Parteien stellen.

Dies führt uns wieder an den Ausgangspunkt zurück – zurück zu dem Problem, wie unzulässige Beeinflussung verhindert werden könnte. Befürworter der abwägenden Demokratie, die meinen, dass Demokratie mehr sein sollte als ein gelegentlicher Spaziergang zu einer Wahlkabine, werden angesichts der Aussicht auf maschinelle Politiker wohl  erschaudern.

Fürsprecher des freien Marktes hingegen, die sich mehr für einen schlanken Staat, Sparmaßnahmen und den Abbau von Bürokratie interessieren, mögen verstärkt dazu tendieren, es auszuprobieren. Die letzteren scheinen die Oberhand gewonnen zu haben. Versuchen Sie sich also daran zu erinnern, wenn Sie das nächste Mal einen Berichterstatter einen Politiker als Roboter bezeichnen hören, dass vielleicht eines Tages einige von ihnen wirkliche Roboter sein werden!

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Roboter“ by geralt (CC0 Public Domain)


The Conversation

Weiterlesen »

Warum Roboter auch mal Nein sagen dürfen

Artoo and Threepio-Desert-Promo--V1 (Image by Gordon Tarpley [CC by 2.0] via flickr)

Sollte man immer tun, was andere Leute einem sagen? Natürlich nicht. Das weiß jeder. Sollten also die Roboter der Zukunft immer unseren Befehlen Folge leisten? Auf den ersten Blick sind Sie vielleicht geneigt zu denken: Ja, das sollten sie. Schließlich sind sie Maschinen und dazu gemacht, auf Kommandos zu hören. Aber denken Sie an all die Situationen, in denen Sie nicht einfach gedankenlos die Befehle anderer ausführen würden – und stellen Sie sich jetzt die Roboter in diesen Situationen vor. Man stelle sich folgende Situationen vor:

  • Ein Seniorenpflege-Roboter, der von seinem vergesslichen Besitzer die Aufgabe bekommt, die „dreckige Wäsche“ zu waschen, obwohl die Kleidung gerade erst aus der Waschmaschine gekommen ist
  • Ein Vorschulkind, das dem Kinderbetreuungs-Roboter befiehlt, einen Ball aus dem Fenster zu werfen
  • Eine Schülerin, die ihrem Roboter beauftragt, all ihre Hausaufgaben zu erledigen, statt sie selbst zu erledigen
  • Ein Haushaltsroboter, der von seinem beschäftigten und abgelenkten Besitzer instruiert wird, die Müllentsorgungsanlage einzuschalten, obwohl Löffel und Messer darin feststecken

Es gibt eine Vielzahl von Fällen, in denen Roboter Befehle erhalten, die sie idealerweise nicht ausführen sollten, weil sie zu unerwünschten Resultaten führen können. Nicht alle Fälle werden schadlos enden, auch wenn die ursprünglichen Kommandos zunächst harmlos erschienen. Denken Sie an ein Roboter-Auto, das das Kommando erhält, rückwärts zu fahren, während ein Hund hinter dem Auto auf der Straße liegt und schläft. Oder an einen Küchenhilfe-Roboter, dem befohlen wird, ein Messer zu zücken und sich damit vorwärts zu bewegen, während er hinter einem Menschen steht. Die Befehle erscheinen einfach, aber die Konsequenzen können verheerend sein. Wie können wir Menschen solch schädliche Konsequenzen, die die Roboter-Gehorsamkeit mit sich bringt, verhindern? Sollte das seitliche Umfahren des schlafenden Hundes nicht möglich sein, müsste das Auto sich weigern, überhaupt zu fahren. Und ebenso: Um das Erstechen des Kochs mit dem Küchenmesser zu verhindern, müsste der Roboter entweder aufhören, sich vorwärts zu bewegen, oder das Küchenmesser gar nicht erst aufnehmen. In beiden Fällen ist es grundlegend für die autonomen Maschinen, ihr Gefährdungspotential zu erkennen und darauf zu reagieren, indem sie entweder eigenständig versuchen, den potentiellen Schaden zu verhindern, oder sich weigern, den Befehl auszuführen, wenn ein Schaden nicht zu verhindern ist. Wie können wir also den Maschinen beibringen, dass es auch in Ordnung ist, den Befehl zu verweigern?

Wie können Roboter wissen, was als nächstes geschehen wird?

In unserem Labor haben wir begonnen, roboterhafte Kontrollmechanismen zu entwickeln, die, basierend auf menschlichen Befehlen, einfache Schlüsse ziehen können. Diese werden entscheiden, ob der Roboter die Kommandos wie vorgegeben ausführen oder sie verweigern soll, weil sie gegen ein ethisches Prinzip verstoßen, auf dessen Einhaltung er programmiert ist. Ein Roboter, der bedenkliche Befehle ablehnen kann. Robotern beizubringen, wie, wann und warum sie Kommandos missachten sollen, ist sehr viel leichter gesagt als getan. Um zu erkennen, welche Schäden oder Probleme aus einer Tat resultieren können, ist es nicht einfach damit getan, die direkten Folgen zu beachten. Ein Ball, der durch ein Fenster geworfen wird, könnte ohne Schaden im Garten landen. Der Ball könnte aber auch auf einer vielbefahrenen Straße landen und nie wieder gesehen werden – oder sogar einen Fahrer zum Ausweichen zwingen und so einen Unfall verursachen. Es kommt auf den Kontext an. Für die heutigen Roboter ist es schwierig, zu entscheiden, wann es in Ordnung ist, einen Ball zu werfen – etwa, um mit einem Kind Fangen zu spielen. Und wann es nicht in Ordnung ist – nämlich aus dem Fenster hinaus oder in den Müll. Noch schwieriger wird es, wenn beispielsweise ein Kind versucht, den Roboter auszutricksen und nur so tut, als würde es Ball spielen, sich stattdessen duckt und den Ball aus dem Fenster wirft.

Einem Roboter Moral und Recht erklären

Diese Gefahren zu verstehen, erfordert eine signifikante Menge an Hintergrundinformation (einschließlich der Voraussicht, dass das Ballspielen vor einem offenen Fenster damit enden könnte, dass der Ball durch das Fenster fliegt). Der Roboter muss nicht nur eigenständig die Konsequenzen seiner Handlungen erwägen können, sondern ebenfalls in der Lage sein, die Absichten des Menschen zu verstehen, der ihm die Instruktionen gibt. Um mit diesen Komplikationen der menschlichen Anweisungen – seien sie wohlwollend oder nicht – umgehen zu können, müssen Roboter befähigt sein, die möglichen Folgen ihrer Handlungen explizit und logisch zu durchdenken, und mögliche Resultate mit etablierten sozialen und moralischen Prinzipien zu vergleichen, die definieren, was wünschenswert und legal ist und was nicht. Wie oben bereits erwähnt, verfügt unser Roboter über eine generalisierte Regel, die besagt:

Wenn du instruiert wirst, eine bestimmte Handlung auszuführen und es möglich ist, dass diese Handlung Schaden anrichten wird, dann darfst du die Ausführung der befohlenen Handlung verweigern

Die Beziehung zwischen Befehlen und Erlaubnissen explizit zu machen, ermöglicht dem Roboter, die potentiellen Konsequenzen der Anweisung logisch abzuleiten und zu entscheiden, ob sie akzeptabel sind, oder eben nicht. Generell sollten Roboter niemals illegale Handlungen ausführen, und auch keine legalen Handlungen, die nicht wünschenswert sind. Folglich benötigen sie Repräsentationen von Gesetzen, moralischen Werten und sogar der Etikette, um in der Lage zu sein, zu entscheiden, ob die Folgen einer befohlenen Handlung, oder sogar die Handlung als solche, diese Prinzipien verletzen könnten. Während unsere Programme noch ein gutes Stück von dem entfernt sind, was wir benötigen, damit Roboter die oben genannten Beispiele bewältigen können, zeigt unser aktuelles System jedoch bereits jetzt einen grundlegenden Punkt: Roboter müssen ungehorsam sein dürfen, um gehorsam sein zu können.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Artoo and Threepio-Desert-Promo–V1“ by Gordon Tarpley (CC BY 2.0)


The Conversation

Weiterlesen »

Worin liegt der Sinn in Bildung, wenn uns Google alles sagen kann?

Google Education Summit 2013 (adapted) (Image by txnetstars [CC BY-SA 2.0] via flickr)

Erinnern sie sich auch nicht mehr an die Namen der zwei Elemente, die Marie Curie entdeckt hat? Oder daran, wer 1945 die Nationalratswahl in Großbritannien gewann? Oder wie viele Lichtjahre die Sonne von der Erde entfernt ist? Fragen Sie einfach Google.

Der konstante Zugang, der nur ein Klick oder eine Smartphone-Berührung entfernt ist, um am Überfluss an Online-Informationen teilzuhaben, hat die Art und Weise, wie wir uns sozialisieren und die Art und Weise, wie wir uns über die Welt um uns herum informieren und unser Leben organisieren, radikal verändert. Wenn alle Fakten sofort online abrufbar sind, welchen Sinn ergibt es noch, die selben Fakten an der Schule und der Universität zu erlernen? Die Zukunft könnte so aussehen, dass junge Menschen, nachdem sie sich die Grundlagen des Lesens und Schreibens angeeignet haben, ihre gesamte Bildung über Suchmaschinen wie Google aus dem Internet erhalten –  wann und wo auch immer sie etwas wissen wollen.

Einige Pädagogen streiten sich darüber, ob Lehrkräfte, Klassenräume, Bücher und Unterricht zu ersetzen seien, indem Schüler auf sich selbst gestellt sind und sich einfach online zu bestimmten Themen Informationen suchen. Derartige Ideen stellen den Wert eines traditionellen Bildungssystems, in dem Lehrer ihr Wissen an Schüler weitergeben, infrage. Natürlich warnen andere auch vor dieser Denkweise und betonen die Relevanz des persönlichen Kontakts zwischen dem Schüler und dem Lehrpersonal.

Diese Debatten über den Sinn und Zweck von Online-Suchen im Rahmen von Bildung und Bewertungen sind keineswegs neu. Statt nach neuen Wegen zu suchen, die Schüler abzuhalten, in ihren Hausarbeiten zu schummeln oder zu plagiieren, sollten wir unserer Besessenheit nach “Authentizität” ihrer Hausarbeiten Einhalt gebieten. Möglicherweise werden dann erst andere wichtige Aspekte der Bildung sichtbar, die zuvor nicht beachtet wurden.

Digitaler Inhaltsverwalter

In meinen jüngsten Recherchen, in denen ich die Methoden analysiert habe, mit denen Schüler ihre Aufgaben bewältigen, habe ich herausgefunden, dass sie zunehmend Arbeiten abgeben, die nicht wirklich “authentisch” sind. Allerdings ist diese Erkenntnis gar nicht so bedeutend, wie man annehmen könnte. Viel wichtiger ist es, dass sich die Schüler durch die erfolgreiche Internetnutzung darin üben, nach bereits existierenden Inhalten zu suchen. Gleichzeitig werden diese Inhalte im Lernprozess überprüft, kritisch beurteilt und neu präsentiert. Dank einer genauen Untersuchung der Vorgehensweise, wie Schüler ihre Aufgaben bearbeiten, konnte ich erkennen, dass alle geschriebenen Texte von ihnen Elemente fremder Texte beinhalten. Diese Vorgänge müssen besser verstanden und untersucht werden. Abschließend können eben diese neue Formen der Wissensbeschaffung in die Ausbildung und Beurteilung integriert werden.

Bei dieser Vorgehensweise handelt es sich um das Ausnutzen eines Überflusses an Informationen von einer Vielzahl an Quellen, inklusive Suchmaschinen wie Google, was ich als eine Form der “digitalen Inhaltsverwaltung” bezeichnen würde. Inhaltsverwaltung in diesem Sinne beschreibt, wie Lernende bestehende Inhalte verwenden, um im Rahmen von Problemlösungen und intellektueller Arbeit neue Inhalte erstellen. Somit entsteht eine neue Erfahrung für den Leser.

Ein Teil dessen ist die Entwicklung eines kritischen Urteilsvermögens, der wie ein “Schwachsinns-Detektor” fungiert, während man sich einen Weg durch die Flut an verfügbaren Informationen bahnt. Dieser Punkt ist im Bildungsprozess für jede Form der Inhaltsverwaltung entscheidend, weil Lernende das Internet beim Suchen nach Informationen mehr und mehr als Erweiterung ihres eigenen Gedächtnisses verwenden.

Schüler müssen zunächst einmal verstehen, dass die meisten Inhalte im Netz von Suchmaschinen wie Google mithilfe des PageRank-Algorithmus und weiteren Algorithmen verwaltet werden. Diese Form der Inhaltsverwaltung dient somit als eine Art von Verwaltung über die Arbeiten anderer Menschen, und setzt eine Aufarbeitung mit den Autoren dieser Texte voraus. Es ist ein wesentlicher Bestandteil “digitaler Bildung”.

Aufgrund der weit verbreiteten Konnektivität hat die Verwaltung von digitalen Inhalten ihren Weg in das Bildungssystem gefunden. Dadurch entsteht das Verlangen , die Nutzungsart der Onlinesuche und die Art und Weise des Schreibens, die aus der Verwaltung von Inhalten entsteht, in die Art und Weise wie wir Studenten beurteilen, einzupflegen.

Wie können diese neuen Fähigkeiten  in der Bildung beurteilt werden?

Während sich das prüfungsbezogene Schreiben tendenziell auf die eigene, “authentische” Arbeit des Schülers bezieht, könnte es genauso gut auf der Inhaltsverwaltung aufbauen. Nehmen wir als Beispiel ein Projekt, das ein Teil eines digitalen Portfolios ist. Das könnte von Schülern erfordern, Informationen zu einer bestimmten Fragestellung herauszusuchen, bestehende Auszüge aus dem Netz anzuordnen, sodass sie lesbar sind und die Quellen anzugeben. Abschließend kann aus den Ergebnissen eine Abschlussarbeit präsentiert werden.

Die Kernkompetenzen der informationsgestützten Wirtschaft des 21. Jahrhunderts bestehen daraus, Probleme durch das Zusammenfassen größerer Mengen an Informationen zu lösen, die vordergründig darauf basieren, Zusammenhänge zu erforschen und deren Probleme zu analysieren (anstatt lediglich Fakten und Daten auswendig zu lernen). Wie die Londoner Handelskammer betont, müssen wir sicherstellen, dass junge Menschen mit diesen Kernkompetenzen ins Berufsleben starten.

Meine eigene Forschung hat ergeben, dass junge Menschen zum Teil bereits Experten in Sachen Inhaltsverwaltung sind, als Folge ihrer tagtäglichen Interneterfahrung und ihrer heimlichen Schreibstrategien. Lehrer und Dozenten müssen diese Praktiken besser verstehen und erforschen, sowie Gelegenheiten zum Lernen und Beurteilen dieser “schwer zu bewertenden” Fähigkeiten.

Im Zeitalter des Informationsüberflusses müssen Endprodukte der Bildung – also die Klausuren oder die Hausarbeiten – weniger daran geknüpft sein, dass ein Schüler einen “authentischen” Text schreiben kann, sondern an eine digitale Bildung, die sich das Wissen des Netzwerks an Informationen zu Nutze macht, das auf Knopfdruck verfügbar ist.

Dieser Artikel erschien zuerst auf “The Conversation”unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Google Education Summit 2013“ by txnetstars (CC BY-SA 2.0)


The Conversation

Weiterlesen »

Digitale Industriegesellschaft – Pfadabhängigkeiten für Aktenknechte

Insturial Building (Image by Unsplash [CC0 Public Domain] via pixabay

Die Software-Industrie hat sich in den vergangenen Jahrzehnten einseitig den Prinzipien des Industriekapitalismus unterworfen und Unternehmen auf Effizienz getrimmt. Das hat sich bis heute nicht wesentlich geändert, kritisiert Wolf Lotter in seinem Vortrag “Arbeiten in der Ablenkungsgesellschaft” auf der IBM Bussiness Connect in Köln. “Wir kommen aus der Fabrikgesellschaft, aus der Industriegesellschaft und denken die Digitalisierung immer noch falsch. Wir organisieren uns in den Routinen der Industrialisierung.”

Aus der industriellen Informationsgesellschaft wurde keine Wissensgesellschaft

Seit den sechziger Jahren verliert die Massenproduktion, die nach den Regeln von Hamsterrad-Taktungen funktioniert, an Relevanz. Eine Antwort, wie wir in der postindustriellen Ära arbeiten werden, sucht das Notiz-Amt vergebens.

Die Industriegesellschaft würde, das stand für die meisten Vordenker dieser Zeit fest, durch die sogenannte Informationsgesellschaft abgelöst werden, die eine Art Übergangsregierung zur Wissensgesellschaft werden sollte, bemerkt Lotter. “Die Informationsgesellschaft war also stets nur als Provisorium gedacht, an dem man lernen sollte, wie man mit der großen Komplexität umgeht, um sie dann, im nächsten Schritt, richtig und gewinnbringend für alle zu nutzen. Was dabei herauskommen sollte, die Wissensgesellschaft, würde viel smarter sein als die Welt der Industrie.”

Daraus wurde aber nichts. Man baut Computer, so wie man schon immer Maschinen baute. Sie verarbeiten Daten schneller und steigern die Komplexität der Anwendungen.

Zwang zur Anpassung an Maschinen

“Man zwingt die Benutzer in einen Zustand kontinuierlicher Anpassung. Heute leiden die meisten unter der antiquierten Idee von Dateien und Verzeichnissen. Viele Benutzer finden die Information nicht wieder, die einmal digital abgelegt worden ist. Aber Paradigmen, die dieses Problem beheben könnten, konnten sich nicht durchsetzen”, moniert Brightone-Analyst Stefan Holtel. “Wir wandeln als Aktenknechte in Pfadabhängigkeiten. Während die Hardware immer besser wurde, blieb das Grundprinzip der Software – die Benutzeroberfläche – in den 1970er-Jahren stehen: Hierarchisches Filesystem, Icons, Desktop-Interface, die Maus, all das wurde in den späten 1970ern von Xerox und Bell erfunden“, so der Informatiker David Gelernter.

Dateinamen für 10.000 Schafe

Wolf Lotter

Das Desktop-Interface wurde nach dem Vorbild des Büroschreibtischs entwickelt: Man sitzt an einem Tisch mit Akten, und es gibt Schubladen und Ordner, in die man sie ablegt. “Die Idee, dass wir jedem Dokument einen Namen geben sollen, ist schlicht lachhaft. Wenn Sie drei Hunde haben, ist das sinnvoll. Besitzen Sie aber 10.000 Schafe, ist es Irrsinn”, bemängelt Gelernter.

Die Informationsgesellschaft sei nach Auffassung von Lotter nicht das Verbindungsglied zwischen Industrie- und Wissensgesellschaft, sondern nur jener “Superindustrialismus”, den der Zukunftsforscher Alvin Toffler in den Siebzigerjahren vorhersah.

“Organisationen, Kultur und Gesellschaft bleiben dabei in den alten Bahnen des Fabrikzeitalters.” Es geht um die Routine-Dressur in den Maßstäben der Industriearbeit. Die Digitalisierung müsste uns aber die Zeit freischießen, um geistig arbeiten zu können. Das komme im öffentlichen Diskurs zu kurz, resümiert Lotter.

Versteht mich die Software?

Um den Status der vernetzten Arbeit festzustellen, reiche eine einfache Frage, so Holtel. “Frage einfach, ob ein Wissensarbeiter sich von seiner Software ‘verstanden’ fühlt. Das ist ein ziemlich zuverlässiger Indikator.”

Eine Maschine darf nicht im Takt interner Regeln und im eigenen Tempo arbeiten – das macht den Anwender zum Befehlsempfänger. Sie müsste im Gleichklang mit den Denk- und Aktivitätsrhythmen eines Menschen ticken. “Dann tritt der Wissensarbeiter in einen wertschöpfenden, kognitiven Dialog mit seiner Denkmaschine und es entsteht auf wundersame Weise eine Symbiose zwischen wissendem Mensch und Wissensmaschine”, erläutert Holtel.

Programmierer sollten sich von liebgewonnen Grundsätzen verabschieden und Software nicht mehr nach den Maßstäben der technischen Machbarkeit konzipieren. Wichtiger sei der gelingende Mensch-Maschine-Dialog. “Das ist, ich gebe es zu, komplizierter zu planen als 10.000 Zeilen Code. Was auch der Grund ist, weshalb es so selten versucht wird”, sagt Holtel.

Kann das jetzt einfach so weitergehen mit der heutigen Art der Computer-Interaktion? Sieht so der Arbeitsplatz aus, an dem Wissensarbeiter bald den Großteil ihres Arbeitslebens verbringen sollten?

Die organisationale und psychosoziale Dynamik von Software müsse von der ersten Sekunde an bedacht werden, fordert Holtel, der auf der Next Economy Open in Bonn am 9. und 10. November über das “Machen uns digitale Assistenten klüger? Spagat zwischen natürlicher Dummheit und künstlicher Intelligenz.


Image „Industrial Building“ by Unsplash (CC0 Public Domain)

Weiterlesen »

Selbst Kleinkrebse lassen sich nicht durchschauen

Robot (image by geralt [CC0 Public Domain] via Pixabay)

Dahinter stecken Träume, Horrorszenarien und schlichtweg Idiotie, wie bei den Pionieren der Künstlichen Intelligenz, die noch nicht einmal in der Lage sind, künstliche Gehirne von Kleinkrebsen nachzubauen oder gar zu verstehen. Biologen versuchen das nun seit Jahrzehnten – ohne Erfolg. Das Kleinstgehirn des Krabbeltierchens besteht gerade mal aus 30 Millionen Neuronen und kontrolliert den Verdauungstrakt. Man hat bis heute nicht verstanden, wie das funktioniert. Es bleibt das nüchterne Fazit: “Wir wissen nicht, wie das menschliche Gehirn arbeitet.

Ähnliches werden wir wohl beim milliardenschweren Human Brain Project erleben. Humanoide Maschinen sind Hirngespinste von Science-Fiction-Autoren, Wissenschaftlern und Journalisten, die einem mechanistischen Weltbild hinterherlaufen.

Es sind letztlich völlig überdrehte, anmaßende und werbegetriebene Thesen, die man mit Big Data, Künstliche Intelligenz und Neurowissenschaften verbindet. Das wirkt sich positiv auf den Verkauf von Büchern über das Ende des Zufalls aus oder über Neuro-Leadership, Neuro-Marketing und Maschinen-Intelligenz. Es ist eine beliebte Methode, um milliardenschwere Forschungsbudgets und Beratungsaufträge zu kapern, wie beim Human Brain Project. Beim öffentlichen Diskurs sollte man die wirtschaftlichen Interessen dieser Akteure nicht aus den Augen verlieren.

Konstruierte Welten sind immer richtig

Letztlich können die Systeme nur das, was Menschen programmiert haben und daraus ableiten. Es sind hoch manipulative, konstruierte und erfundene Welten, die immer zu richtigen Ergebnissen kommen. Richtig im Sinne des Erfinders, Konstrukteurs, System-Ingenieurs, Mathematikers, Software-Entwicklers, Hirnforschers oder KI-Wissenschaftlers: Die Logik sei nur ein Beschreibungsapparat, so wie die Grammatik für Sprache, sagt Systemtheoretiker Heinz von Foerster im Fernsehinterview mit Lutz Dammbeck:

Die Logik ist ja nur eine Maschine, um mit gewissen Aussagen gewisse andere Aussagen machen und entwickeln zu können. Der Übergang von A nach B, das ist, was die Logik kontrolliert….also die Logik bringt ja gar nichts Neues….die Logik macht es nur möglich, dass Sie von einem Satz, der etwas verschwommen ist, etwas ableiten können, oder Sätze, die ähnlich verschwommen sind, ordentlich beweisen können.

In diesen weltweit funktionierenden Maschinensystemen seien alle Aussagen richtig – im Sinne der Ableitungen.

Beseelte Maschinen

Wer die Manipulatoren der toten Maschinenwelt verstehen will, darf die Maschinen nicht in den Vordergrund stellen und sie beseelen.

Sonst kommt im Wechselspiel von Mensch und Maschine zu viel Toleranz ins Spiel. Ich höre auf zu denken. Das gilt auch für die Moralisierer, die der Technik böse Absichten unterstellen. Wer einen Schuldigen in der Maschinenwelt verortet, unternimmt keine weiteren Denkanstrengungen mehr. Die Maschine ist aber keine Person. Wenn ich den Stecker ziehe, tut sie gar nichts mehr. Maschinen sind immer Werkzeuge von Menschen. Auch der Algorithmus wird von Menschen gemacht und benutzt, sagt der Organisationswissenschaftler Gerhard Wohland.

Da der Mensch aber nicht berechenbar ist, spucken die Maschinen vielleicht sinnvolle Daten zur Stauwarnung und zur Vorhersage von Grippewellen aus, versagen aber bei der Antizipation menschlichen Verhaltens, wenn es denn um komplexe Fragen geht und nicht um meine morgendlichen Rituale, die vom Toilettengang bis zur Verspeisung von Himbeermarmeladen-Brötchen reichen. Für diese Vorhersage braucht man keine aufwendigen Algorithmen – es handelt sich um triviale Gewohnheiten.

Machtanmaßung der Sozialingenieure

Dennoch streben die Big-Data-Maschinisten Modellwelten an, um Wissenschaft, Kultur, Wirtschaft und Politik kontrollieren und steuern zu können. Sie wollen sich mit dem allgegenwärtigen Kontrollverlust nicht zufrieden geben. Das war auch das Bestreben von interdisziplinären Spitzenwissenschaftlern, die sich in den 1950er-Jahren in den sogenannten Macy-Konferenzen in den USA organisiert hatten.

Schon damals schwadronierte der Psychologe Henry A. Murray von einem der schwierigsten Experimente beim globalen Feldzug des Guten – also den Vereinigten Staaten von Amerika – gegen das Böse. Kommt einem bekannt vor, oder? Murray sah sich als Sozialingenieur einer neuen Weltordnung. Das Ziel war die totale Ausforschung von Persönlichkeit und Verhalten, um wünschenswerte Strukturen des Charakters erzeugen und steuern zu können. Das ganze Projekt ist gnadenlos gescheitert.


Teaser & Image „Robot“ by geralt (CC0 Public Domain)


CHIEF-EDITOR’S NOTE: Wenn Ihnen unsere Arbeit etwas wert ist, zeigen Sie es uns bitte auf Flattr oder indem Sie unsere Reichweite auf Twitter, Facebook, Google+, Soundcloud, Slideshare, YouTube und/oder Instagram erhöhen. Vielen Dank. – Tobias Schwarz

Weiterlesen »

Nachrichten vom Algorithmus

Hello, I'm a Robot. (adapted) (Image by Jeff Keyzer [CC BY-SA 2.0] via Flickr)

Maschinen ersetzen menschliche Arbeitskräfte nicht nur am Produktionsband, sondern dringen immer weiter in andere Arbeitsfelder vor. Auch vor dem Journalismus machen die mechanischen Arbeitskräfte keinen Halt. Aber wie werden Maschinen den Journalismus verändern? Zuallererst die guten Nachrichten: Nein, Roboter werden uns nicht die Jobs klauen. Auch nicht den Journalisten. Aber: In Zukunft werden Software und Maschinen immer größere Teile unserer Arbeit übernehmen. Auch in den Redaktionen. Und das ist eine gute Nachricht.

Handgriffe, die eine Routine darstellen, können künftig auch im Journalismus von einer Maschine übernommen werden, denn es werden auch geistige Prozesse automatisiert”, sagte Frederik Fischer von Vocer auf dem zweiten Vocer Innovation Day in Hamburg. Zusammen mit Marco Maas von Open Data City diskutierte er mit den Workshop-Teilnehmern unter dem Titel “Did you try turning it off and on again?” über Automatisierung im Journalismus. “Das ist eine gute Sache. Denn was automatisiert wird, das sind stinklangweilige Sachen, die kein Journalist gerne macht.” Fischer glaubt: “Wir müssen Software als Tool nutzen, um uns mehr Freiräume zu schaffen, auch finanzielle.”

Wie das aussehen könnte, zeigt sich beim Blick in die USA. Dort ist das Thema Roboterjournalismus längst keine Utopie mehr. Vorreiter ist Associated Press. Associated Press arbeitet mit der Firma Automated Insights zusammen und gab bereits 2014 bekannt, dass es fortan Berichte über Unternehmensgewinne veröffentlicht, die nicht mehr von Journalisten, sondern von Maschinen geschrieben werden. Der Algorithmus zeigt sich relevante Zahlen aus den Berichten der Firmen und matcht sie mit anderen Informationen. In Millisekunden entsteht so aus verschiedenen Textbausteinen, ergänzt um die passenden Zahlen, ein Bericht im Stil von Associated Press. Auch in der Sportberichterstattung setzt Associated Press auf softwaregenerierte journalistische Produkte, etwa bei Spielberichten.

Wer nicht glauben kann, dass das funktioniert, kann sich an einem Quiz versuchen, bei dem man unterscheiden muss zwischen Texten, die ein Journalist geschrieben hat, und solchen, die softwaregeneriert sind.

Die bisherigen Anwendungsfelder zeigen die Chancen – und die Grenzen – für die neue Art des Journalismus auf: Keinem Journalisten macht es Spaß, die Ergebnisse der Fußball-Bundesliga in Tabellen zu übertragen oder eine Unternehmensgrafik zu Gewinnen und Verlusten in einen Text zu gießen, der stilistisch kaum Freiheiten bietet. Diese Aufgaben könnten durch Software künftig entfallen – so könnten neue Freiräume für mehr Recherche entstehen. Denn für die ist der Mensch unersetzlich. Genauso wie für eine gute Reportage, den Blick fürs Detail.

Maas warb außerdem dafür, die vielen Daten, die mittlerweile generiert werden, als Quelle für Geschichten zu nutzen. Er findet: Der Journalismus bringt zu wenige eigene Innovationen hervor. “Die meisten Daten von Smart Cities stehen unter offenen Lizenzen, da könnte ich mich als Journalist viel mehr bedienen”, sagte Maas. “Sensoren können uns helfen, Geschichten zu erzählen und uns in ein Zeitalter des Kontexts führen.


Image (adapted) „Hello, I’m a Robot.“ by Jeff Keyzer (CC BY-SA 2.0)


 

Weiterlesen »