Amicella

KOLUMNEN

Kolumne

Jörg WittkewitzLesetipps für den 2. März

Erlesene Links zu einigen Perlen im Web: Blogposts, Artikel und Nachrichten, die uns wichtig erscheinen. Ergänzungen erwünscht. Nutze Netzpiloten 1-Klick: Mit nur einem Klick werden dir bequem alle 40 Sekunden die hier besprochenen Seiten “vorgeblättert” START.

Jörg WittkewitzDavid Gelernter: Das Web als Strom


Da schau her, eben noch als Counterpart zu Schirrmachers Thesen auf der DLD im Panel “informavore”, heute schon assimiliert in der FAZ bzw. der FAS, der Boulevardausgabe der Frankfurter. Die Verdauung der Ansichten scheint eher einem Schlingen denn genüßlichem Kauen zu ähneln. Worum geht es? In seinem Buch versuchte Schirrmacher das Verhältnis des Menschen zu den digitalisierbaren Informationen, die aus ihm entweichen und in ihn eindringen, zu dokumentieren. Er fokussiert dabei auf die Organisation dieser Informationen, die sich seit Jahr und Tag die Informatiker quasi per Berufsbezeichnung auf die Fahnen geschreiben haben. Schirrmacher folgt ihnen darin und erweitert dieses Feld auf das Internet als Marktplatz und Informationsmaschinengewehr. Im Grunde fordert er einen Waffenschein für diese automatischen Buchstabenwaffen und stößt dabei oft auf Zustimmung manchmal aber auch auf Ablehnung.
Nun, Schutz der Privatsphäre ist für das Informations- und Wissenszeitalter, was Umweltschutz für das Industriezeitalter war. Es stört die Firmen beim Ausbeuten der (fast) kostenfreien Ressourcen, die zur Verfügung stehen. Es müsste sowohl Gelernter als auch Schirrmacher klar sein, dass allein die Wissenschaft täglich ganze Fantastillionen Informationseinheiten mehr produziert als gespeichert werden – die Naturwissenschaften mit ihren massiven Messapparaten sind an dieser Flut von Daten, die täglich ins Nirwana gekippt werden, nicht ganz unschuldig. Wer entscheidet also, welche Daten es wert sind, aufgehoben zu werden? Algorithmen? Wohl kaum.
Wenn dies das Informationszeitalter ist, worüber sind wir dann so gut informiert? Was wissen unsere Kinder, das unsere Eltern nicht wussten? Natürlich wissen sie mit ihren Computern umzugehen, aber das ist eine leichte Übung etwa im Vergleich damit, Auto zu fahren. David Gelernter
Diese Frage beinhaltet denselben Kategorienfehler, dem auch schon Schirrmacher erlegen ist. Es geht um ethische und ästhetische Fragen wie “gute” oder “erhabene” Datenakkumulation als Mehrwert einer Technologieplattform namens Internet. Sie glauben beide, dass das Netz den Überschuß produziere und dazu sei laut Schirrmacher so etwas wie Aufmerksamkeit das agens. Dabei war der Computer das Hilfsmittel, dass man erfand, um den enormen Anstieg an Daten, der durch die Arbeitsteilung in der Industrie entstand (Planung und Verwaltung der Ressourcen) irgendwie zu bändigen, ohne mehr Verwaltungsangestellte als Produktionsmitarbeiter zu haben. Dann folgte die Inflation der Physikdaten in den Experimenten durch neue Messgeräte, die ihrerseits wieder durch Speichermaschinen, die aus der Geschäftswelt kamen, beherrscht wurden.
Das Neue am Internet ist also vielmehr die Tatsache, dass man den Computer nicht einfach nutzt, um Datenberge abzuspeichern und per Datenbank zu katalogisieren, sondern man nutzt mit dem Web den PC als Mittel, eigene Daten aus dem persönlichen Umfeld ins Netz und damit der Welt zur Verfügung zu stellen. Man schreibt selbst und teilt es umgehend allen mit, die es mitlesen wollen. Diese kommunkative Seite wird weder bei Gelernter noch bei Schirrmacher als Chance gesehen, sondern als Informationsflut zweiter Ordnung, weil sie ja keinen offiziellen Grund hat. Man kann also nicht wie beim Large Hadron Collider in der Schweiz täglich Petabyte an Daten in der Orkus schicken, weil keiner einen Überblick hat, was alles an Daten entsteht – außer Google und Microsoft/Yahoo Bing.
Es schwingt also immer ein leichtes Unbehagen am Kontrollverlust mit, wenn man solche intellektuell gemeinten Texte über das Netz und das Informationszeitalter liest. Sie erklären nicht, warum die Gefahren des Internet so breit verteilt sind und gleichzeitig die Gewinne so derart stark konzentriert werden. Und so verfährt auch Gelernter in dem alten Schema des Oberlehrers, dass wir via Textverarbeitung mehr schreiben aber nicht besser. Auf den ersten Blick fällt auf, dass hinter diesem Allgemeinplatz entweder eine sehr dumme Erwartungshaltung steht (fahre ich mit dem neuen Auto besser?) oder aber eine grundsätzliche Angst einfach nur eine Rationalisierung gefunden hat (Alle fahren so neue Autos – ob die wirklich besser sind als mein altes, die haben doch auch nur 4 Reifen und ein Lenkrad?). Übrigens glaube ich nicht, dass Textverarbeitungen dazu geführt haben, dass wir mehr schreiben (Belege fehlen). Wenn überhaupt, lag das an der Einführung von E-Mail als schnellem und unkompliziertem Postwesen.
Und dann wird der Kategorienfehler von Schirrmacher und Gelernter offen angesprochen:
Aber es war immer schon schwieriger, die passende Person zu finden als die passende Tatsache. Die wertvollste Ressource, die im Internet zur Verfügung steht, ist die Erfahrung und das Wissen von Menschen. Selbst heute, wo uns das Schreiben leicht gemacht wird, wissen die Experten so viel mehr, als sie jemals schriftlich festhalten. David Gelernter
Ich erinnere mich noch an den unseligen Titel einer brandeins Ausgabe zum Thema Wissen (Wissen ist der erste Rohstoff, der sich bei Gebrauch vermehrt). Wissen oder gar Erfahrung sind keine Ressourcen. Letztere werden in Einheiten eingekauft, gelagert und dann dem Wertschöpfungsprozess zugeführt, wo sie unter Anwendung von manueller oder geistiger Arbeit zu einem Produkt veredelt werden. Genau dieses Veredeln der Ressourcen ist unter anderem im handwerklichen Geschick, im Wissen selbst und in der Erfahrung begründet. Im Internet aber steht davon nichts. Das Wissen entsteht im Menschen aktuell und individuell angesichts von Herausforderungen, Gelerntem und Erinnertem. Wer Wissen speichern will kann das tun: Er muss einfach nur Feuer kochen und Fische anhalten können. Wenn man das beherrscht kann man sich an höhere Aufgaben wie das Hören hören oder das Denken denken machen. Erst dann kann man versuchen individuelle und einmalige Zustände, die nur in der Zeit stattfinden, aus ihr heraus zu lösen und in einer weiteren Komplexitätsstufe, diese dann in einem universalen Medium zu speichern.
Das Internet ist voller gesammelter Daten, die eine Beobachtung dokumentieren und voller Meinungen der Nutzer. Google war nach Kenneth Culkier (s.u. das Interview vom economist) die erste Firma, die aus den Daten über die Datennutzung (Logdaten der Suchvorgänge) und mittels einer Mustererkennung über diese Suchgewohnheiten neue Einsichten erreichten. Culkier nennt das Beispiel der Falschschreibungen bei der Sucheingabe, die über die Zeit eine enorme gute Fehlerkorrektur ermöglichte, sodass man auf dieser Basis die bestmögliche Rechtschreibkorrektur für Dutzende Sprachen verkaufen könnte. Oder das Loggen der Seiten, die man aufgrund eines bestimmten Suchbegriffs aufsucht bzw. eben nicht aufsucht. All dies ist eine Information zweiter Ordnung, die vorher nicht möglich war, da Firmen und Nutzer das Verhalten der Menschen beim Umgang mit Dokumenten und enthaltenen Informationen nicht speichern wollten oder konnten – außer Firmen, die schon immer alles über ihre Kunden wussten wie Direktvertrieb oder der Versandhandel, der aber selten und nur extensiv Gebrauch davon machte und nicht ein ganzes Geschäftsmodell darauf aufbaute. Kurz: Google ist seine eigene Marktforschung ohne Probanden – dafür mit dem echten Leben und in direkter Abbildung aller aktuellen Trends. Klar, das Verlage so ein Herrschaftwissen verachten, es basiert nicht auf copytests sondern auf dem echten Verhalten echter Kunden.
Gelernter erkennt auf eine ebenso falsche wie einseitige Weise die Informationsflut. Er nutzt das übliche Modell aus der Nachrichten/Informationstheorie, das eigentlich den ganz jungen Studenten und Elektrikerazubis den Strom erklären soll, der von der Quelle zum Ozean fließt. So erklärt man den Unterschied zwischen Spannung und Stromstärke durch Rohre aus denen Wasser schießt, wobei dann die Stärke, die maximale Menge des Wassers ist, das pro Sekunde durch einen Teil des Rohrs fließt, also sozusagen der Rohrdurchmesser, und die Spannung enspricht dann dem Gefälle. Wenn man nun bei Information oder gar Wissen von Quellen und Mündungen spricht, muss man das Bild zu Ende führen. Dann wären die Konsumenten und Leser aber genau das, was man als Verwässerungseffekt bezeichnen könnte. Denn im Ozean verdünnt sich die Information recht schnell, genau wie irgendwelche Dinge, die man in einen Bach kippt. Das von Schirrmacher so ausführlich beschriebene Syndrom der Informationsflut und der einhergehenden Übermacht an Aufmerksamkeitsräubern wäre auf diese Weise nicht erklärbar. Tatsächlich ist das Bild also irreführend. Denn jede Information verändert nur dann den Menschen, wenn sie eine Differenz darstellt. Was keinen ausreichend großen Unterschied ausmacht, ist auch keine Information und wird als solche einfach nicht erkennt bzw. verarbeitet. Und die erhöhte Schlagzahl an Mitteilungen per twitter, Blogs oder Kommentare ist einfach nur ein Zeichen der breiteren Teilhabe an öffentlich geführten Gespräche, die aber zum geringsten Teil für die Öffentlichkeit bestimmt sind. Oft sind sie so privat, dass sie nur von wenigen überhaupt als Differenz erkannt und eingeordnet werden können.
Maschinentheoretiker und die Adepten der mechanisierten Welt bezeichnen diese Indifferenz als Rauschen. Offenbar ist ihnen nicht klar, dass Relevanz ein Dreisprung aus persönlicher Geschichte, persönlicher Erwartung und dem externen Angebot darstellt. Die Flut ist also nur für den eine Flut, der alle im Netz verteilte Information in einer Hyperneurose auf sich selbst bezieht. Dies ist wahrlich krankhaftes Verhalten. Aber die Ursache liegt weder im Netz, noch bei Google oder anderen Beteiligten im großen Prozess des ewigen Umherschaufelns von Information. Und dann kommt noch mehr Naivität oder gar fahrlässiger Unsinn ins Spiel:
Virtuelle Universitäten sind eine gute Sache, virtuelle Nationen nicht. Virtuelle Nationen, deren Angehörige irgendwo leben können, solange sie übers Internet miteinander verbunden sind, drohen die Menschheit wie eine Glaskugel in tausend tödliche Splitter zu zerbrechen. Von virtuellen Nationen haben wir bereits eine erste Vorstellung bekommen: Al Qaida hat sie uns vermittelt. David Gelernter
Was für ein Unsinn ist das? Es gibt Lesungen und Seminare, die als Kommunikationsmittel und gemeinsame Plattform des mündlichen und schriftlichen Erarbeitens das Web in derselben Weise nutzen wie die mittlerweile völlig überfüllten Hörsäle mit der Ergänzung einer speicherbaren Kommunikation. Man kann so thematisch und in einem überschaubaren Kreis ein Seminar effektiv und übersichtlich zu einem Ende bringen, wobei offline-Treffen eigentlich unabdingbar sind. Auch Videokonferenzen sind nicht das Allheimittel für nonverbales Einschätzen und Kennenlernen. Es gibt also nur virtuelle Seminare, die sogenannten virtuellen Unis haben sehr wohl manifeste Verwaltungen und normale Einstellungsgespräche oder Inkassoverfahren für das Eintreiben der Gebühren. Es ist also sehr wohl möglich, die Elemente der demokratischen Organisation von Bürgerbeteiligung aus den Parteien in bestimmte Onlineverfahren zu überführen. Dadurch werden die Ministerien und Botschaften nicht obsolet oder gar 100% virtuell. Gelernter verwechselt hier die Kontakt- und Austauschplattform mit den Institutionen. Al Qaida hat ohne lokale Institutionen vor Ort wie Finanzverwalter, lokale Organisatoren und Meetings gar keine Chance zu existieren. Das Netz ist nur einer der Wege um gemeinsames Handeln zu koordinieren. Früher hatte man eben nur die gseprochene Sprache per Funk oder Telefon sowie die langsamen Briefe, heute findet alles in einer Plattform statt und heißt Kollaboration. Der französische Widerstand im zweiten Weltkrieg ist genauso Schuld an Al Qiada wie das Web. Dezentrale Strukturen sind eben den zentralisierten überlegen, das war schon vor dem Siegeszug des Web klar. Diese Dinge zu vermischen ist schlicht einfältig.
Und kaum hat Gelernter diesen Aspekt des Web, also den Austausch von Meinungen zu einem gemeinsamen Handeln kurz gestreift, wendet er sich wieder der Speicherebene zu und singt eine Hohelied auf die Wolke (Cloud) als tollstem aller Speicherverfahren. Er kennt offenbar nicht die Problematik, dass bei virtuellen Maschinen der Datenaustausch nicht mehr über das Netzwerk läuft (das überwacht wird) sondern direkt vom virtualisierten Webserver auf die virtualisierte Datenbank stattfindet und daher nur mit sehr wenigen Anbietern überhaupt absicherbar und kontrollierbar ist. Denn und das schreibt Gelernter auch nicht, das Mitloggen jedes Zugriffs auf eine Datenbank kann sich außer Google keiner leisten. Die Firmen verbieten den Datenbankherstellern sogar diese Sicherheitsmaßnahme, da sie die Datenbanken extrem langsam macht. Die Probleme liegen also keineswegs in einem virtuosen Können der Informatiker sondern viel eher in deren bescheidenen Künsten bzw. den Sachzwängen der Fachabteilungen.
Und dann stößt Gelernter im FAZ-Text wieder in das Horn des Informationsflusses (Quelle-Mündung)
Alle diese Ströme oder Flüsse sind Spezialfälle jener digitalen Struktur, die wir Mitte der 1990er Jahre als „Lebensstrom“ bezeichneten: ein Strom von digitalen Dokumenten jeglicher Art, die nach ihrer Erstellungszeit oder nach ihrem Eingang sortiert sind und sich in Echtzeit verändern; ein Strom, den man durchsuchen oder „fokussieren“ kann. David Gelernter
Das Kategorisieren anhand der Zeitleiste funktionierte schon bei E-Mails als probates Mittel der Ordnung – auch und gerade mit Filterbegriffen, die eine thematische Ordnung oder ein Trennen von privatem und beruflichem erlauben. Warum soll das also im modernen Echtzeitweb anders sein. Waren E-Mails nicht Echtzeit? Das Thema ist doch eher, das das alte Echtzeitweb nur an einen oder einige Empfänger gerichtet war und moderne Tools, wie twitter, tumblr oder posterous viele Leute und viele Meinungen untereinander vernetzen ohne Ansicht der starken oder schwachen Bindungen die sie haben könnten. In den sozialen Netzwerken sind die Statusmeldungen ja nicht monopolisiert.
Das Bild des Stroms der Informationen mithilfe des Organisationsprinzips der Chronologie reduziert das Web. Gelernter mißachtet offenbar Kairos als andere Seite des Zeitbegriffs – was aus Sicht der Strommetapher verständlich ist. Aber auch wenn man nur Chronos χρόνος beachtet, dann zeigt uns dieser alte griechische Mythos, dass es hier um den Lebenslauf geht, also den Ablauf eines Menschenlebens – darin schwingt unweigerlich auch die Vergänglichkeit mit. Genau das aber ist im supranaturalen Gedächtnis Internet zum Teil außer Kraft. Anders ist es bei dem Begriff, ohne den Chronos keinen wahren Sinn macht: Kairos. Er ist der Begriff für den rechten Moment – neudeutsch Timing. Hier könnte man dann an Immanuel Wallersteins unthinking social science anknüpfen, wenn einer der Herren Experten der modernen Soziologie mächtig wäre. Man könnte dann die Dependenztheorie Wallersteins auf das Web anwenden und daraus neue Erkenntnisse schöpfen für eine Relevanzdebatte oder das Thema Wissen und Web.
So erhält man bei den Protagonisten der aktuellen Debatte den Eindruck, das unfertige Gedanken ohne klare Abgrenzung zu Gemeinplätzen mit quasiwissenschaftlichen Erkenntnissen vermengt werden um persönliche Antipathien oder Sympathien zu rationalisieren. Das ist schick aus Sicht des Herausgebers einer Zeitung aber weitgehend ohne Belang für einen öffentlichen oder ernsthaften Diskurs über das eigentliche Thema: Emanzipation des menschlichen Verstandes und der Vernunft mit anderen im öffentlichen Raum, damit das Zusammenleben friedlicher, sinnvoller oder gar freundlicher gestaltet werden kann.
Aber zum Schluß erkennt auch Gelernter, dass das Netz nur ein Vehikel ist. Ein Glück. Man möchte ihm und Schirrmacher zurufen: “Die Landkarte ist nicht das Gelände.” So sagt es der Erfinder der Allgemeinen Semantik Graf Alfred Władysław Augustyn Korzybski in seinem lesenwerten Werk Science and Sanity.
Bildnachweis: unter Verwendung eines Fotos von alvimann
Bild: xandert

Arne BenseMeMCA 2010: Medialität und Musik

Bass Vom 19.-20.2.2010 fand an der Universität Köln eine Konferenz zur Medialität der Musikwahrnehmung und Aisthesis statt. Der Begriff Medialität – man könnte vielleicht auch von Vermitteltheit sprechen – weist dabei auf mehrere Aspekte hin.
Erstens auf den grundsätzlich McLuhan’schen Gedanken, dass ein Medium eine Umgebung darstellt, die spezifische Effekte produziert. Auch bei der Medialität geht es also immer um etwas speziell Vermittelndes. Wenn man das Medium austauscht, bekommt man andere Effekte, andere Environments. Dass es ohne Medium keine Botschaft gibt, ist die zweite, letztlich ebenso deutliche wie triviale Lesart von ›Mediality‹. Medien – technologische Verbreitungsmedien oder symbolische Kommunikationsmedien – sind essentiell für Konzepte wie Information, Bedeutung oder Intention im Zusammenhang der Musikwahrnehmung. Perzeption von Musik in diesem Sinne bedeutet immer schon Medialität – Understanding Media, mit oder ohne iPod (siehe auch Rolf Großmann, “Konstruktiv(istisch)e Gedanken zur ‘Medienmusik’“.
[Mehr]

Peter Bihr12 iPhone Tutorials ab Montag bei blogpiloten.de

Dirk Kunde ist iPhone-Fan der ersten Stunde. Der Hamburger Journalist stand am 8. November 2007 nachts im Regen in der Schlange vor dem Kölner Telekom-Shop, um eines der ersten iPhones zu ergattern. Seitdem bewertet er auf seiner Webseite iPhone-Fan.de Apps, stellt Zubehör vor und gibt Anleitungen für den täglichen Umgang mit Apples Smartphone. Bei aller Nutzerfreundlichkeit steckt das iPhone voller Funktionen, die nirgendwo dokumentiert sind. Das muss sich jeder Nutzer mühsam erarbeiten. Es geht schon los mit dem Einlegen der SIM-Karte.
Der erfolgreichste Beitrag bei iPhone-Fan.de ist eine entsprechende Bilderanleitung. Doch warum diese Dinge nur in Bildern und Worten erklären, wenn das im Video viel einfacher geht? In Zusammenarbeit mit den Blogpiloten entstand so eine Serie von zwölf Folgen Tutorial-Videos für iPhone-Nutzer. Die Themen reichen vom Arrangieren der Icons auf dem Bildschirm über die Modemfunktion (Tethering) bis zum Selbermachen der Klingeltöne.

Ab Montag, den 01.03.2010, gibt es an jedem Montag, Mittwoch und Freitag ein Folge der Videoserie iPhone Tutorials. Stay tuned.

Bild: crass

Jörg WittkewitzSocial Media: Neue Entwicklungen

Fern der Diskussionen, ob man ein Blog mit oder ohne Berater intern einführen kann – oder ob man es als Kommunikationsmittel für die Öffentlichkeitsarbeit einsetzt – sind die sozialen Plattformen  für Viele Alltag. Der funktioniert ohne den Einsatz dieser niedrigschwelligen Anwendungen kaum noch umfassend. Und sogar die Werbeindustrie hat mittlerweile erkannt, dass Sinusmilieus alias Zielgruppen so tot sind wie Brot. Trotzdem oder gerade deshalb feiert die digitale Welt als Kommunikationsplattform fröhliche Urständ. Hier einige Neuigkeiten, die uns helfen werden/können/sollen, damit besser umzugehen. [Mehr]

Jörg WittkewitzSocial Media Checkup

Im Bereich PR ist Burson-Marsteller ein global player. Kein Wunder, dass die einen ziemlich guten Überblick über die Fortune100-Firmen haben in bezug auf den Einsatz von social media. Ihre Zahlen sind neu (Erfassung von November 2009 bis einschließlich Januar 2010) und in Teilen erstaunlich – was kulturelle bzw. regionale Unterschiede angeht.

Denn die 100 größten Firmen der Welt verfügen hinsichtlich social media über ein erstaunlich breites Arsenal an Kommunikationskanälen: 65% nutzen twitter, 54% haben eine Fan.Page bei facebook, die Hälfte nutzt youtube zum Verteilen ihrer Videos und rund ein Drittel befüllt mindestens ein eigenes corporate blog. Im Gegensatz zu Asien (40%) haben europäische und nordamerikanische Firmen in rund 70% der Fälle einen twitter-account, dafür haben 50% der asiatischen Firmen ein eigenes Blog. Insgesamt nutzen jedoch nur 20% alle vier Kanäle. Europa fällt negativ auf, denn nur ein Viertel der europäischen twitter-accounts antworten auch auf die tweets von Kunden und Interessierten. Hier herrscht noch immer das alte Sender-Modell vor, dass man Pressenews oder Informationen einfach in den Äther schickt (broadcast) und nachher die Schotten wieder dicht macht. Da ist es schon klar, dass viele Firmen den Sinn in twitter nicht erkennen, wenn sie es gar nicht sinnvoll einsetzen.

View more presentations from Burson-Marsteller.

Wer weiter lesen will, findet hier eine Zusammenfassung zur Studie… (via @armselig)

Doreen ButzeTrollerei und Unterwanderung in Foren und Wikis


Bild von GorillaSushi
Foren und Wikis zeichnen sich durch Offenheit und niedrige Partizipationsschwellen aus. Dies liegt auch im Interesse der Betreiber, da man sich meist rege Beteiligung wünscht und auf konstruktive Beiträge hofft. Um auf derartigen Plattformen agieren zu können, ist, wenn überhaupt, eine gültige E-Mailadresse nötig. Auf kosten- und zeitintensive Verfahren zur Teilnahme, wie Aktivierung per SMS oder Post-Ident, wird daher in der Regel verzichtet. Somit können Nutzer in relativer Anonymität an einem Diskurs teilnehmen. Durch die vermeintliche Anonymität wiegen sich manche in Sicherheit und vergessen ihre gute Erziehung, provozieren und beleidigen andere.
[Mehr]
Neuere Beiträge[1][2][3]...[312][313][314][315][316]...[432][433][434]Ältere Beiträge