Von hörbaren Tweets und pulsierende Daten

Wenn Twitter etwas ist, dann voll von Meinungen und Informationen. Diese Informationen zu bündeln ist die große Kunst, der sich viele Kritiker zu gerne entziehen würden. Und in der Tat umfasst der Microblog in etwa 225 Millionen Nutzer, die zusammen bis zu 150 Millionen Tweets am Tag verschicken. Eine ganze Menge. Durch Hashtags kann man diese Tweets bestimmten Themen zuordnen, was schon mal sehr funktionell und hilfreich ist. Doch die Entwicklung geht weiter und ein Kunstprojekt namens „Tweetscapes“ zeigt wie man mit Klängen und Visualisierungen noch mehr Licht in das dunkle Wirrwarr bringen kann.

Daten machen Töne…

Die beiden Klangstudenten Anselm Venezian Nehls und Carl Schilde haben das Projekt zusammen mit Deutschlandradio Kultur und dem Citec Institut der Uni Bielefeld auf die Beine gestellt. Das Schlüsselwort des Projektes lautet: „Sonification“. Der Begriff ist vielmehr eigentlich mit Erfolgsgeschichten wie der, des Geigerzähler oder der Einparkhilfe verbunden und bedeutet vereinfacht nichts anderes als die auditive Darstellung von Daten. Umso mehr Radioaktivität von einem Geigerzähler gemessen wird, umso akribischer gibt er ein Surren aus. Umso näher ein Auto einem Hindernis kommt, desto schneller piept die Einparkhilfe. Die Daten werden algorithmisch ausgelesen, verarbeitet und getreu dem Motto „Aktion gleich Reaktion“ in Töne umgewandelt. Genauso funktioniert auch Tweetscapes.

Der Algorithmus hinter dem Programm misst die Anzahl von Hashtags (Themen), die auf Twitter geteilt werden und gibt sie nach Ihrer Häufigkeit mit einer entsprechenden Lautstärke und mit einem eigenen Ton wieder aus. Die Trending Topics bilden dabei ein grundlegendes Ostinato, das von den weniger relevanten Hashtags begleitet wird. Das Ganze wird dann zusätzlich visuell untermalt und in das Korsett einer Landkarte verpackt. So wird auch visuell deutlich gemacht wo der Hashtag zum Beispiel gerade ausgelöst wurde.

Interaktives Clubbing durch Tweets…

Heraus kommen Klänge, die in sich zwar keine Melodie ergeben, aber das Schauspiel dennoch zum Musik-Erlebnis machen können. Überzeugen konnten sich davon letzte Woche vor allem Fans der elektronischen Musik im Berliner Szeneclub Berghain. Während Nehls an den Reglern stand und den Club mit Musik befeuerte, haben sich auch seine Tweetscape-Klänge in die Show mit eingeschlichen. Eine Mischung aus Bass-Drops, die sich durch Hashtags ergaben und Echos, die durch Retweets erzeugt wurden haben sich mit einem vielstimmigen Flüstern kombiniert, dass durch persönliche Nachrichten ausgelöst wurde. Dabei ging er mehr auf seine Crowd ein als Ihr sicherlich vermutet.

„Für diesen Abend haben wir ausnahmsweise zwei Sounds reserviert“, sagte der Musiker und Student der UdK Berlin. „Immer wenn dieses tiefe Umpf kommt, dann twittert einer über Tweetscapes oder über das Berghain“. Weiterhin sagte Nehls: „Wir wissen vorher nicht was reinkommt. Ich muss mich in irgendeiner Weise dazu verhalten und steuern, mal gucken, was passiert!“. Ziemlich abenteuerlich möchte man meinen und zumal auch schwierig. Der DJ ging nicht nur auf die feiernde Meute in der Realwelt ein, sondern auch auf die Daten, die ihm die digitale Welt zugespielt hat. Ist das Zukunftsmusik?

Breites Aufgabenspektrum…

Dass man mit Sonifikation allerdings noch deutlich mehr anfangen kann, macht Thomas Herrmann vom Citec Institut deutlich. Herrmann ist an dem Projekt beteiligt und verfolgt mit Hilfe von Tweetscape eine ganze Forschung zum Thema Sonifikation. Die Einsatzfähigkeit geht viel weiter als wir vermuten. Im Interview mit DRadio Breitband macht der Forscher deutlich, dass diese Technologie Blinden helfen könnte bei der Wahrnehmung von Information oder dass Aktienkurse sowie Wetterdaten mit den Klängen kompatible gemacht werden können. Er könne sich sogar Anwendungsfelder in der Geophysik, der neurologischen Forschung oder der Astronomie vorstellen.

Man darf gespannt sein!

schreibt seit 2011 für die Netzpiloten und war von 2012 bis 2013 Projektleiter des Online-Magazins. Zur Zeit ist er Redakteur beim t3n-Magazin und war zuletzt als Silicon-Valley-Korrespondent in den USA tätig.


Artikel per E-Mail verschicken
Schlagwörter: , , , ,

4 comments

  1. Hallo Andreas,

    vielen Dank für den Artikel – sehr schön!

    Nur eine Kleinigkeit würde ich gerne richtigstellen:

    „Der Algorithmus hinter dem Programm misst die Anzahl von Hashtags (Themen), die auf Twitter geteilt werden und gibt sie nach Ihrer Häufigkeit mit einer entsprechenden Lautstärke und mit einem eigenen Ton wieder aus.“ – das stimmt nicht 100%, es werden erstmal unbewertet alle Hashtags mit einem eigenen Sound ausgegeben, nicht nur die häufigen. Die häufigen sind nur – nun ja – häufiger :) Zusätzlich gibt es dann auch noch den Hintergrundsound, das „Ostinato“, das sich klanglich von den 3 innerhalb eines Zeitraumes am häufigsten auftauchenden Hashtags ableitet und sich wiederum auch in der Lautstärke nach der Häufigkeit eines Begriffes richtet. Ist alles nicht ganz so leicht zu erklären, ich weiß ;)

    Ansonsten hast du noch einmal meinen und einmal Thomas‘ Namen falsch geschrieben, aber da will ich mal nicht so sein ;)

    Liebe Grüße
    Anselm

    PS. Wer ganz genau wissen will, wie’s funktioniert: http://tweetscapes.de/algorithm

  2. Hey Anselm,
    da sind mir zwei Buchstaben entglitten bei den Namen. Danke für den Hinweis. Auch dass du mir und den Lesern, den Algorithmus nochmal näher erklärt hast. War für mich nicht so eindeutig. Habe ehrlich gesagt auch Angst und Bange gehabt, ob ich das jetzt so tatsächlich richtig wiedergeben habe :)
    Grüße an euch Visionäre :)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert