Begriffsklärung: Was ist das Web 3.0?

Eines schon einmal vorweg: das Web 3.0 ist in großen Teilen noch Theorie. Und um Theorien zu verstehen, sind Beispiele besonders hilfreich. Nehmen wir also einmal das Beispiel einer so alltäglichen Tätigkeit wie dem Suchen. Was tut man also, wenn man gerade nach München gezogen ist und ein gutes italienisches Restaurant in unmittelbarer Nähe sucht?

Auf der Suche nach dem Restaurant, ungefähr 199x

In Zeiten des Web 1.0 tippte man eine Suchanfrage in ein Feld ein. Die dahinter sitzende Suchengine vergleicht diese Suchanfrage dann mit einem möglichst großen Index von Seiten, die mit Schlagworten versehen sind. So kann sie zum Beispiel problemlos Seiten finden, auf die die Schlagworte „italienisches Restaurant“ und „München“ zutreffen. Jedoch ist sie nicht in der Lage, die Qualität des Restaurants zu beurteilen, denn Suchmaschinen essen nicht in italienischen Restaurants. Genausowenig kann sie mit der Aussage „in unmittelbarer Nähe“ etwas anfangen, denn sie weiß nicht, was Entfernungen sind. Und sollte ein „italienisches Restaurant“ sich als „Pizzeria“ bezeichnen, taucht es in der Ergebnisliste nicht auf.

Auf der Suche nach dem Restaurant, ungefähr 200x

Im Web 2.0 wurden dann Verfahren entwickelt, wie man diese Probleme lösen kann. Suchmaschinen essen nach wie vor nicht in italienischen Restaurants, allerdings gibt es zahlreiche Menschen, die das tun. Es reicht somit, diesen Menschen eine Möglichkeit zu geben, ein Restaurant zu beurteilen: diese Beurteilungen kann man dann lesen und eine Entscheidung treffen. Die Suchmaschine hat immer noch keine Ahnung, was Entfernung bedeutet, doch kann man Nutzer auf eine Karte Standorte von Restaurants eintragen lassen. Doch nach wie vor gibt es Probleme: ein Suchvorgang ist umständlich. Man muss zahlreiche verschiedene Seiten und Dienste konsultieren oder auf ein entsprechendes MashUp hoffen. Und die „Pizzeria“ fällt nach wie vor unten durch.

Auf der Suche nach dem Restaurant, ungefähr 20xx

Wir schreiben das Jahr 20xx. Die Probleme des Web 1.0 und 2.0 existieren nicht mehr, denn das Web 3.0 ist da, ein „denkendes“ Web. Fragt man nun die Suchmaschine nach einem guten italienischen Restaurant in München in der unmittelbaren Nähe, tut sie das, was auch ein guter Freund tun würde: sie nennt einen Namen und eine Adresse. Denn sie weiß, was „gut“ bedeutet, denn vorherige Gäste haben das Restaurant bewertet. Sie weiß auch, was „in unmittelbarer Nähe“ bedeutet, denn sie kennt den geographischen Standort des Restaurants. Und tatsächlich, sie findet die schnuckelige kleine „Pizzeria“: die Suchmaschine weiß jetzt nämlich, dass eine „Pizzeria“ ein „italienisches Restaurant“ ist.

Wie könnte so etwas funktionieren? Nun, man bräuchte eine Möglichkeit, ein Web zu schaffen, dessen Sinn von Maschinen verstanden werden kann. Diese Idee geistert als „semantisches Web“ bereits seit den frühen Tagen des Internets durch den virtuellen Raum. Man müsste außerdem die Daten anzapfen, die das Web 2.0 kreiiert, und sie dann sinnvoll mit einer Suchanfrage verknüpfen. Eine Maschine müsste also in der Lage sein, aus den Daten auszuwählen, was sie gerade benötigt, und alles andere zu vergessen. Dafür bräuchte eine Maschine künstliche Intelligenz. Man könnte also definieren: Web 3.0 = semantisches Web + künstliche Intelligenz.

ist Medienwissenschaftler und beobachtet als Autor („Grundkurs Gutes Webdesign“) und Berater den digitalen Wandel. Seine Themenschwerpunkte sind User Experience, anwenderfreundliches Design und digitale Strategien. Er schreibt regelmäßig für Fachmedien wie das t3n Magazin, die Netzpiloten oder Screenguide. Mitglied des Netzpiloten Blogger Networks.


Artikel per E-Mail verschicken
Schlagwörter: , , , ,

9 comments

  1. Ich habe heute das erste mal nach dem Begriff Web 3.0 gesucht und daran gedacht es handelt sich dabei vielleicht um eine ausgereifte Version des Web 2.0.

    Sich Gedanken über das Web 3.0 und über gute Suchergebnisse zu machen – wie der Autor das in Bezug zu dem Restaurant aufführt, daran denke ich erst jetzt.

    Letztendlich bleibt nur das was man publiziert, ansonsten müsste in jedem Restaurant ein Detektor an der Essensausgabe stehen der über Infrarot oder andere technischen Möglichkeiten die Zusammensetzung der Pizza prüft und somit gleich bewertet. Da könnte man ja Rezeptoren vorgeben wie was zu schmecken hat. Und ob die Pizza schnell an den Tisch kommt, der Service stimmt, das könnte man auch über Sensoren und dem Kassensystemen erfassen. Die Entfernungen ist ja heute gar kein Problem mehr. Das Problem wird sein wie anfällig so ein System gegen Manipulationen wäre weil es ja um wirtschaftliche Interessen geht.

    Ich für mich habe da schon große Probleme mit meinen Seiten was das Web 2.0 betrifft, weil ich seit Heute die Funktion ausgeschaltet habe das sich Nutzer auf meinen Seiten registrieren können um Kommentare zu posten. Das kommt daher das man automatisierte Anmeldungen über meine Seiten jagt. Ich weiß nicht mehr weiter wie ich dem Herr werden kann, habe schon alle Möglichkeiten ausprobiert. Ein Captcha eingefügt – bringt auch nichts. Erst jetzt wo ich die Funktion eingestellt habe das sich Besucher meiner Seite nicht mehr registrieren können, jetzt ist Ruhe, soweit kommt das im Internet und das Ende von Web 2.0.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert