Wie Afrika von Big Data profitieren kann

Big Data wird immer mehr als Lösung des Armutsproblems von Afrika angesehen. Zu Recht?

Big Data ist eine Art Berühmtheit geworden. Jeder spricht davon, trotzdem ist nicht ganz klar, was es ist. Um die Relevanz für die Gesellschaft zu erkennen, ist es erforderlich in der Zeit zurückzugehen um zu verstehen, warum und wie es zu so einem allgegenwärtigen Problem wurde.

Bei Big Data geht es darum, riesige Datenmengen zu verarbeiten. Es ist mit einer Vielzahl von verschieden Datenformaten verknüpft, die irgendwo gespeichert sind, in einer Cloud oder in verteilten Datenverarbeitungssystemen.

Jedoch übertrifft die Fähigkeit Daten zu generieren bei Weitem die Fähigkeit diese auch zu speichern. Die Anzahl der Daten ist mittlerweile so groß und so schnell produziert, dass eine kosteneffiziente Speicherung mit der aktuellen Technik nicht möglich ist. Was passiert wen Big Data zu groß und zu schnell wird?

Wie Grundlagenwissenschaft zu der Gesellschaft beiträgt

Das Big-Data-Problem ist wieder ein Beispiel dafür, wie Methoden und Techniken, die von Wissenschaftlern entworfen wurden, um die Natur zu studieren, einen Einfluss auf die Gesellschaft gehabt haben. Die technisch-wirtschaftliche Fabrik, der die moderne Gesellschaft unterliegt, wäre ohne diese Beiträge undenkbar.

Es gibt unzählige Beispiele dafür, wie Ergebnisse, die die Natur untersuchen sollten, letztendlich das Leben revolutioniert haben. Big Data ist aufs Engste mit der Grundlagenwissenschaft verknüpft, und entwickelt sich mit ihr weiter.

Betrachten wir nur ein paar Beispiele: Was wäre das Leben ohne Elektrizität oder elektromagnetische Wellen? Ohne die grundlegenden Studien von Maxwell, Hertz und anderen Physikern über die Natur von Elektromagnetismus, würden wir weder Radio, Fernsehen noch andere Formen von durch Wellen übertragener Kommunikation haben.

Moderne Elektronik basiert auf Materialien, den so genannten Halbleitern. Was wäre das Leben heute ohne Elektronik? Die Erfindung von Transistoren und schließlich von integrierten Schaltkreisen, basiert ausschließlich auf dem gründlichen Studieren von Halbleitern durch Wissenschaftler.

Moderne Medizin verlässt sich auf unzählige Techniken und Anwendungen. Diese reichen von Röntgenstrahlen, bildgebender Diagnostik und Kernspinresonanz bis zu anderen Techniken, wie Strahlentherapie und Nuklearmedizin. Moderne Medizin und Forschung wären ohne diese, ursprünglich für wissenschaftliche Forschung konzipierten Techniken, undenkbar.

Wie es zum Informationszeitalter kam

Das Big-Data-Problem entspringt ursprünglich dem Bedarf von Wissenschaftlern, Daten mitteilen und austauschen zu wollen.

Internetpionier Tim Berners-Lee empfahl 1990 in der europäischen Forschungsstätte CERN einen WorldWideWeb genannten Browser, der zum ersten Webserver führte. Das Internet war geboren.

Das Internet hat die Möglichkeiten, Informationen und Wissen auszutauschen, vergrößert, was zu einer Ausbreitung von Daten geführt hat.

Das Problem betrifft nicht nur das Ausmaß. Die benötigte Zeit zwischen Generation und dem Verarbeiten von Informationen hat sich ebenfalls drastisch verringert. Der große Hadronen-Speicherring hat die Grenzen von Datensammlungen, so weit wie niemals zuvor, ausgedehnt.

Als das Projekt und die zugehörigen Experimente in den späten 1980ern konzipiert wurden, wurden sich die Wissenschaftler darüber bewusst, dass neue Konzepte und Techniken entwickelt werden müssten, um mit den riesigen Datenmengen klarzukommen. Diese Konzepte führten letztendlich zur Entwicklung von Cloud- und verteilter Datenverarbeitung.

Eine der Hauptaufgaben des großen Hadronen-Speicherrings ist, das Higgs-Boson zu beobachten – und zu erforschen – ein Partikel verbunden mit der Erzeugung von Massen an fundamentalen Partikeln, durch die hochenergetische Kollision von Protonen.

Die Wahrscheinlichkeit ein Higgs-Boson in einer hochenergetischen Proton-Proton-Kollision zu finden ist extrem gering. Aus diesem Grund ist es nötig, mehrere Protonen mehrfach pro Sekunde kollidieren zu lassen.

Der große Hadronen-Speicherring produziert jede Sekunde Datenmenge in der Größenordnung von Petabytes. Um sich besser vorstellen zu können wie groß ein Petabyte ist: alle geschriebenen Werke der Menschheit von Anbeginn der Geschichtsschreibung, in allen Sprachen, würden in etwa 50 Petabytes belegen. Ein Experiment des großen Hadronen-Speicherrings produziert so eine Menge an Daten in weniger als einer Minute.

Nur ein Bruchteil der produzierten Daten wird gespeichert. Sogar diese Daten haben inzwischen die Exabyte-Skala erreicht (das Tausendfache von einem Petabyte), was zu neuen Herausforderungen in Cloud- und verteilter Datenverarbeitung führt.

Das Square Kilometre Array (SKA) in Südafrika wird in den 2020ern Jahren anfangen Daten zu produzieren. SKA wird die die Rechenkraft von circa 100 Millionen PCs haben. Die Datenmenge, die an einem einzigen Tag anfällt, würde für eine Spielzeit von rund zwei Millionen Jahre auf einem iPod reichen.

Das wird neue Herausforderungen für die Korrelation von riesigen Mengen an Daten hervorrufen.

Big Data und Afrika

Der afrikanische Kontinent hängt dem Rest der Welt oft hinterher, was das Umsetzen von Innovationen anbelangt. Trotzdem wird Big Data immer mehr und mehr als Lösung dafür angesehen, um die Armut des Kontinents anzupacken.

Der Privatsektor war der Erste, der aus den Startlöchern kam. Die größten afrikanischen Unternehmen werden, natürlich, eher Big-Data-Projekte haben. In Nigeria und Kenia sind mindestens 40 Prozent der Unternehmen in der Planungsphase von Big-Data-Projekten, im Vergleich zum globalen Durchschnitt von 51 Prozent. Nur 24 Prozent der mittelgroßen Unternehmen dieser beiden Länder planen Big-Data-Projekte.

Wertvolle Erkenntnisse könnten aus der Nutzbarmachung von Big Data gewonnen werden. Zum Beispiel, können Organisationen aus dem Gesundheitswesen von der Digitalisierung, Kombination und effektiven Nutzung von Big Data profitieren. Das könnte einer Mehrzahl von Akteuren, vom einzelnen Physiker über Multi-Provider-Gruppen zu großen Krankenhäusernetzwerken, ermöglichen bessere und effektivere Services zu erbringen.

Das Anpacken der Herausforderung, Big Data managen zu können, könnte ebenfalls große wirtschaftliche Nebenprodukte haben. Da Wirtschaftsformen immer ausgeklügelter und komplexer werden, steigt die produzierte Menge an Daten erheblich. Infolgedessen ist es notwendig, um die komplexen Prozesse zu verbessern, steigende Datenmengen zu verarbeiten und zu verstehen. Durch diese Mühe steigt die Produktivität.

Damit jedoch auch nur einer dieser Vorteile Wirklichkeit wird, braucht Afrika Spezialisten, die in Big-Data-Techniken bewandert sind. Afrikanische Universitäten müssen anfangen zu lehren, wie Big Data benutzt werden kann, um Lösungen für wissenschaftliche Probleme zu finden. Eine ausgeklügelte Wirtschaft erfordert Spezialisten, die für Big-Data-Techniken qualifiziert sind.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image “Boy with Ring”(adapted) by jm whalen (CC BY 2.0).


Schlagwörter: , , , , , ,
Bruce Mellado

Bruce Mellado

ist Physik-Professor an der Witwatersrand-Universität in Johannesburg. Mellado war leitender Teilnehmer in der Entdeckung des Higgs-Boson, die 2012 bekannt gegeben wurde und dazu führte, dass François Englert und Peter W. Higgs dafür 2013 mit einem Physik-Nobelpreis ausgezeichnet wurden.

More Posts - Website