All posts under Algorithmus

KI erfindet Parfums – Wird die menschliche Nase ersetzt?

KI gestützte Parfums

Zukünftig ist keine Nase mehr erforderlich, um das passende Parfum zu erstellen. IBM und Symrise führen jetzt KI-gestützte Parfums ein. Bis vor kurzem war es für viele noch unvorstellbar, dass eine Künstliche Intelligenz einem das perfekt passende Parfum kreiert. Doch es war nur eine Frage der Zeit, bis die KI auch in der Duftstoffindustrie ihren Platz einnimmt. Doch wie genau erkennt die KI den individuell passenden Duft?

Die Griechische Göttin und die Duftformeln

Das US-amerikanisches IT- und Beratungsunternehmen IBM entwickelte eine KI namens Philyra, die nach der griechischen Göttin des Duftes benannt ist. Zusammen entwickeln sie Parfums für Symrise. Symrise ist ein globaler Hersteller von Aromen und Duftstoffen. Symrise stellt IBM eine Datenbank von über 1,7 Millionen Duftformeln zur Verfügung. Anhand dieser Duftformeln errechnet die KI dann mit anderen Datensätzen über die Persönlichkeit den passenden Duft. Der Algorithmus enthält Informationen über das Alter, Standort und über die Präferenzen der Kunden. IBM versucht dann herauszufinden, welche Parfums bei welcher Zielgruppe beliebt sind.

Die KI kann auch kreativ sein

Die KI führt nicht einfach nur immer wieder dieselbe Arbeit aus, sondern wird auch kreativ. Sie führt neue Formeln ein und experimentiert, um neue Duftnoten zu entwickeln. So generierte die Parfum-KI eine Formel, die veraltete Materialien entfernt und Dosierungen beliebter Duftstoffe erhöht. So entstehen ganz andere und neue Duftkombinationen. Für den brasilianischen Kosmetikhändler O Boticário erstellte die KI zwei völlig neuartige Düfte.

Ersetzt die KI die menschliche Nase?

In vielen Bereichen werden wir Menschen ja bereits von künstlichen Intelligenzen ersetzt. Trifft es in Zukunft auch die Menschen im Bereich der Duftstoffindustrie? David Apel ist Symrise Parfümeur und sagt, dass er sich nicht vorstellen kann, dass die menschliche Nase komplett von „Philyra“ ersetzt wird. Das maschinelle Lernen senkt hauptsächlich die Kosten für die Parfumherstellung und beschleunigt den kreativen Schaffensprozess. Die von der KI erstellten Parfums erhalten zum Schluss noch den letzten Schliff von einem Meisterparfümeur. Der Mensch bleibt also auch in der Herstellung von Parfums ein wichtiger Bestandteil. Viele sehen den Akt der Duftkreation als Kunst an und sind demnach noch eher skeptisch, was die Parfumherstellung mit einer KI betrifft. Es wird sich also zeigen, wie sich die Parfum-KI in Zukunft durchsetzen kann.


Image by Dmytro Titov via stock.adobe.com

 

Weiterlesen »

“Mobile Recruiting” – mit einem Wisch zum Traumjob?

mohamed_hassan - pixabay

Anschreiben formulieren, Lebenslauf überarbeiten, Zeugnisse scannen und professionelles Bewerbungsbild erstellen lassen. Der Weg zu einer soliden Bewerbung, wenn auch online versendet, beinhaltet noch immer viele Schritte. Doch ist dieser Prozess überhaupt noch zeitgemäß? Die Bewerbung per Smartphone verspricht Abhilfe. Aber wie genau verändert „Mobile Recruiting“ den Bewerbungsprozess und welche Vor- und Nachteile entstehen dabei für Privatpersonen und für Firmen?

Kaum ein Unternehmen setzt heutzutage noch auf Printanzeigen, wenn es um die Rekrutierung von neuem Personal geht. Stellenanzeigen in verschiedenen Online-Portalen gehören längst zum guten Ton im Personalmanagement von Unternehmen aller Art, ob Mittelständler oder Großkonzern. Doch nicht nur der Stellenmarkt, sondern auch der Bewerbungsprozess selbst steht dabei im Wandel der Digitalisierung. So versprechen zahlreiche Apps, den Bewerbungsprozess zu erleichtern, indem sie umfassend auf diesen vorbereiten oder gar versuchen ihn komplett zu erneuern. Vereinfachte Bewertungssysteme oder mit Hilfe von Algorithmen optimierte Auswahlprozesse sollen dabei helfen, Job und Bewerberin oder Bewerber noch besser aufeinander abzustimmen. Besonders die typischen Wünsche der Generation Y, wie beispielsweise Flexibilität, Mobilität und schnelle Informationsbeschaffung, erhalten dabei die Möglichkeit, endlich auch bei der Jobsuche Berücksichtigung zu finden.

Bewerbung per App – it’s a match!

Laut einer Studie der Hochschule Rhein Main und der Jobbörse Jobware benötigen die Hälfte aller Befragten noch immer zwischen ein und drei Stunden für eine Bewerbung. Zeitersparnis, das höchste Gut der Generation Y, steht deshalb im Vordergrund jeder App. Jobportale wie Monster.de oder Stepstone.de werben daher mit Kurzbewerbungen, die versprechen die Bewerbung mit einem Klick zu versenden. Gleichzeitig bekommen Unternehmen standardisierte Bewerbungen, die einfacher vergleichbar sind.

Die App „TalentCube“ geht einen Schritt weiter. Mit Hilfe von selbstgedrehten Kurzvideos soll das klassische Bewerbungsgespräch künftig bequem mit dem Smartphone von zu Hause geführt werden. Unternehmen erhalten die Möglichkeit, die App mit job- oder persönlichkeitsbezogenen Fragen zu füttern. Die Bewerberinnen oder Bewerber beantworten diese Fragen dann mit Hilfe von kurzen Videos, die sie selbst mit der Frontkamera ihres Smartphones drehen. Der Clou: Dabei erhalten alle nur einen Take, um die Fragen zu beantworten, so wird die Situation eines klassischen Bewerbungsgesprächs simuliert und simultan die Spontanität getestet. Keine Anreisekosten, keine Wartezeit und trotzdem ein persönlicher Eindruck der Jobanwärter. Ein Gewinn an Zeit und Effizienz sowohl für Jobsuchende als auch für die Personalabteilung, so zumindest die Hersteller der App.

Beim „Robot Recruiting“ entscheidet der Algorithmus

Nicht nur der Bewerbungsprozess, sondern auch das Auswahlverfahren selbst wird zunehmend durch moderne Technik optimiert. Beim sogenannten „Robot Recruiting“ liest nicht die Personalabteilung, sondern der Computer den Lebenslauf der Jobinteressenten. Dabei entscheidet ein Algorithmus, wer für den Job geeignet ist. Unter dem Deckmantel der fairen Bewertung gleicht der Algorithmus dabei ab, ob die für den Job geforderten Eigenschaften erfüllt sind. Welche Eigenschaften gefragt sind, entscheidet die Person, die den Algorithmus programmiert. Hard-Skills wie Sprachkenntnisse oder Jahre an Berufserfahrung sind dabei für die meisten Algorithmen selbstverständlich einfacher auszulesen als Soft-Skills, wie beispielsweise Teamfähigkeit. Trotzdem könnte ein transparentes Bewertungssystem frei von menschlichen Vorurteilen für ein Plus an Fairness auf dem Arbeitsmarkt sorgen, wenn auch (unter Umständen) auf Kosten des Bauchgefühls, das bisher noch in den meisten Unternehmen darüber entscheidet, wer wirklich ins Team passt.

Damit sind Algorithmen in der Lage, nicht nur unter Personen auszuwählen, die sich aktiv für den Job beworben haben, sondern auch selbständig in verschiedenen Netzwerken nach passenden Kandidatinnen und Kandidaten zu suchen. Welche Seiten wurden geliked, worüber wird gepostet und vor allem: wer verfügt über ein ausreichend großes Netzwerk? Wer kennt die führenden Köpfe der Branche? Ist eine passende Kandidatin oder ein passender Kandidat gefunden, bewirbt sich das Unternehmen bei diesen. Damit dreht sich der klassische Bewerbungsprozess und Unternehmen buhlen aktiv um ihr zukünftiges Personal. Setzt sich diese Form des „Robot Recruitings“ durch, bedeutet das, dass sowohl Firmen als auch Privatpersonen, ob auf der Suche nach einer neuen Arbeitsstelle oder nicht, darauf angewiesen sind, Präsenz auf Online-Plattformen zu zeigen. Laufen damit alle, die nicht bereit sind ihre Daten online preiszugeben Gefahr, auf dem Arbeitsmarkt abgehängt zu werden?

Risiken und Nebenwirkungen

Um die Vorteile der Digitalisierung im Bewerbungsprozess langfristig nutzen zu können, gilt es nach offenen Baustellen in der aktuellen Entwicklung zu suchen. Die Suche danach beginnt mit der Zielgruppe. Die Generation Y, die gerade erste Schritte auf dem Arbeitsmarkt unternimmt, bewegt sich gewohnt intuitiv und damit problemfrei in digitalen Gewässern. Sie ist gewöhnt an schnelle Bewertungssysteme und kurze Kommunikationswege. Damit liegt ein naheliegendes Problem auf der Hand: Andere Generationen sind gewohnt an alte Bewerbungsprozesse und sind weniger präsent auf den entsprechenden Plattformen. Diese Beobachtung geht Hand in Hand mit der, über die Art der Jobs, die auf den neuen digitalen Pfaden wandern. Scheinbar naturgegeben erscheinen Sektoren, die ihr täglich Brot auf die eine oder andere Weise durch oder mit Hilfe von medialen Prozessen verdienen, offener für neue digitale Entwicklungen. Eine Stelle in einer Redaktion oder einer Marketing Abteilung wird daher potentiell eher Gebrauch von den neuesten Bewerbungstools machen, als ein Ausbildungsplatz in einer Autowerkstatt.

Eine weitere Herausforderung bietet der Datenschutz. Was passiert mit sensiblen Bewerberdaten nach dem Bewerbungsverfahren und wie erkläre ich dem Algorithmus, dass ich nicht möchte, dass meine Daten in autonomen Headhuntings Berücksichtigung finden? Letztendlich birgt die mobile Bewerbung damit die Gefahr, die gläserne Bürgerin oder Bürger zum Optimum des Bewerbungsmarktes zu erheben. Privates und Berufliches vermischen sich unwiderruflich, wenn auf sozialen Netzwerken nur noch das geteilt wird, was dem zukünftigen Arbeitgeber oder der zukünftigen Arbeitgeberin potentiell gefallen könnte. Wird der Arbeitsplatz zudem beispielsweise auf dem eigenen Profil angegeben, stellt sich außerdem die Frage, ob auf der entsprechenden Plattform noch als Privatperson agiert wird, oder doch als Repräsentant des Unternehmens.

Letztendlich erscheinen besonders kleine und mittelständische Unternehmen in Deutschland noch immer im Dornröschenschlaf hinsichtlich der Akzeptanz neuer Techniken. An innovativen Ideen, die versprechen den Bewerbungsprozess einfacher, transparenter und damit letztendlich effektiver zu machen mangelt es jedenfalls nicht. Denn die Bewerbung per Smartphone bietet nach wie vor viel Potential. Neben der Zeitersparnis stellt vor allem die objektive Bewertung einen großen, potentiellen Vorteil des Mobile Recruitings dar. Ob zwischenmenschliche Prozesse und das Recht auf Privatsphäre dabei jedoch genügend berücksichtigt werden, bleibt abzuwarten.

Dieser Artikel erschien zuerst auf Politik-Digial


mohamed_hassan / pixabay

Weiterlesen »

„Für Originalität muss man die Welt wahrnehmen“: Technikphilosoph Mads Pankow im Interview

Den Rückruf zum Interview über KI und Kreativität mit Mads Pankow bekomme ich auf einer kleinen Lichtung mitten im Teutoburger Wald. Der 33-jährige Technikphilosoph, Herausgeber und Politikberater sitzt an diesem sonnigen Dienstagnachmittag im Mai gut vorbereitet in seinem Berliner Büro – ihm liegen meine Fragen vor – ich habe immerhin Stift und Papier dabei. Es geht um KI und Kreativität. Dazu gehören das bisschen Bewusstsein, das Computern fehlt, poetisch interessante Ergebnisse, die sie trotzdem liefern und den Mensch als letztverantwortliche Instanz. Mads Pankow wird beim Kongress Mind the Progress eine Keynote zum Thema halten, wie originell die Technik ist. Der Kongress kümmert sich um Themen zu Kreativität und Digitalisierung und findet am 1. Juni in Hamburg statt. Im Anschluss wird auf einem Panel mit Branchenexperten über KI als kreativen Partner diskutiert. 

Lena Simonis (Netzpiloten): Man sagt, Not mache erfinderisch. Wie kann man sich das kreative Potential eines Algorithmus vorstellen, der zwar ein Problem löst, dazu aber nur definierte Schritte durchrechnet?

Mads Pankow: Klar, ein Algorithmus kennt keine Not. Er hat keine Absicht, keine Motivation. Sein einziger Antrieb sind unsere Anweisungen. Der Mut zu ungewöhnlichen Ansätzen und Kombinationen, aus denen sich die Kreativität derer schöpft, die in Not sind, kennt ein Algorithmus nicht. Aber ein Computer kann natürlich trotzdem mutig kombinieren, er weiß nur nicht was er da tut. Da gibt es etwa das All prior arts project: Hier rekombiniert eine Software Millionen von Patenten, aber bisher war keins davon brauchbar.

schaltkreis_athompson_algorithmus
Adrian Thompson ließ 1996 einen Algorithmus einen Schaltkreis zur Tonausgabe berechnen. Der Algorithmus kam nicht nur zu einem effektiveren Ergebnis, sondern auch zu einem originellen Lösungsansatz.

Spannend bei „problemlösenden“ Algorithmen sind evolutionäre Algorithmen. Das ist keine KI, aber schon in den 90ern haben Algorithmen nach dem Optimierungsprinzip eigene Schaltpläne entwickelt, die effizienter, aber für Menschen regelrecht unverständlich waren. Man könnte sagen, die Software hätte da etwas Originelles gemacht. Da werden nicht nur definierte Schritte durchgerechnet, sondern wirklich wild kombiniert. Das können Computer gut, weil sie viel, viel schneller sind als Menschen.

Es gibt inzwischen Programme, die bessere Sportmeldungen texten als mancher Redakteur – welche „kreativen“ Jobs können uns Maschinen demnächst noch abnehmen?

Naja, was heißt „bessere“ Sportmeldungen. Wenn sie nur Informationen enthalten, kann man nicht viel falsch machen: Das Spiel ging 7:1 aus, eine Demütigung. Fakten in Phrasen übersetzen ist wirklich nicht aufwändig. Die Frage ist hier nicht, ob die Maschine kreativ ist, sondern ob das, was wir als kreative Arbeit bezeichnen wirklich immer so originell ist, oder doch nur die Anwendung eingeübter Gestaltungs- und Stilregeln. Maschinen können gut Lösungen für Probleme finden, die Menschen nicht durchschauen. Aber sie wissen am Ende nicht, ob die Lösung in der Praxis taugt. Menschen müssen also nach wie vor die Ergebnisse prüfen, einen Realitätscheck machen und auch die Anweisungen und Aufträge so übersetzen, dass Maschinen sie verstehen.

Algorithmen haben also keine Wahrnehmung, sie können weder Mehrdeutigkeit, Intuition, noch Neugier; all die wichtigen Fähigkeiten für kreative Prozesse fehlen ihnen – noch?

Nein, also dieses nachgeschobene “noch“ können wir vorerst streichen. Wir haben keinen Hinweis darauf, dass sich mit digitaler Technik ein Bewusstsein ähnlich dem menschlichen realisieren ließe. Dafür braucht es Selbstbewusstsein, also die Beobachtung der eigenen Beobachtung, eine paradoxe Operation. Aber Paradoxien führen bei Computern zum Absturz, sie lassen sich formallogisch nicht abbilden. Da möchte ich also mindestens bis zur Funktionsfähigkeit von Quanten- oder Biocomputern entwarnen – und wann die mal laufen sollen, ist bisher völlig unabsehbar. Aber klar, viele Formen der Kreativität lassen sich simulieren: etwa Lösungsfindung durch Versuch und Irrtum, wie bei den evolutionären Algorithmen, oder Gestaltung nach Schema F, beziehungsweise gelernten Gestaltungsroutinen. Das sieht tatsächlich häufig besser aus als das, was Menschen so liefern.

Vor 100 Jahren schworen die Post-Impressionisten auf La fée verte. Sind Algorithmen sowas wie der neue Absinth der Kreativbranche, Inspiration und Mode?

Ja klar, Algorithmen können sehr inspirierend sein, weil sie außerhalb unserer eingeübten Denkstrukturen funktionieren. Sie rekombinieren und vermischen völlig ohne Absicht und Einsicht. Da kann durchaus Neues entstehen. Googles Mensch-KI-Kollaboration Deep Dream mit seinem digitalen Surreal-Impressionismus wäre ein Beispiel. Das verfolgt keinen Zweck und dient nur der Inspiration. In der Praxis wird uns die Software vor allem assistieren, indem sie beispielsweise Arrangements nach vorgegebenen oder erlernten Regeln vorschlägt und wir dann nachbessern oder aufbohren. Aber wie gesagt, da geht es vornehmlich um zweckmäßige gestalterische Tätigkeiten. Für die Kunst sind Algorithmen bisher nur Spielzeug, da hilft der gute alte Absinth doch deutlich mehr.

Wir müssen also nicht um unsere Jobs bangen?

Ich denke, die wenigsten Jobs werden durch KI ersetzt werden. In den meisten Fällen erleichtert die KI unsere Arbeit, assistiert uns, rechnet mit, schlägt vor und inspiriert. Aber nichts was KI bisher geliefert hat, hat aus sich heraus schon funktioniert, auch im Kreativbereich noch nicht. Am Ende war alles nur interessant, aber durchschnittlich, uninspiriert eben. Oder Menschen mussten die Ergebnisse nachjustieren, damit sie wirklich ästhetischen Wert hatte. Dennoch reichen ja manchmal auch durchschnittliche Leistungen. Nicht jede Zahnarzt-Homepage muss den Ansprüchen ästhetischen Genusses genügen, da tut‘s dann vielleicht auch die sich selbst erstellende Homepage von the grid.

Vielen Dank für das Interview Herr Pankow!


Images by Mads Pankow

Weiterlesen »

Vero – Hype um die neue Social Media App

Wer sich viel im Netz und sozialen Medien aufhält, wird wohl kaum daran vorbei gekommen sein. Quasi über Nacht bahnte sich die neue Social Media App Vero mit einem unverwechselbaren Hype ihren Weg auf die Smartphones dieser Welt. Tatsächlich schlummert die App aber schon seit 2015 im Apple-Store. Aber was genau ist das “neue” Social Network und wird es dem Hype gerecht?

Nein zu Werbung und Datensammlerei, ja zu User-Content!

Social-Media-Plattformen wie Facebook und die Unternehmenstochter stehen vermehrt in der Kritik. Bezahlte Posts von Firmen und Influencern prägen die Feeds der User und die Algorithmen nehmen scheinbar kleinen, aufstrebenden Gewerben und Künstlern die nötige Reichweite, um ihr Following wachsen zu lassen. Vero will das ändern und hat dafür sogar ein Manifest aufgesetzt.

Wie bei jedem “Next Big Thing” war der Hype auch zu Vero anfangs groß. Auf Twitter vermuteten manche User hinter dem schlagartigen Hype schon eine Influencer-Kampagne.

Grund zur Begeisterung vieler war das Versprechen der App-Entwickler. Die App wird so als „True Social“ App bezeichnet. In Vero wird deshalb (noch) auf Werbung und Bezahl-Reichweite verzichtet – der User soll nur das sehen, was er sehen möchte und in der tatsächlichen chronologischen Posting-Reihenfolge. Ein nobles Versprechen, das aber auch die Frage nach der Finanzierung der App aufwirft. Für die ersten Millionen Nutzer soll Vero daher noch komplett kostenlos sein, alle, die sich danach anmelden, dürfen dann jährlich mit einem kleinen Betrag rechnen. Das traf zunächst auch auf viel Anklang in der Netzgemeinde. Allmählich schlagen die Meinungen teilweise aber auch um. Vor allem die AGB verunsichern aber viele User, da gepostete Bilder frei weiter verwendet und bearbeitet werden dürfen – was aber auf Instagram und Co. auch nicht anders ist.

Was kann die App?

Vero lässt sich wohl am besten als Facebook mit einer Prise Instagram beschreiben. Wenn ihr die App öffnet, findet ihr im chronologischen Feed, alle Inhalte von Freunden und Seiten, denen ihr folgt. Die Suchanzeige öffnet sich mit Trends, Vorschlägen und aktuell beliebten Hashtags.

Ihr könnt Freunde hinzufügen, Profilen aber auch gleichzeitig folgen. “Freunde” können zudem in die Kategorien “Bekannte”, “Freunde” und “Enge Freunde” eingeteilt werden und eure geteilten Inhalte so auch individuell nur für bestimmte Gruppen zugänglich gemacht werden. Ähnlich wie bei Twitter und Instagram, gibt es bei Vero aber auch Hashtags.

Wenn ihr Postings erstellt, habt ihr sechs verschiedene Optionen: Kamera, Link, Musik, Film/TV, Buch und Ort. Literarische Ergüsse durch reine Text-Postings sind dadurch also gar nicht möglich, was aber auch nicht stört. Das „Empfehlungs“-Feature durch die Posting-Optionen Musik, Film/TV und Buch sind eine nette Idee sich mit Freunden gezielt zu den Themen auszutauschen.

Fazit

Heutzutage erliegen viele Dinge im Internet dem “Next Big Thing”-Syndrom. Für etwa einen Tag bis zu einer Woche müssen sich Apps, News, Memes und mehr der Feuertaufe der Langlebigkeit im Internet unterziehen. Ob wir in den kommenden Monaten noch über Vero reden, bleibt abzuwarten. Potenzial hat die App definitiv und wenn sich das Konzept des Bezahl-Algorithmus- und werbefreien Feeds durchsetzt, kann sie sich definitiv durchsetzen. Ob man sich nur noch ein Social Media Profil antun will, das ebenso wie die anderen regelmäßig mit Inhalten versorgt werden möchte, ist fraglich.

Vero ist für iOS– und Android-Geräte verfügbar.


Image by Nils Hansen

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • CES 2018 stern: TV-Giganten und knuffige Alltags-Helfer: Das sind die Highlights der CES 2018: Die Consumer Electronics Show – oder kurz CES – 2018 neigt sich dem Ende zu – und wir waren übrigens auch vor Ort! Wie jedes Jahr stellt die Messe den Auftakt für das folgende Tech-Jahr dar und setzt die kommenden Trends. Eines lässt sich aber jetzt schon sagen: künstliche Intelligenzen und Sprachassistenten werden die Technik-Welt und auch den Alltag vieler Nutzer weiterhin beschäftigen. Aber auch die Automobil-Industrie und TV-Hersteller sorgten in Las Vegas für Aufsehen.

  • SMART HOME androidpiloten: Google Home Mini vs. Echo Dot: der große Vergleich: Kampf der Mini-Giganten: die Androidpiloten haben sich die Mini-Versionen der beiden größten Smart-Home-Hersteller mal genauer angesehen. Google Home Mini versus Amazon Echo Dot – wer hat die Nase vorn? Was viele vor ein bis zwei Jahren noch skeptisch machte, hält heute schon Einzug in viele Haushalte. Sprachassistenten in smarten Lautsprechern lagen 2017 vielerorts unter den Weihnachtsbäumen. Technik-Experte Timo Brauer hat sich die beiden Helferlein genauer angesehen und weiß, welcher sich für welchen Nutzer eignet.

  • FACEBOOK spiegelonline: Neuer Newsfeed: Facebook stuft Inhalte von Medien und Firmen zurück: Facebook führt einen neuen Feed ein. Inhalte durch Medienhäuser, Unternehmen und politische Gruppen sollen zurückgestuft werden. Dafür sollen dann Beiträge von Freunden und Familien wieder sichtbarer werden. Zuckerberg möchte, auf den Wunsch vieler Nutzer, Facebook damit wieder zum Urpsrungsgedanken zurückbringen und die Plattform zum Austausch persönlicher Verbindungen zurückführen. Inhalte von Facebook-Seiten werden zwar trotzdem noch im Feed auftauchen, der Algorithmus wird aber so geändert, dass Beiträge von Facebook-Freunden priorisiert werden. Unternehmens-Seiten müssen also künftig noch tiefer in die Tasche greifen, um sichtbar zu bleiben.

  • INFLUENCER t3n: Wenn ein Youtube-Star eine Leiche filmt: Wie viel Verantwortung haben Influencer?: Das neue Jahr hatte kaum begonnen und schon war es wohl einer der Aufreger des Jahres: Youtuber filmt Leiche. Der US-amerikanische Content-Creator Logan Paul lädt ein Video zu seinem Besuch im japanischen “Suizidwald” hoch und stößt auf einen Mann, der sich an einem Baum erhängt hat. Statt die Kamera auszumachen hält Paul weiterhin drauf, zeigt den Körper nr spärlich zensiert. Was darauf folgte war ein Shitstorm sondergleichen, warf aber gleichzeitig auch Fragen auf. Wie haben Plattformen und Influencer auf solche Fälle zu reagieren, wo liegt die Verantwortung? Influencer-Experte Simon Staib von Blogfoster weiß mehr.

  • INSTAGRAM handelsblatt: Kein Kuscheln mit Quokkas auf Instagram: Sie zählen sicherlich zu den niedlichsten Tieren der Welt. Quokkas waren eine ganze Zeit lang ein viraler Hit, zahlreiche User posierten mit den knuffigen Tieren für Selfies, um das dann mit dem Hashtag #quokkaselfie auf Instagram hochzuladen. Tierschützer haben sich jetzt aber gegen den Trend ausgesprochen, die Selfies würden die Wildtiere zu sehr stressen. Instagram pflichtet dem zu und schaltet sich ein. Wenn dieser oder ähnliche Hashtags also gesucht werden, zeigt Instagram dem Nutzer künftig einen Hinweis zu Umweltschutz.

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • VIRTUAL REALITY t3n: HTC soll über Verkauf der Virtual-Reality-Sparte nachdenken: Auch an der diesjährigen Gamescom war Virtual Reality an gefühlt jedem zweiten Stand vertreten und gar nicht mehr aus der Gamesbranche wegzudenken. Einer der größten Player auf dem VR-Markt, HTC, steht jetzt womöglich kurz davor, seine VR-Sparte zu verkaufen. HTC stellt mit der Vive eines der aktuell bekanntesten VR-Headsets her. Sogar ein Verkauf des kompletten Unternehmens soll in Erwägung gezogen werden.

  • HYBRID golem: James Bond fährt bald Hybrid: Das Kultfahrzeug des fiktiven, britischen Geheimagenten soll es in Zukunft in “umweltfreundlich” geben. Die Luxusmarke Aston Martin, die James Bond seit jeher den Dienstwagen bereitstellt, plant eine Zukunft als Hybridhersteller. Ab ca. 2025 sollen ausschließlich Hybridfahrzeuge angeboten werden und auch ein reines Elektroauto sei in Planung. Der Unternehmenschef Andy Palmer teilte der Financial Times zudem seine Prognose mit, dass 2030 schon 25 Prozent der verkauften Fahrzeuge Elektroautos seien sollen.

  • SEXISMUS sueddeutsche: Sexismus im Algorithmus: Wenn eine Bilderkennungssoftware das Bild einer Küche automatisch mit dem Wort “Frau” assoziiert, ist das nicht gerade erfreulich. Dem Informatiker Vicente Ordóñez ist kürzlich ein derart sonderbares Verhalten an der Bilderkennungssoftware aufgefallen, die er gerade entwickelt. Die Bilder von unterschiedlichen Aktivitäten werden dabei geschlechtsspezifisch gewertet. Einkaufen und Kochen wird Frauen zugeordnet, Schießen oder Trainieren dagegen Männern. Zwei IT-Professoren der Universität von Massachusetts, wollen sich mit der Software „Themis“ nun des Problems annehmen.

  • TV horizont: Pro Sieben Sat 1 hält trotz schwachem TV-Markt an Jahreszielen fest: Video on Demand-Dienste schwächen nach und nach den TV-Markt. Auch einem der größten Netzwerke, Pro Sieben Sat 1, macht dieser Wandel zu schaffen. Der Münchner Medienkonzern berichtete, dass sich die Werbeeinnahmen des dritten Quartals unter den Erwartungen entwickeln. Pro Sieben Sat 1 will nun die Konzernstruktur unter die Lupe nehmen, um sich besser auf den Wandel der Medienlandschaft auszurichten.

  • GAMESCOM ign: Gamescom 2017: Das waren die Highlights der IGN-Redaktion: Eine Woche ist bereits wieder seit dem Start der Gamescom 2017 in Köln vergangen und langsam aber sicher einigen sich die Redaktionen auf ihre Tops und Flops der dort vorgestellten Spieletitel. Die IGN-Redaktion hat sich die üblichen Verdächtigen wie Battlefield oder Need for Speed angesehen. Aber auch unbekanntere Titel wie das Playstation VR-Game Moss haben das Interesse der Redaktion geweckt. Zudem lässt die Hardware der präsentierten Xbox One X auf die wohl stärkste Konsole aller Zeiten hoffen.

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • SAFETY CHECK sueddeutsche: Facebooks Safety Check – manchmal hilfreich, manchmal Panikmache: Die Schicherheitsabfrage von Facebook wurde bis jetzt nicht nur gelobt. Mit ihr können sich Nutzer auf Facebook in Sicherheit markieren sollte es in einer Region zu einem Anschlag oder einer anderweitigen Katastrophe kommen. Der Safety Check aktiviert sich, wenn ein Algorithmus in Posts oder Lokalmedien Keywords wie „Terror“ oder „Anschlag“ oder „Erdbeben“ erkennt. Nach den weitflächigen Bedrohungen in Barcelona war die Funktion sinnvoll, im Falschen Moment aktiviert, kann die Funktion aber auch eher für Panik als für Beruhigung sorgen.

  • BREITBAND golem: Breitbandausbau kommt nur schleppend voran: Milliardenförderungen wurden in den Breitbandausbau investiert, doch auf dem Land ist noch kaum ein Teil der Förderung angekommen. Bis 2018 sollten alle Deutschen Haushalte über mindestens einen Breitbandzugang verfügen. Momentan liegt die Quote bundesweit erst bei 75 Prozent, in manchen Regionen sogar noch weniger. Doch die Bundesregierung geht weiterhin von der Erfüllung des Ziels aus. Kritik erntet die Regierung mittlerweile nicht nur aus den Reihen der Lokalregierungen, sondern auch von Industrie und Handelskammern.

  • DROHNEN faz: Stören, abschießen und den Pilot verhaften: Drohnen warden immer beliebter, auch unter Privatpersonen. Durch ein GPS Signal erkennen manche Fluggeräte mittlerweile in welchen Zonen sie nicht fliegen darf und warnt die Nutzer, schwierig wird es bei Privatgelände von Firmen, bei denen es zu Industriespionage kommen kann. Aus diesem Grund hat sich ein großer Markt für Drohnen-Abwehr gebildet. Durch Funksignale und Erkennungssensoren soll die Drohne erkannt und dann durch ein so genanntes „Jamming“ das Signal zwischen Drohne und Fernbedienung verursacht werden. Dann könnten die Drohnen erfasst und abgeschossen werden. Die Sensortechnik soll sogar in der Lage sein den Standort des Piloten ausfindig zu machen.

  • BILDBEARBEITUNG google research blog: Making Visible Watermarks More Effective: Ein neuer Algorithmus von den Google Researchern ist nun in der Lage Wasserzeichen von Fotos zu entfernen. Viele Fotoanbieter im Internet nutzen Wasserzeichen um Internetnutzern den Zugang zu klaren Bildern zu verweigern, außer diese zahlen den genannten Preis. Die Forscher sagen, sie wollen mit der Vorstellung dieses Algorithmus keineswegs Fotoanbieter angreifen, sondern ihnen eine Sicherheitslücke aufzeigen.

  • GOOGLE wired: What Google’s Open Communication Culture Is Really Like: Die Arbeitswelt bei Google basiert auf einem bestimmten Modell – kommunikativ, offen, inspirierend Ideen zu verfolgen. Das zeichnet ein Bild ähnlich dem eines Universitätscampus. Regelmäßige Großmeetings, offene Mikrofone und Diskussionen. Das führt zu einer starken Einbeziehung der Mitarbeiter in das Unternehmen und schafft Loyalität. Doch mit zunehmender Größe des Unternehmens oder einer Angst vor immer gefährlicher werdenen Leaks wurden Veränderungen irgendwann unumgänglich, schreibt dieser Ex-Google Mitarbeiter.

Weiterlesen »

Diese Technologie verhindert die Übertragung von Morden bei Facebook Live

Blutbad (adapted) (Image by HannahJoe7 [CC0 Public Domain] via pixabay)

Ganze 24 Stunden hat es gedauert, bis Facebook ein Video gelöscht hat, in dem gezeigt wurde, wie ein Mann seine Tochter, die noch ein Säugling war, umgebracht hat. Am 24. April 2017 hatte in Thailand ein Vater den Mord an seiner 11 Monate alten Tochter mithilfe des Live-Video-Services des sozialen Netzwerks gestreamt, bevor er Selbstmord beging. Die beiden Videoclips wurden hunderttausendfach angesehen, bevor sie entfernt wurden.

Dies war nicht das erste Mal, dass Facebook dazu genutzt wurde, um gewalttätiges Verhalten zu verbreiten. Die Seite wurde bereits vorher im April genutzt, um einen Mord in Cleveland und einen Suizid in Alabama zu streamen. Infolgedessen wurde Facebook dahingehend kritisiert, dass es nicht schnell genug auf die derartige Nutzung des Live-Streaming-Services reagiert habe. Das Unternehmen antwortete, dass es die Absicht hat, 3.000 Leute anzustellen, um jedes Video, das kriminelles oder gewalttätiges Verhalten zeigt, zu identifizieren.

Mit 1,86 Milliarden Nutzern ist eine Plattform wie Facebook jedoch viel zu umfangreich, als dass dies ausreichen würde. Facebook steht nicht nur vor einem Managementproblem sondern auch vor einer technologischen Herausforderung. Stattdessen muss das soziale Netzwerk mehr in Software investieren, die Videos mit gewalttätigem Inhalt automatisch erkennt.

Üblicherweise haben soziale Netzwerke bei der Identifizierung von Verbrechen mit Melde- und Beschwerdesystemen auf ihre Nutzer vertraut. Wenn jemand sich bedroht fühlt oder eine illegale Aktivität beobachtet, kann dies der Seite, oder falls notwendig, direkt der Polizei gemeldet werden. Wenn sich im Fall von Facebook jemand über gewalttätigen Inhalt beschwert, dann wird Facebook ermitteln und entscheiden, ob der Inhalt entfernt werden muss.

Aber bei der gegebenen Menge an Inhalten, die jeden Tag gepostet werden, und der Geschwindigkeit, mit der sie sich verteilen, wären wahrscheinlich sogar tausende von Ermittlern zu wenig, um schnell mit gewalttätigen Videos umzugehen. Deshalb dauerte es fast 24 Stunden, bis das Video mit dem Mord entfernt wurde, obwohl es direkt nach Beginn des Livestreams gemeldet wurde.

Die letzten Entwicklungen in der KI-Technologie könnten eine Lösung durch „Text-Mining“, „Bild-Mining“ und „Video-Mining“ bieten. Diese Technologien nutzen maschinelle Lernalgorithmen, um automatisch heikle Wörter oder Verhaltensweisen in digitalen Inhalten aufzuspüren. Facebook könnte ein System aufsetzen, das diese Technologie nutzt, um Inhalte als potenziell gewalttätig zu identifizieren und es daran zu hindern, sich im Netzwerk zu verbreiten. Dies würde den Nutzern mehr Zeit geben, Inhalte zu melden und den Facebook-Mitarbeitern mehr Möglichkeiten, um zu überprüfen, ob sie entfernt werden müssen.

Damit die Algorithmen effektiv sind, müssen sie die Grundlagen der Psychologie und Linguistik beachten, sodass sie verschiedene Typen gewalttätigen Inhalts kategorisieren können. Zum Beispiel ist der Mord an einem Menschen relative leicht als gewalttätig zu erkennen. Aber viele andere potenziell gewalttätige Taten gehen eher mit psychologischen Schäden als körperlichen Verletzungen einher.

Die Algorithmen müssten Nachrichten automatisch sortieren und in Abhängigkeit ihrer linguistischen Merkmale in verschiedene Levels klassifizieren, indem Inhalt mit einer höheren Wahrscheinlichkeit in Bezug auf gewalttätiges Verhalten ein höherer Wert zugeordnet wird. Die Facebook-Mitarbeiter könnten dieses System dann nutzen, um den Inhalt effizienter zu überwachen. Dies könnte möglich machen, dass Mitarbeiten gewalttätige Inhalte verhindern können, bevor sie überhaupt auftauchen. Wenn das System seine Mitarbeiter über leicht beleidigende Worte oder Nachrichten informiert, könnten sie einschreiten, um zu verhindern, dass weiterer Inhalt hochgeladen wird, der tatsächlich physische Gewalt oder schlimmere Nachrichten beinhaltet.

Wenn dann Details an die Polizei weitergeleitet werden würden, könnte dieses System sogar in der Lage sein, Verbrechen komplett zu verhindern. Zum Beispiel lässt der Regierungsbericht über den öffentlichen Mord an dem britischen Soldaten Lee Rigby vermuten, dass Facebook mehr hätte tun können, um die Mörder zu stoppen, die auf der Seite diskutiert hatten, dass sie „einen Soldaten umbringen“ wollten.

Neue Probleme

Diese Art von maschinellem Lernalgorithmus ist bereits weit entwickelt und wird von Verkehrsbehörden dazu genutzt, Autounfällen und Verkehrsbelastungen durch die CCTV-Aufnahmen zu melden. Doch er muss ebenso für Livestream-Videos entwickelt werden. Die Schwierigkeit liegt darin, dass der Inhalt von Livestreams für Algorithmen viel schwieriger zu analysieren ist als der von Fahrzeugen. Die dringende Forderung nach Software zur Inhaltsüberwachung und -verwaltung sollte jedoch die Fortschritte auf diesem Gebiet vorantreiben. Facebook könnte sogar als Anführer auf diesem Gebiet in Erscheinung treten.

Allerdings könnte dies auch dazu führen, dass Inhalte überwacht und sogar zensiert werden, bevor sie veröffentlicht werden. Dies würde die Frage aufwerfen, welche Rechte Facebook über die auf der Seite geposteten Inhalte hat, was die bereits bestehende Kontroverse über die Nutzungsrechte der sozialen Netzwerke über die Nutzerinhalte anheizen würde.

Es würde sich außerdem im Konflikt mit dem konventionellen Ethos stehen, dass soziale Medien eine Möglichkeit für die Nutzer darstellen, um alles zu veröffentlichen, was sie wollen (auch wenn es später entfernt wird), was schon seit Beginn des Internets ein Teil desselben ist. Es würde außerdem bedeuten, dass Facebook mehr Verantwortung für den Inhalt, der auf der Seite gepostet wird, übernimmt, als es bisher bereit war, zu tun. Dies bedeutet, dass Facebook eher ein traditioneller Verleger als eine Plattform werden würde – was eine ganze Reihe neuer Probleme hervorrufen könnte.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Blutbad“ by HanahJoe7 (CC0 Public Domain)


The Conversation

Weiterlesen »

Künstliche Intelligenz: Verstehen, wie Maschinen lernen

Roboter (adapted) (Image by jens kuu [CC BY 2.0] via flickr)

Von „Jeopardy“-Gewinnern und „Go“-Meistern zur berüchtigten werbebezogenen Rassenprofilierung scheint es, dass wir in eine Ära eingetreten sind, in der sich die Entwicklung von künstlicher Intelligenz rasend beschleunigt. Aber ein vollkommen empfindungsfähiges Wesen, dessen elektronisches „Gehirn“ sich komplett mit komplexen kognitiven Aufgaben beschäftigen kann und dabei faire, moralische Beurteilungen aufrechterhält, ist jetzt noch schwer vorstellbar.

Leider rufen jetzige Entwicklungen eine generelle Angst hervor, wie künstliche Intelligenz in der Zukunft werden könnte. Die Repräsentation künstlicher Intelligenz in der jüngsten Popkultur zeigt, wie vorsichtig – und pessimistisch – wir sind, wenn es um Technologie geht. Das Problem mit Angst ist, dass sie lähmen und Ignoranz fördern kann. Zu lernen, wie künstliche Intelligenz im Inneren funktioniert, kann diese Bedenken lindern und eine verantwortliche und sorgenfreie Beschäftigung ermöglichen.

Künstliche Intelligenz basiert auf Machine Learning als elegantes und leicht zugängliches Werkzeug. Aber um zu verstehen, was Machine Learning bedeutet, müssen wir zunächst untersuchen, wie die positiven Aspekte des Potentials die negativen Aspekte wettmachen.

Daten sind der Schlüssel

Einfach gesagt, bezieht sich Machine Learning darauf, dass Computern beigebracht wird, wie Daten analysiert werden, wie man zum Beispiel einzelne Aufgaben mittels eines Algorithmus‘ löst. So werden für die Handschrifterkennung beispielsweise Algorithmen benutzt, um Buchstaben zu unterscheiden, die auf einer menschlichen Handschrift basieren. Die Datenspeicherungszentren nutzen Regressionsalgorithmen, um in einer quantifizierbaren Weise den Verkaufspreis eines gegebenen Vermögens zu schätzen.

Machine Learning beschäftigt sich letzten Endes mit Daten. Fast jede Gesellschaft generiert Daten so oder so, man denke an Marktforschung, soziale Medien, Schulfragebögen oder automatische Systeme. Die Anwendungen von Machine Learning versuchen, versteckte Muster oder Korrelationen in dem Chaos der großen Datenmengen zu finden, um Modelle zu entwickeln, die Verhalten voraussagen.

Daten haben zwei Kernelemente – Stichproben und Kenndaten. Ersteres repräsentiert individuelle Elemente in einer Gruppe, das zweite die Anzahl der Eigenschaften, die sie teilen. Schauen wir uns zum Beispiel soziale Medien an: Die Nutzer sind Stichproben und ihre Nutzung kann in Kenndaten übersetzt werden. Facebook zum Beispiel gebraucht unterschiedliche Aspekte des „Gefallens“ von Aktivitäten, die sich von Nutzer zu Nutzer ändern kann, als wichtige Kenndaten für nutzerdifferenzierte Werbung.

Facebook-Freunde können ebenfalls als Stichproben verwendet werden, während ihre Verbindung zu anderen Menschen als Kenndaten verstanden werden. So wird ein Netzwerk etabliert, in dem Informationsverbreitung erforscht werden kann. Außerhalb von sozialen Medien nutzen automatisierte Systeme, die in industriellen Prozessen als Überwachungswerkzeug verwendet werden, Momentaufnahmen des gesamten Prozesses als Stichprobe und nehmen Ausmessungen zur gleichen Zeit als Kenndaten auf. Dies erlaubt dem System, Anomalien im Prozess in Echtzeit festzustellen. All diese unterschiedlichen Lösungen basieren darauf, dass Maschinen mit Daten gefüttert werden müssen und auf der Lehre, dass sie ihre eigenen Prognosen feststellen können, wenn sie erst einmal strategisch die gegebenen Informationen beurteilt haben. Und das ist Machine Learning.

Die menschliche Intelligenz als Anfangspunkt

Jegliche Daten können in simple Konzepte übersetzt werden und jede Anwendung von Machine Learning, künstliche Intelligenz eingeschlossen, benutzt diese Konzepte als Basiskomponenten. Wenn Daten erstmal verstanden wurden, ist es Zeit, zu entscheiden, was mit den Informationen geschehen soll. Eine der bekanntesten und intuitivsten Anwendungen von Machine Learning ist die Klassifikation. Das System lernt, wie es Daten in verschiedene Gruppen aufteilt, basierend auf einem Referenzdatensatz.

Dies ist direkt verbunden mit den Arten von Entscheidungen, die wir tagtäglich treffen, wenn es um die Gruppierung von ähnlichen Produkten geht, beispielsweise bei Küchenutensilien, Schönheitsprodukten oder bei der Auswahl von guten Filmen, basierend auf den früheren Erfahrungen. Während diese zwei Beispiel komplett unabhängig voneinander zu sein scheinen, basieren sie auf einer essentiellen Annahme von Klassifikation von Prognosen, durch die sie als gut etablierte Kategorien definiert werden.

Wenn man zum Beispiel ein Tiegel mit Feuchtigkeitscreme nimmt, nutzen wir eine spezielle Liste von Kerndaten – die Form der Verpackung oder der Geruch des Produkts, um korrekt vorherzusagen, dass dies ein Schönheitsprodukt ist. Eine ähnliche Strategie nutzt man, wenn man einen Film auswählt, indem man auf die Kerndatenliste zugreift – beispielsweise der Regisseur oder ein bestimmter Schauspieler – um vorherzusagen, ob dieser Film in eine der beiden Kategorien gehört: Gut oder schlecht.

Indem man die unterschiedlichen Beziehungen zwischen Kerndaten, verbunden mit einer Menge an von Stichproben, festhält, können wir vorhersagen, ob der Film es wert ist, geschaut zu werden, oder besser gesagt, wir können uns ein Programm erstellen, welches dies für uns tut.

Um aber in der Lage zu sein, diese Informationen zu manipulieren, müssten wir schon ein Datenwissenschaftler sein, also erfahren in Mathematik und Statistik und mit einer ausreichenden Programmierfähigkeit, um Alan Turing und Margaret Hamilton stolz zu machen, nicht wahr? Nun ja, nicht ganz.

Wir alle wissen genug über unsere Muttersprache, um im täglichen Leben zurecht zu kommen, selbst wenn sich nur einige Wenige unter uns auf die Felder der Linguistik und der Literatur hinausbegeben. Bei der Mathematik ist es ähnlich: Sie befindet sich immer um uns herum, so dass wir beim Errechnen von Wechselgeld oder beim Abmessen von Zutaten für ein Rezept keine größeren Probleme haben. Ebenso ist für den bewussten und effizienten Umgang kein größeres Wissen in Machine Learning Voraussetzung.

Irgendwo dort draußen befinden sich sehr wahrscheinlich extreme gut qualifizierte und professionelle Datenwissenschaftler – mit ein wenig Anstrengung kann aber auch jeder von uns die Grundlagen erlernen und die Art und Weise, wie sie Vorteile von Informationen sehen und ergreifen, verbessern.

Algorithme dir deinen Weg

Schauen wir uns noch einmal unseren Klassifikationsalgorithmus an und denken wir über eine Möglichkeit nach, mit der die Art und Weise imitiert wird, wie wir Entscheidungen treffen. Wir sind soziale Wesen, wie ist es also um unsere sozialen Interaktionen bestellt? Die ersten Eindrücke sind wichtig und wir haben alle ein internalisiertes Modell, dass innerhalb der ersten paar Minuten, in denen wir jemanden kennen lernen, evaluiert, ob wir ihn mögen oder nicht.

Zwei Folgen sind möglich: ein guter oder ein schlechter Eindruck. Für jede Person sind unterschiedliche Eigenschaften – Kenndaten – wichtig – auch unbewusst – die auf etlichen Begegnungen in der Vergangenheit basieren – Stichproben. Diese könnten alles sein, vom Ton der Stimme zu Extraversion und vor allem die Einstellung zu Höflichkeit. Für jede neue Person, die wir treffen, registriert ein Modell in unserem Kopf diese Eindrücke und erstellt eine Prognose. Wir können dieses Modell zu ein paar wichtigen Sätzen von Eindrücken herunterbrechen, gewichtet nach ihrer Relevanz.

Für einige Menschen ist vielleicht Attraktivität sehr wichtig, wohingegen für andere einen guten Sinn für Humor oder die Tatsache, dass derjenige Hunde mögen sollte, ausschlaggebend ist. Jede Person wird ihr eigenes Modell entwickeln, das komplett auf den Erfahrungen basiert. Unterschiedliche Daten resultieren in unterschiedlichen Modellen, die mit unterschiedlichen Folgen eingeübt werden. Unser Gehirn entwickelt Mechanismen, die, während sie uns nicht ganz klar sind, festschreiben, wie diese Faktoren gewichtet werden.

Was Machine Learning macht, ist folgendes: Sie entwickelt präzise, mathematische Möglichkeiten für Maschinen, um diese Folgen zu errechnen – besonders in Fällen, in denen wir die Masse an Daten nicht einfach handhaben können. Jetzt gerade, und vielleicht mehr denn je, sind Daten riesig und langlebig. Zugang zu einem Werkzeug zu haben, dass aktiv Daten nutzt, um ein besonderes Problem zu lösen, so wie künstliche Intelligenz, meint auch, dass jeder diese erleben und ausnutzen sollte und kann. Wir sollten das nicht nur deshalb tun, damit wir nützliche Anwendungen herstellen, sondern auch, um Machine Learning und künstliche Intelligenz in ein besseres und nicht so negatives Licht zu rücken.

Es gibt noch etliche Ressourcen für Machine Learning, auch wenn sie einiges an Programmierfähigkeit voraussetzen. Einige bekannte Sprachen, die für Machine Learning maßgeschneidert sind, sind schon zugänglich – von Grundlagenkursen bis hin zu vollständigen Lehrgängen. Meist braucht man nicht länger als einen Nachmittag, um einzutauchen und brauchbare Resultate zu erhalten.

All dies bedeutet nicht, dass uns das Konzept von Maschinen mit menschlicher Denkweise nicht beschäftigen sollte. Mehr darüber zu erfahren, wie diese Denkweise funktioniert, wird uns die Macht geben, Vertreter einer positiven Veränderung zu sein – und zwar so, dass wir die Kontrolle über künstliche Intelligenz behalten, und nicht anders herum.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Roboter“ by jens kuu (CC BY 2.0)


The Conversation

Weiterlesen »

Brains vs. Robots: Der Aufstieg der Roboter ist nicht aufzuhalten

Arzt (adapted) (Image by tmeier1964 [CC0 Public Domain] via pixabay)

Elon Musk, der Tesla-Boss und Gründer von OpelAl, schlug vor ein paar Tagen vor, dass die Menschheit ihre eigene Irrelevanz hinauszögern könnte, indem sie sich selbst mit ihnen verbindet und zu Cyborgs werden möge. Jedoch lassen aktuelle Trends in der Software künstlicher Intelligenz und tiefergehender Lerntechnologie, vor allem auf lange Sicht gesehen ernsthafte Zweifel über die Plausibilität dieser Aussage entstehen. Diese Zweifel lassen sich nicht nur auf Einschränkungen in der Hardware zurückführen, sie haben auch damit zu tun, welche Rolle das menschliche Gehirn bei dem Zuordnungsprozess spielt.

Musks Theorie ist einfach und direkt: Ausreichend entwickelte Schnittstellen zwischen dem Gehirn und dem Computer soll es den Menschen ermöglichen, ihre Fähigkeiten durch besseres Verständnis über den Einsatz von Technologien wie maschinelles Lernen und tiefergehende Lernerfahrungen massiv zu erweitern. Aber der Austausch verläuft in beide Richtungen. Durch den Menschen als „Lückenfüller“ in der Verbindung zwischen Hirn und Maschine könnte die Leistung maschineller Lernalgorithmen verbessert werden, vor allem in Bereichen wie differenzierten kontextabhängigen Entscheidungen, in denen die Algorithmen noch nicht ausgereift genug sind.

Die Idee an sich ist nicht neu. So spekulierte beispielsweise unter anderem J. C. R. Licklider bereits Mitte des 20. Jahrhunderts über die Möglichkeit und Implikation der „Mensch-Computer Symbiose“. Allerdings entwickelte sich der Prozess seitdem nur langsam. Ein Grund hierfür ist die Entwicklung der Hardware. „Es gibt einen Grund, wieso sie ‚Hardware‘ genannt wird – sie ist ziemlich kompliziert“ (engl.: hard), sagte Tony Fadell, der Entwickler des iPods. Die Schaffung der Hardware, die sich mit organischen Systemen verbindet, sei noch schwieriger. Aktuelle Techniken sind primitiv im Vergleich zu der Vorstellung einer Verbindung von Gehirn und Maschine, wie sie uns in Science-Fiction-Filmen wie Matrix verkauft wird.

Macken der tiefgehenden Lernerfahrung

Angenommen, das Hardware-Problem würde letztendlich gelöst, gibt es noch weitaus größere Probleme. Das vergangene Jahrzehnt der enormen Fortschritte in der Forschung des Deep Learning hat aufgedeckt, dass weiterhin grundlegende Herausforderungen bezwungen werden müssen. Eine davon ist die Problematik, die Funktionsweise komplexer neuronaler Netzwerksysteme zu verstehen und zu charakterisieren. Wir vertrauen in einfache Technologien wie einen Taschenrechner, weil wir wissen, dass er immer genau das tun wird, was wir von ihm erwarten. Fehler lassen sich fast ausschließlich auf menschliche Eingabefehler zurückführen.

Eine Vorstellung der Verschmelzung von Gehirn und Maschine ist es, uns zu Supermenschen mit unfassbaren Rechenfähigkeiten zu machen. Statt einen Taschenrechner oder das Smartphone zu zücken, könnten wir die Rechnung einfach denken und sofort die richtige Antwort der „assistierenden“ Maschine erhalten. Besonders knifflig wird es bei dem Versuch, tiefer in die fortgeschrittenen Funktionen der maschinellen Lerntechniken zu gehen, wie beispielsweise bei Deep Learning.

Angenommen, Sie arbeiten in am Flughafen in der Sicherheitsabteilung und verfügen über eine Verschmelzung von Gehirn und Maschine, die jeden Tag automatisch tausende Gesichter scannt und über mögliche Sicherheitsrisiken alarmiert. Die meisten maschinellen Lernsysteme leiden unter einem Problem, bei dem eine kleine Veränderung in der äußeren Erscheinung einer Person oder eines Objekts dazu führen kann, dass katastrophale Fehler in der Klassifizierung entstehen. Verändern Sie das Bild einer Person um weniger als ein Prozent, kann es vorkommen, dass das maschinelle System denkt, es sähe ein Fahrrad statt eines Menschen.

Terroristen oder Verbrecher würden die verschiedenen Schwachstellen der Maschine ausnutzen, um Sicherheitskontrollen zu umgehen – solcherlei Probleme bestehen bereits bei der Online-Sicherheit. Auch wenn Menschen auf andere Weise eingeschränkt sind, bestünde diese Verwechslungsgefahr bei ihnen zumindest nicht.

Ungeachtet seiner Reputation als nicht emotionale Technologie leiden maschinelle Lerntechnologien wie Menschen unter Voreingenommenheit und können mit entsprechender Dateneingabe sogar rassistisches Verhalten aufweisen. Diese Unvorhersehbarkeit hat grundlegende Auswirkungen darauf, was passiert, wenn ein Mensch sich in die Maschine einklinkt und, wichtiger noch, dieser auch vertraut.

Vertraue mir, ich bin Roboter

Vertrauen ist ebenfalls eine beidseitige Angelegenheit. Menschliches Denken ist eine komplexe, höchst dynamische Angelegenheit. Schaut man sich dasselbe Sicherheitsszenario mit einer ausreichend entwickelten Verbindung von Gehirn und Maschine an, stellt sich die Frage: Woher soll die Maschine wissen, welche menschlichen Neigungen sie zu ignorieren hat? Schließlich sind unbewusste Neigungen eine Herausforderung, von der jeder betroffen ist. Was, wenn die Technologie bei der Befragung möglicher Bewerber hilft?

Wir können in bestimmtem Ausmaß die Vertrauensprobleme einer Hirn-Maschine-Verbindung vorhersehen, wenn wir auf die weltweiten Verteidigungskräfte blicken, die versuchen, das Vertrauen in menschliche Maschinen in einem stetig wachsenden menschlich-autonom gemischten Schlachtfeld anzusprechen. Die Forschung beschäftigt sich mit beiden Fällen: Bekannte autonome Systeme, bei denen Menschen den Maschinen vertrauen und Maschinen sich wiederum auf die Menschen verlassen.

Es existiert eine Parallele zwischen einem Roboter-Krieger, der die ethische Entscheidung trifft, eine rechtswidrige Anweisung des Menschen zu ignorieren und dem, was im Interface zwischen Gehirn und Maschine passieren muss. Dies sind Interpretationen der menschlichen Gedanken durch die Maschine, während flüchtige Gedanken und tiefe unbewusste Neigungen gefiltert werden.

In Verteidigungssituationen übernimmt die logische Rolle für ein menschliches Hirn die Prüfung, ob Entscheidungen ethisch vertretbar sind. Doch wie wird das funktionieren, wenn das menschliche Gehirn an eine Maschine angeschlossen ist, die Schlussfolgerungen aus Daten zieht, die kein Hirn begreifen kann? Auf lange Sicht ist das Problem, ob und wie Menschen in Prozesse involviert sein müssen, die zunehmend von Maschinen bestimmt werden. Bald werden Maschinen vielleicht sogar medizinische Entscheidungen übernehmen, die kein menschliches Team ausloten kann. Welche Rolle kann und sollte das menschliche Gehirn in diesem Prozess spielen?

In manchen Fällen vermehrt die Kombination aus Automatisierung und menschlicher Arbeitskraft die Jobaussichten, jedoch dürfte dieser Effekt demnächst verschwunden sein. Die gleichen Roboter und automatische Systeme werden allerdings weiterhin verbessert und schlussendlich die von ihnen geschaffenen Jobs ersetzen. Während Menschen zunächst eine „nützliche“ Rolle in Gehirn-Maschine-Systemen spielen könnten, entwickelt sich die Technologie weiter und es wird dementsprechend weniger Gründe geben, Menschen überhaupt in den Prozess zu integrieren.

Der Gedanke, die Relevanz der Menschheit mit der Verbindung von menschlichen und künstlichen Gehirnen aufrechtzuerhalten, scheint verlockend. Abzuwarten bleibt auch, welchen Beitrag das menschliche Gehirn hier beitragen wird – besonders, weil die technologische Entwicklung die des menschlichen Gehirns um eine Million zu eins überbietet.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Arzt“ by tmeier1964 (CC0 Public Domain)


The Conversation

Weiterlesen »

Fabian Westerheide über Künstliche Intelligenz

Neural (adapted) (Image by geralt [CC0 Public Domain] via pixabay)

Dieser Beitrag ist Teil einer Artikelreihe im Vorfeld der Digitalkonferenz EXPLAINED von Microsoft Deutschland. Die Konferenz findet am 23. März 2017 in Berlin statt.


Künstliche Intelligenz (KI) und die Frage, was den Menschen und die Maschine zusammenbringt, treibt den Unternehmer, Venture Capitalist, Autor und Redner Fabian Westerheide um. Nachdem er in verschiedene Unternehmen investierte, ist er seit 2014 Geschäftsführer von Asgard – human VC for AI und leitet die KI-Konferenz Rise of AI. Außerdem ist er Koordinator für Künstliche Intelligenz beim Bundesverband Deutscher Startups. Ich habe mich mit ihm im Vorfeld zur Digitalkonferenz EXPLAINED von Microsoft Deutschland, bei der er als Speaker auftreten wird, zum Interview getroffen.

Was fasziniert Sie an Künstlicher Intelligenz?

Das war ein Prozess. Ich komme vom Land und habe schon immer an Computern herumgebastelt und mich für die Auswirkungen zwischen Mensch und Maschine interessiert. Dann bin ich Unternehmer geworden und habe in insgesamt 35 Firmen investiert, von denen die meisten aus dem Softwarebereich stammen. Irgendwann wusste ich, dass das Thema Künstliche Intelligenz, was mich durch Science-Fiction-Literatur schon seit den Achtzigern beschäftigt hat, endlich greifbar wurde. Mich fasziniert vor allem, dass es so ein komplexes Thema ist und wirtschaftliche, gesellschaftliche, militärische und politische Konsequenzen hat. Es betrifft sowohl Unternehmen als auch den einzelnen Menschen, es betrifft letztlich die ganze Menschheit. Das ist ein Thema, bei dem ich meine ganze Begeisterung für Politik und Gesellschaft einfließen lassen kann. Und ich fühle mich sehr wohl damit, weil es um mehr als Geldverdienen geht. Künstliche Intelligenz kann wirklich die Menschheit verändern – in die eine oder in die andere Richtung.

Was ist der nächste Entwicklungsschritt für die Künstliche Intelligenz?

Die Maschine muss noch besser lernen zu lernen. Das bedeutet, dass sie mit wenige Daten zurecht kommt und mit weniger Transferwissen arbeiten kann. Zum Beispiel kann man derzeit eine KI, die ein bestimmtes Auto fährt, nicht einfach in ein anderes selbstfahrendes Auto verpflanzen. Man kann sie auch nicht benutzen, um mit ihr mit Aktien zu handeln oder ein Flugzeug zu fliegen. Sie ist eigentlich ziemlich idiotisch angelegt und genau auf ihre Hardware programmiert. Innerhalb dieser Grenzen kann sie aber jederzeit weiterlernen. Wir müssen also den Schritt schaffen, dass die Software Hardware-unabhängig wird und Vorwissen aufbauen kann. Vor ein paar Wochen hat Google Deep Mind ein sehr interessantes Paper veröffentlicht, wo sie mit einer KI ein Spiel gespielt haben. Dieselbe KI wurde verwendet, um ein neues Spiel zu lernen. Die KI wurde also deutlich besser, weil sie über das Wissen verfügt, wie man so ein Spiel spielt. Sie konnte es auf ein anderes Spiel übertragen und dadurch besser werden als eine KI, die nur auf dieses eine Spiel hin programmiert wurde.

Ist das der Schritt zwischen einem gut funktionierenden Algorithmus und einem denkenden Wesen? Ich gebe zu, ich scheue mich etwas, diesen Prozess schon als Denken zu bezeichnen. Ich würde eher sagen, es ist eher ein Weiterverarbeiten. Oder fängt das Denken hier schon an?

Das ist schwierig zu sagen, hier fängt eigentlich eher die nächste Diskussion an: Denkt der Mensch wirklich, oder sind wir nicht viel eher hormon- und instinktgetrieben? Wie viel davon ist durch unser Unterbewusstsein bestimmt? Die meisten Menschen treffen Entscheidungen im Bruchteil einer Sekunde. Wir nennen das Bauchgefühl oder Instinkt. Eigentlich ist es aber eine Erfahrungskurve. Wir brechen unsere Erfahrungen herunter und denken nicht darüber nach, sondern handeln. So ist es bei der Maschine auch. Sie können noch nicht auf 20 Jahre Berufserfahrung zurückgreifen oder auf eine jahrelange Erziehung. Wir als Menschen hingegen haben ungeheuer viel Input verarbeitet und sind biologisch dafür ausgelegt, alles abzuspeichern. Seit es im Jahr 2012 den großen Durchbruch mit den neuronalen Netzen gegeben hat, haben die Maschinen auch ein Kurzzeitgedächtnis. Was noch fehlt ist ein Langzeitgedächtnis und das Abstraktionslevel. Und genau das passiert gerade: Wir bauen Schritt für Schritt ein kollektives Gedächtnis auf, eine Art Schwarmintelligenz. Wir müssen also noch nicht einmal eine menschenähnliche KI haben, um zu erreichen, dass sie denkt, sondern wir brauchen eine KI, die untereinander kommuniziert und kollektiv Wissen verarbeitet. Wenn ein Auto beispielsweise einen fatalen Fehler macht, wie es bei dem Tesla-Unfall mit dem LKW geschehen ist, dann passiert ihm das ein einziges Mal. Seit diesem Vorfall können alle hunderttausende Teslas da draußen LKWs erkennnen. Das ist eine Intelligenzleistung, die mehr schafft als ein einzelner Mensch.

Image by Fabian Westerheide
Image by Fabian Westerheide

Wir müssen die KI also nicht nur schulen, sondern auch erziehen?

Genau das. Der Hirnforscher Danko Nikolic sagt, wir brauchen einen KI-Kindergarten, eine Art DNA für künstliche Intelligenz. Ich finde diese These sehr interessant. Wir müssen es schaffen, diese Lernalgorithmen einer KI beizubringen. Sie muss lernen zu lernen, damit sie weiß, wie man selbst Wissen generiert. Das können wir Menschen besonders gut. Die KI kann das noch nicht, also wird der Durchbruch im Lernalgorithmus die nächste Stufe sein. Dann muss man sie trainieren, ausbilden und erziehen, wie man Kinder erzieht. Wenn das passiert, wird das, was wir jetzt haben, schneller und auch deutlich interessanter. Eine KI hat noch keine Eigenmotivation, ich weiß aber, dass Teams bereits daran arbeiten.

Welche Jobs sind bisher immer noch nicht vollständig durch Maschinen ersetzbar? Wo geht hier die Entwicklung hin?

Momentan sind es zwei: Menschen und Komplexität. Wir sind Menschen und wollen deshalb natürlich weiterhin menschliche Interaktion. Ich behaupte, dass ‚Made by Humans‘ irgendwann bei Produkten ein Qualitätsmerkmal sein wird, für das die Leute mehr bezahlen werden. Bei der Interaktion kann es zu einer Mischung kommen: In der Pflege werden wir Pflegeroboter haben, die uns beispielsweise dabei helfen, den schweren alten Mann zu wenden, aber die menschliche Komponente muss erhalten bleiben. Eine KI nimmt dich nicht in den Arm, sie kann aber konkrete Ergebnisse liefern. Das dauert wohl aber noch gut 10 bis 15 Jahre. Eine KI kann erkennen, wie Prozesse am besten durchzuführen sind, aber bei emotionaler Intelligenz muss sie eben passen. Wir brauchen keinen menschlichen Maler, aber einen menschlichen Innenarchitekten. Je einfacher der Job ist, desto eher können wir ihn durch die Maschinen erledigen lassen. Sie hat aber noch immer ein Problem mit der Motorik, das haben wir noch nicht gelöst. Softwaretechnisch hingegen ist sie uns natürlich haushoch überlegen, jeder Taschenrechner kann besser rechnen als du und ich.

Wir müssen der KI auch Kontext beibringen, damit sie uns wirklich helfen kann.

Bei Service-KIs funktioniert das sogar schon. Die KI kann erkennen, ob der Kunde gut oder schlecht gelaunt ist, ob er etwas umtauschen will und ob sie ihm noch mehr Angebote machen soll oder nicht. Das würde ich schon als Kontext bezeichnen. Jeder, der schon einmal Kundensupport gemacht hat, wird das kennen – man muss Zweideutigkeit erkennen und das kriegen schon wir Menschen manchmal nicht ordentlich hin. Wie wollen wir da erwarten, dass die KI es besser macht? Der erste Schritt ist also: Sie muss lernen, es zumindest schon einmal besser zu machen als der Schlechteste von uns.

Wenn man manche Artikel liest, werden die Maschinen oft sehr dystopisch als unser Untergang beschrieben, sowohl gesellschaftlich als auch arbeitstechnisch. Wie gehen Sie mit dieser Angst der Menschen um?

Ich erlebe es ab und zu, dass die Menschen bei einem gewissen Level fast schon technologiefeindlich sind und regelrecht Angst vor der KI haben. Aber ich finde, dass Probleme wie die globale Erwärmung, der Terrorismus oder auch nur zu viel Zucker im Blut viel gefährlicher für die Menschheit sind. Wir sollten wirklich versuchen, etwas unaufgeregter an das Thema KI heranzugehen. Ja, die Digitalisierung frisst eine Menge Jobs. Aber das ist doch super! Niemand muss mehr langweilige Jobs machen, wir haben viel mehr freie Zeit. Wir können die KI benutzen, um in unserer Tätigkeit noch produktiver zu sein. Wir können so sogar mehr Jobs nach Europa holen, weil es günstiger und effektiver ist, die Handgriffe an eine KI outzusourcen als an irgendwelche ausgebeuteten Clickworker in Indien. Das Ganze bringt einen enormen strukturellen Wandel mit sich, weil wir uns von der Industriegesellschaft zur Servicegesellschaft und auch zu einer Wissensgesellschaft wandeln.

Die Großkonzerne von heute haben bereits begriffen, dass sie sich entwickeln müssen, sie tun sich damit aber noch etwas schwer. Das sind reine Industrieunternehmen, die aus einer ganz anderen Hierarchie und einer anderen kulturellen Epoche kommen. Künstliche Intelligenz ist hier nur die Spitze des Eisberges, denn unsere Industrie ist nicht für digitale Umbrüche gerüstet. Wir sind an dieser Stelle in kultureller Hinsicht noch komplett falsch aufgestellt.

Wie steht es um die Entwicklung von Künstlicher Intelligenz in Deutschland?

Das deutsche Problem daran ist, dass wir mal wieder den Trend verschlafen. Es gibt kaum KI-Unternehmen hierzulande – wir sind eher auf den abgeschlagenen Plätzen zu finden. Im Moment sind die US-amerikanischen KI-Unternehmen besser finanziert und es gibt viel mehr Firmen als hier, obwohl der Markt nicht so groß ist wie unserer. Es geht auch nicht darum, noch etwas zu entwickeln, dass uns unser Essen schneller liefert, sondern darum, dass uns eine strategische Entwicklung entgeht. Wir brauchen endlich mehr Forschung, mehr Kapital und mehr Unternehmen in Deutschland und Europa, um eine strategisches, wirtschaftliches und politisches Gegengewicht herstellen zu können. Nur dann können wir auf Augenhöhe miteinaner verhandeln.


Image (adpated) „Neural“ by geralt (CC0 Public Domain)


Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • TESLA golem: Teslas Autopilot reduziert Unfallquote um 40 Prozent: Laut des Untersuchungsberichts der US-Behörde NHTSA trifft Tesla keine Schuld an dem tödlichen Verkehrsunfall, in dem das Tesla Model S, auf Autopilot geschaltet, beteiligt war. Des Weiteren lobt der Bericht Teslas Sicherheitsfunktionen: Um 40 Prozent soll die Unfallrate mit Tesla-Fahrzeugen nach der Aktivierung der Autopilotfunktion zurückgegangen sein.

  • TECHNIK heise: US-Künstler will Tarnkleidung gegen Gesichtserkennung herausbringen: Der Künstler Adam Harvey hat ein Muster entwickelt, das für das verbreitete Gesichtserkennungssystem OpenCV haarcascade aussieht wie Hunderte von Gesichtern. Für sein HyperFace-Projekt macht sich Harvey die Tatsache zunutze, dass Computer zwar riesige Datenmengen auswerten können, in vielen Fällen aber nur wenige Pixel eines Bilds analysieren, um Speicherplatz und Rechenzeit zu sparen.

  • FAKE-NEWS t3n: Fake-News im US-Wahlkampf: Einfluss scheint geringer als vermutet: Fake-News werden spätestens seit dem US-Wahlkampf diskutiert. Unklar bliebt, welchen Einfluss die Fake-News auf den Ausgang des US-Wahlkampfes hatten. Dieser Frage sind nun Wissenschaftler nachgegangen: Wenn Fake-News den Ausgang der Wahl verändert hätten, müsste jede Falschmeldung rechnerisch so viel Einfluss auf das Wahlverhalten eines Einzelnen haben wie 36 Wahlwerbespots.

  • DATENSCHUTZ datenschutzbeauftragter-info: Augen auf beim Onlinekauf – Kundendaten vom Online-Shop ausgespäht: Wie das BSI jüngst bekannt gegeben hat, sind zahlreiche deutsche Online-Shops vom sog. Online-Skimming betroffen. Schuld daran sind Sicherheitslücken in der bei Online-Shops weit verbreiteten Software Magento. Diese Sicherheitslücken ermöglicht es Kriminellen, Schadcodes einzuschleusen.

  • YOUTUBE googlewatchblog: YouTube überträgt die Amtseinführung von Donald Trump als 45. US-Präsidenten live: Die Inauguration Party des neu-gewählten Präsidenten wird seit Wochen mit Spannung erwartet und wird natürlich von allen großen Sendern und Netzwerken Live übertragen. Auch YouTube ist mit dabei und bietet in Zusammenarbeit mit den großen TV-Sendern gleich mehrere Streams an.

Weiterlesen »

Wie der Google-Algorithmus und seine Suchergebnisse zu Verschwörungstheorien führen kann

anonymous-438427_1920 (Image by SplitShire [CC0 Public Domain], via pixabay

Wer eine Frage hat, wendet sich meist an Google. Man erwartet hier durchaus hochwertige, treffende Antworten. Gab man Ende letzten Jahres bei Google die Frage Ist der Holocaust passiert? ein, wurde man auf eine von Neonazis und Anhängern der Überlegenheit der Weißen geprägte, den Holocaust leugnende Seite geführt. Der Protest, der daraufhin folgte, war enorm. Bei Google Ads wurden zugleich Werbeanzeigen für das U.S. Holocaust Memorial Museum eingekauft, sodass es ebenfalls bei den obersten Suchergebnissen erscheint. Nach anfänglichem Widerstand korrigierte Google seinen Algorithmus – aber nur insofern, dass die falschen und voreingenommenen Informationen etwas weiter unten bei  den Ergebnissen erscheinen.

Diese Reaktionen jedoch lassen jedoch einen wichtigen Zusammenhang zwischen den Methoden der Holocaustleugner (und den Verschwörungstheoretikern generell) und dem Suchalgorithmus von Google vermissen. Google möchte Fragen beantworten und erfüllt diese Aufgabe oft sehr gut. Wenn die Frage selbst mit einem verborgenen oder implizierten Unterton gestellt wird – wenn historische Fakten angezweifelt werden – wird die Dringlichkeit der reinen, inhaltlichen Beantwortung dieser Frage schwächer und rückt im Kontext in den Hintergrund.

Das wichtigste Anliegen der Holocaustleugner und jeglicher Verschwörungstheorien ist es, historische Aufzeichnungen anzuzweifeln. Betreiber von Verschwörungsseiten geben an, dass sie schlichtweg neugierig, dabei aber unschuldig seien und in Bezug auf historische Ereignisse und weit verbreitete Ansichten ‚nur Fragen stellen würden. Entgegen ihrer Behauptung, unschuldig zu sein, versuchen sie jedoch zugleich, Antisemitismus und rechten Hass zu verbreiten.

Als Soziologe und Holocaustforscher ist es für mich klar, dass Seiten, die bewusst falsche Informationen und Propaganda präsentieren, das Bestreben Googles, Fragen zu beantworten, ausnutzen. Diese Seiten, auf denen die sogenannten „Fake-News“ verbreitet werden, schlagen Kapital aus der Tendenz, dass diese Fragen direkt bei Google eingegeben werden. Dies ist ein wichtiges Beispiel für Algorithmen und ihre Auswirkungen. Programmierer müssen sich bewusst sein, dass es wirklich und tiefgreifende Konsequenzen nach sich ziehen kann, wenn sie eine Anfrage an das System einfach nüchtern herunter programmieren.

Viele Seiten beantworten die Frage nicht

Zuerst muss beachtet werden: Natürlich gab es den Holocaust. Es gibt tonnenweise Beweismaterial, die belegen, dass es passiert ist. Die Täter haben es zugegeben. Es gibt Dokumente, die den Transport und die Vernichtung darstellen. Es gibt forensische Beweise von den Orten der Vernichtung und reichlich Aussagen von Augenzeugen. Aber hier zählt nur der Code: Googles Suchalgorithmus nutzt mehr als 200 Faktoren, um festzustellen,  wie Ergebnisse priorisiert werden, damit die Nutzer die Informationen erhalten, die sie suchen. Eines  der wichtigsten Dinge, die beachtet werden, ist, inwiefern der Inhalt der Seite mit der speziellen Anfrage übereinstimmt.

Wenn zum Beispiel eine Person nach „Laufschuhen” sucht, weiß Google durch die reine Abfrage nicht, was genau die Person über Laufschuhe wissen möchte. Demnach werden Ergebnisse angezeigt, die von Bewertungen von Laufschuhen bis zu Läden, die Laufschuhe verkaufen, reichen.

Die Lage verändert sich, wenn man bedenkt, dass jemand die Frage stellen könnte, ob es den Holocaust tatsächlich gab, oder als Äquivalent dazu, die Frage „Ist der Zweite Weltkrieg passiert?“. Normalerweise geht niemand bei einer ernstzunehmenden Quelle davon aus, dass der Zweite Weltkrieg unter Umständen nicht passiert sei. Neben ausführlichen Diskussionen über das Was, Warum und Wie stellen die glaubwürdigen Seiten, die den Holocaust faktenbasiert thematisieren, eben nicht die eine Frage heraus, ob es überhaupt passiert sei. Sie wissen, dass es so war. Sie setzen dieses Wissen schlicht voraus.

Dennoch scheint es so, dass der Google-Algorithmus diese Art Seiten nicht als Quellen  anerkennt, die die wertvollsten Informationen besitzen, um die spezielle Frage des Fragestellers zu beantworten. Dieses Problem wird noch erweitert, denn der Google-Algorithmus versucht, die Glaubwürdigkeit der Seiten zu bewerten. Die Reihenfolge, in der sie in den Ergebnissen auftauchen, ist ebenso mitbestimmend. Wenn die glaubwürdigen Seiten die Antwort nicht zu liefern scheinen, ist die Chance größer, dass die weniger vertrauenswürdigen Seiten, die die direkte – aber eben falsche – Antwort geben, weiter oben in den Suchergebnissen erscheinen.

Hinzu kommt, dass der Algorithmus maschinelles Lernen nutzt, um verwandte Vorschläge anzuzeigen, selbst, wenn nicht die genauen Suchbegriffe verwendet werden. Eine anfängliche Abfrage, die mit der Holocaustleugnung begann, wird das System dazu bringen, dass es mehrere Optionen anbietet.

Eine Lösungsmöglichkeit für Experten?

Alles in allem führt die Art, auf die Leugner Fragen formulieren und die Art, auf die Google-Algorithmen versuchen, spezifische Fragen zu beantworten dazu, dass sich Verschwörungstheorien im Internet verbreiten. Jedoch bedeutet die Betonung der Glaubwürdigkeit Googles, dass Experten viele Möglichkeiten haben, diese Themen anzusprechen: offene Briefe, Blogs und Verlinkungen zu faktenbasierten, inhaltlich angemessenen Arbeiten.

Würde auf der Homepage des Holocaust-Museums ein Artikel mit dem Titel “Gab es den Holocaust?“ erscheinen und einige grundlegende Fakten darlegen, würden der Inhalt und die Glaubwürdigkeit der Seite an die Spitze der Suchergebnisse springen. Die aktuelle Seite, die sich mit der Leugnung des Holocausts auseinandersetzt, könnte  mit einem Satz wie „Oft kommt die Leugnung in Form der Frage, ob es den Holocaust tatsächlich gegeben hat“, ganz einfach angepasst werden. Dies würde die entsprechenden Keywords einführen, die die Relevanz der existierenden Seite in Bezug auf Googles Algorithmus fördern. (Und ob dies nun durch permanentes Auf-den-Wecker-Fallen bei Google oder die Einstellung der Beantwortung des Algorithmusgewesen sein mag, ist der Content der Seite des US-Holocaust-Museums mittlerweile sehr viel einfacher bei Google auffndbar.)

Sicherlich wird man dadurch nicht alle Seiten, die den Holocaust leugnen, aus den Suchergebnissen von Google ausklammern, und vielleicht verschwinden diese noch nicht einmal von der ersten Seite der Suchergebnisse. Auch werden engagierte Leugner davon nicht abgehalten, Informationen zu finden, die ihre vorgefertigten Ansichten über Geschichte unterstützen. Die Leugnung des Holocausts basiert auf einer selektiven Interpretation der historischen Aufzeichnung und einer tiefsitzenden antisemitischen Auffassung. Keine Internetseite wird diese Auffassungen auf einen Schlag korrigieren oder ausrotten können.

Trotzdem könnte das Anbieten von faktenbasierten Ergebnissen, die man den „kritischen  Fragestellungen“ der Populisten gegenüberstellt, einige Personen zum Nachdenken anregen. Diejenigen, die die Wahrheit und die Fakten im Angesicht von Leugnung und Verschwörungstheorien verbreiten wollen, können hierdurch vielleicht auch auf einen neuen Weg geführt werden.

Dieser Artikel erschien zuerst auf „The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „anonymous“ SplitShire(CC0 Public Domain)


Weiterlesen »

Analog trifft Digital: Per App zum Gesprächspartner beim Mittagessen

Leute, Tisch, Bar, Tresen, Trinken, Wein, Glas, Date, Rendezvous

Im Durchschnitt verbringt der Amerikaner 50 Minuten pro Tag auf Facebook. Das ist eine Menge digitale Vernetzung und entspricht ungefähr demselben Zeitumfang, den Arbeiter für ihre Mittagspause aufbringen. Dennoch gibt es da nicht annähernd so viel Sozialisierung, denn: 65 Prozent der Amerikaner essen an ihrem Arbeitsplatz zu Mittag und 45 Prozent geben an, allein Mittag zu essen – der höchste Prozentsatz seit über 50 Jahren. Was wäre, wenn diese Menschen in ihrer Mittagszeit persönlich miteinander in Kontakt treten, statt nur virtuell?

Die modernen Entwicklungen haben nicht nur unsere Sozialkontakte während der Mahlzeiten beeinflusst – es hat die Art und Weise verändert, wie wir unseren Geist ernähren. Viele von uns wurden von ihrer eigenen Echokammer verschlungen. Dabei erhält ein großer Anteil dieser Leute Neuigkeiten von ähnlich gesinnten Facebook-Freunden – wovon zumindest eine Handvoll nicht echt sind. Zu oft wurde die Komplexität unserer Freundschaften auf schlagfertige Zweizeiler und ausgewählte Selfies reduziert. In diesem paradoxen Zustand sind wir zugleich enger verbunden – und dennoch allein.

Die sozialen Medien und ihre Entwicklungsfirmen werden diese Probleme nicht lösen. Organisationen wie Facebook wollen die Zeit, die der Nutzer in ihrem Ökosystem verbringt, maximieren. Mehr Zeit bedeutet mehr Klicks, was mit gesteigertem Profit einhergeht. Forschungen zeigen, dass Menschen Informationen erhalten wollen, die ihre bereits existierenden ideologischen Standpunkte bestätigen. Deshalb ist es nur verständlich, dass Facebook genau das bedient.

Eine Lösung dieses Problems geht uns alle an. Die Menschen müssen miteinander ehrlich, authentisch und von Angesicht zu Angesicht in Kontakt treten. Wir glauben, dass Technologie helfen kann. Als Doktoranden am MIT entwickeln wir einen Service, der Menschen hilft, miteinander in Kontakt zu treten – indem wir 50 Minuten persönliche Interaktion statt fünf Minuten Bildschirmzeit bieten.

Das Gegenteil der Dating-Apps

Vor eineinhalb Jahren wurden wir von einer Selbstmordserie unter den Studenten in Cambridge erschüttert. Die tragischen Vorfälle führten zu einer Diskussion über soziale Isolation und das Gefühl der Unbehaglichkeit bim Kennenlernen neuer Leute. Informelle Befragungen von MIT-Mitgliedern auf einer Reihe von ungewöhnlichen Events, von Hackathons über Teepartys bis hin zu „Schokoladen-Soirées“ offenbarten, dass ein großer Teil der Studenten diese Veranstaltungen in der Hoffnung auf neue Freundschaften besuchten. Viele von ihnen spürten, dass das Auftreten in der Gruppe zu unpersönlich wäre, um erfolgreich neue Freundschaften zu knüpfen.

Davon inspiriert, machten wir uns an die Arbeit, eine weit persönlichere Alternative aufzubauen. Das Projekt erhielt den Namen „Connect“, das platonische, persönliche Treffen zum Mittagessen arrangiert.

Eine „interessante“ Person ist eine, mit der wir persönlich voraussichtlich gut zurechtkommen, von der wir uns aber in gewisser Weise unterscheiden – ideologisch, demografisch oder sozioökonomisch. Dieser Ansatz steht im Gegensatz zu Dating-Webseiten und Sozialen Netzwerken. Statt das perfekte Gegenstück zu finden, versucht Comfort, eine Person mit Gemeinsamkeiten zu finden, die dafür sorgt, dass wir uns geborgen und beruhigt fühlen können, sich zugleich aber auch genug Unterschiede aufweist, um uns neugierig zu machen.

Die Nutzer von Connect werden nach einigen Profilfragen gefragt, die dem Vergleichsalgorithmus helfen sollen. Diese Fragen erfassen Aspekte der eigenen Identität, unter anderem die Studienrichtung, Hobbys und Interessen, umfassen aber auch logistische Fragestellungen wie Verfügbarkeit und Essensvorlieben. Connect schlägt dann einen Ort, eine Zeit und den Initiator der Konversation vor. Sobald Nutzer mehrere Mittagessen wahrnehmen und den Algorithmus mit Rückmeldungen versorgen, lernt dieser mehr über diejenigen Attribute andere Personen, die interessant für ihn sind.

Ein MBA-Student aus dem Ausland könnte sich also anmelden und dem System beispielsweise mitteilen, dass er Kochen und Kajakfahren mag. Er könnte daraufhin mit einem Promotionsstudenten in Computerwissenschaften verknüpft werden, der ein begeisterter Bäcker ist. Das Paar ist ähnlich genug, was den Bildungsgrad und die essensbezogenen Hobbys angeht – dass sie miteinander klarkommen, aber gleichzeitig ausreichend unterschiedlich, dass sie sich auf anderem Wege wohl kaum treffen oder das selbe erleben würden.

Eine Dating-App würde diese beiden Personen nicht verbinden, weil beide Männer heterosexuell sind und die Hintergründe beider zu unterschiedlich sind, um auf romantischer Ebene kompatibel zu sein. Sie verlangen von Connect aber nicht, einen Lebenspartner zu finden – nur jemanden Interessanten, mit dem man das Mittagessen verbringen können.

Das Mittagessen zurückgewinnen

Es wird deutlich, dass wir gern interessante, neue Menschen kennenlernen. Die große Mehrheit der Nutzer, nämlich 90 Prozent im Verlauf des vergangenen Jahres, haben ihre Interaktionen mit der Plattform mit 4 von 5 Punkten (oder besser) bewertet. Neben der Tatsache, ein unterhaltsames Mittagessen zu erleben, berichtete ein Drittel der Nutzer davon, eine fortdauernde Freundschaft aufgebaut zu haben, durch die man regelmäßig in Kontakt bleibt.

Der Erfolg von Connect hat uns dazu angetrieben, herauszufinden, wie Technologie dabei helfen kann, eine stärkere und persönlichere Gemeinschaften aufzubauen. Dank der Förderung verschiedenster Büros am MIT waren wir sogar in der Lage, für das Mittagessen am Campus zu bezahlen, um die Hemmungen, neue interessante Personen kennenzulernen, weiter abzubauen.

Wir planen, die Plattform Anfang 2017 weltweit verfügbar zu machen, damit Administratoren an Schulen in der ganzen Welt in der Lage sein werden, ihren Studenten, Angestellten und Ehemaligen dabei zu helfen, auf persönlicherem Wege in Kontakt zu treten. Wir hoffen, dass Connect aus einer unterstützenden akademischen Wiege zu einer Plattform erwachsen kann, die jedem, Student oder nicht, dabei hilft, den nächsten besten Freund zu finden.

Wenn eine Plattform wie Connect stetig wächst, kann die Technik uns dabei helfen, die Hindernisse abzubauen, die sie selbst mit errichtet hat. Vielleicht werden uns die sozialen Netzwerke von morgen Möglichkeiten bieten, andere Perspektiven zu erfahren und Ideen auszudrücken, die nicht in der Anonymität verborgen bleiben. Und außerdem ist es die Chance, die Tradition eines Mittagessens unter Freunden zurückzubringen.

Dieser Artikel erschien zuerst auf „The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „adult“ by sasint (CC0 Public Domain)


Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me

  • TECH-FESTIVAL gruenderszene: Tech Open Air bekommt erste Finanzierung und expandiert: Das Berliner Tech Festival „Tech Open Air“ möchte expandieren und hat direkt Investoren für diesen Plan gefunden. SoundCloud, Zalando und Native Instruments sollen überzeugt worden sein. Die Veranstalter möchten das Festival über den Atlantik bringen. Ein Ziel ist die kalifornische Stadt Los Angeles. Das Festival startete 2012 zum ersten mal und wurde die erste Konferenz der Startupbranche. Finanziert wurde das Projekt jedes Jahr durch Crowdfunding. Technologie, Kunst, Musik und Wissenschaft sollten die Themenbereiche des Festivals sein. Neben Los Angeles gaben die Veranstalter bekannt, dass man jedes Jahr auch einen exotischen Ort ansteuern wolle.

  • GOOGLE thenextweb: Google-funded $300 million 60Tbps trans-pacific cable goes live tomorrow: Vor einem Jahr kündigte Google Projekt an, das Japan und die USA verbinden werde. 300 Millionen Dollar steckte Google in dieses Projekt. Es handelt sich um eine Verbindung aus Fiberglas-Kabeln, die eine Geschwindigkeit von 60 Tps bringen sollen. Neben Google haben fünf andere Unternehmen an dem Projekt mitgearbeitet. Die Kabelverbindung soll vor allem Großstädten helfen mit der enormen Datenmenge, die dort unterwegs ist fertig zu werden. Auf amerikanischer Seite sollen Los Angeles, Seattle, Portland und die San Francisco Bay Area von dem Projekt profitieren.

  • CHATBOT t3n: Falschparker, aufgepasst! Dieser Chatbot geht für euch gegen Strafzettel vor: Auch schon einmal einen Strafzettel wegen Falschparkens zu Unrecht bekommen? In London hat ein 19-jährige Joshua Browder jetzt einen sogenannten Chatbot programmiert, um Strafzettel anzufechten – mit Erfolg! Bereits 150.000 Nutzer sollen in London umgerechnet vier Millionen Euro an Strafgeldern gespart haben. Wie das funktioniert? Die Website DoNotPay bietet die Möglichkeit der Eingabe der (angeblichen) Falschpark-Situation und ermittelt mithilfe eines Algorithmus individuell, ob die Strafe berechtigt ist oder nicht.

  • PINTEREST heise: Pinterest verstärkt Fokus auf Online-Handel : Durch die Etablierung eines plattformübergreifenden Warenkorbs für den US-amerikanischen Markt will Pinterest sich im Online-Shopping noch weiter ausbauen und seine Präsenz verstärken. Bei der Suche nach Ideen und Artikel für die Einrichtung oder Mode können diese, auch wenn es sich um verschiedene Anbieter handelt, im Warenkorb abgelegt werden. Die bisherigen Kaufen-Buttons, die Händler den Artikeln hinzufügen können, werden somit erweitert und so soll ein besseres Kauferlebnis gewährleistet werden. In Deutschland steht der Dienst jedoch noch nicht zur Verfügung.

  • APPS mashable: The app that matches surplus food with the hungry: Viele Unternehmen werfen unfassbare Mengen an Lebensmittel weg, die am Ende des Tages nicht gegessen wurde. Anstatt das Essen containerweise vergammeln zu lassen, will eine App nun das übrig gebliebene Essen von Unternehmen über ein Nachfrageportal an Institutionen vermitteln, die Essen für Hungernde bereitstellen. Die App nennt sich „Copia“ und will ein Bewusstsein dafür schaffen, zu überlegen wie verschwenderisch wir mit Lebensmitteln umgehen, während andere hungern.

Weiterlesen »

Algorithmen verändern das Geschäft

Mathematics Explore April 24, 2013 #4 (at one time) (adapted) (Image by Tom Brown [CC BY 2.0] via Flickr)

Als Googles Algorithmus AlphaGO den südkoreanischen Go-Großmeister Lee Se-dol mit 4:1 geschlagen hat, war das ein bedeutungsvolles Ereignis in der Welt der Algorithmen und der künstlichen Intelligenz. Dies beruht darauf, dass es eine neue Art der künstlichen Intelligenz darstellt, nämlich die intuitive künstliche Intelligenz, etwas, das sehr viel herausfordernder ist als die normale künstliche Intelligenz.

Dieser Bruch, der dank der Algorithmen stattfindet, passiert überall um uns herum. Uber, das größte Taxiunternehmen der Welt, besitzt keine eigenen Taxen, verwendet aber smarte Algorithmen, um Fahrer und Passagiere miteinander zu verbinden. WhatsApp, das größte Telekommunikationsunternehmen der Welt, hat keine Telekommunikationsinfrastruktur, verschickt jedoch mehr als 35 Milliarden Nachrichten pro Tag. Und schließlich besitzt Alibaba, die zweitwertvollste Vertriebsstelle der Welt, keine Lagerbestände, sondern verwendet Algorithmen, um anderen beim Produktverkauf zu helfen.

Firmen wie Uber, WhatsApp und Alibaba zeigen klar und deutlich, dass smarte Algorithmen ganze Industrien durcheinander bringen können. Aber wir sind erst am Anfang dieser Zerrüttung angekommen und im kommenden Jahrzehnt werden wahrscheinlich alle Branchen wegen der Algorithmen noch mehr durchgewirbelt werden. Gartner nennt diesen Trend “Algorithmisches Geschäft”. Die Art, wie wir Geschäfte machen, wird sich grundlegend verändern.

Von Daten zu Algorithmen

Mit dem technischen Fortschritt generieren Firmen und Konsumenten immer mehr Daten. Manche Organisationen, wie beispielsweiseWalmart, erzeugen und speichern Dutzende von Petabyte an Daten pro Tag. Jedoch ist das Sammeln und  Speichern von gewaltigen Datenmengen nicht ausreichend, um einen Wettbewerbsvorteil zu erlangen. Um sich im Wettbewerb durchzusetzen, müssen Organisationen mehr tun, als die Daten einfach zu analysieren. Es geht darum, welche Maßnahmen aus den Daten abgeleitet werden können, um zusätzliche Werte zu schaffen. Also: Nehmen wie die Algorithmen mit dazu.

Algorithmen definieren Aktionen und sind Softwareteile, die extrem gut bei speziellen Abläufen sind, jedenfalls viel besser als Menschen es sein könnten. Dies hat zur Folge, dass, je mehr Algorithmen in Firmen verwendet werden, desto mehr Leute in Zukunft ihren Job verlieren. Tatsächlicht hatte im Jahr 2013 eine Studie der Oxford Universität und Deloitte geschätzt, dass alleine in Großbritannien mehr als 35 Prozent der gegenwärtigen Stellen von der Digitalisierung bedroht werden.

Und es handelt sich nicht nur um Großbritannien. Dieselbe Studie hat geschätzt, dass aufgrund des Algorithmus-Geschäfts innerhalb von einem oder zwei Jahrzehnten fast 47 Prozent aller US-Stellen wegfallen könnten. Eine Gesellschaft, in der fast die Hälfte der berufstätigen Bevölkerung arbeitslos ist, klingt beängstigend, aber wenn wir uns jetzt schon darauf vorbereiten, kann es großartige Möglichkeiten eröffnen, unsere Gesellschaften zu verbessern.

Von Jahresberichten bis hin zu Ihrem Abendessen: alles kann automatisiert werden

Die zunehmende Nutzung von Algorithmen findet in atemberaubender Geschwindigkeit statt. Organisationen wie Associated Press nutzen bereits Algorithmen, um Jahresberichte in einer Frequenz von 2000 Berichten pro Minute zu erstellen. Natürlich handelt es sich dabei nicht um tiefgehende, preisgekrönte Artikel, sondern um firmenbezogene Artikel wie Quartalsumsätze, die die Aktienmarktperformance sowie Unternehmensgewinne einschließen. Und trotzdem handelt es sich hierbei um Artikel, die von Menschen geschrieben wurden. Heißt das, dass die mechanischen Journalisten die echten Journalisten aus Fleisch und Blut aus dem Geschäft drängen? Nein, zumindest noch nicht, obwohl die Entwicklung einer künstlichen Intelligenz, die in der Lage ist, einen lesbaren Roman zu verfassen, sich in einem raschen Tempo fortschreitet.

Ein weiteres Beispiel in der Finanzwelt ist die Wagniskapitalgesellschaft Deep Knowledge Ventures. Im Jahr 2014 hat dieser in Hong Kong ansässige Wagniskapitalfonds einen Algorithmus in den Vorstand gewählt, der ein Stimmrecht dafür hat, ob ein Investment in ein bestimmtes Unternehmen getätigt wird oder nicht. Dieser Wagniskapitalfonds ist auf Biowissenschaften und Projekte zu altersbedingten Krankheiten fokussiert und der Algorithmus, VITAL genannt, analysiert Daten aus verschiedenen Quellen, unter anderem klinische Studien, finanzielle Details, vorherige Finanzierungsrunden, gewerbliche Schutz- und Urheberrechte und anderen Quellen. Obwohl der Algorithmus noch nicht den Wagniskapitalfonds an sich leitet, ist es ein riesiger Schritt nach vorne, wie Wagniskapitalgesellschaften an Investments herangehen.

Ein dritter disruptiver Algorithmus ist Chef Watson, IBMs Supercomputer, der als persönlicher Koch agiert. Der Algorithmus, der auf umfassender Forschung aufbaut und IBM Watsons Supercomputer verwendet, ist in der Lage, einzigartige Rezepte zu entwickeln, die auf allen Zutaten auf der Welt, Lebensmittelchemie, menschlichen Geschmackspräferenzen und Tausenden von Rezepten von Bon Appetit basieren. Die Nutzer können einfach mehrere Zutaten eingeben und Chef Watson denkt sich eine große Auswahl an Rezepten aus, die von experimenteller bis hin zu traditioneller Küche reichen.

Wie Sie Algorithmen wirksam in Ihrem Unternehmen einsetzen können

Natürlich bleibt noch die Frage offen, wie Sie Algorithmen dafür verwenden können, einen Wettbewerbsvorteil zu erlangen und sicherzustellen, dass Ihr Unternehmen nicht überflüssig wird.

Es gibt fünf Schritte, die Sie befolgen können, um Ihr Geschäft zu automatisieren:

  1. Ermitteln Sie, welche Prozesse in Ihrem Unternehmen automatisiert werden können und denken Sie dabei unkonventionell. Wer hätte gedacht, dass die Jahresberichtserstellung automatisiert werden könnte?

  2. Sammeln und speichern Sie Daten. Algorithmen benötigen eine große Menge davon, um valide Entscheidungen zu treffen. Finden Sie relevante Datenquellen, die Sie verwenden können und sorgen Sie für ein smartes Business-Umfeld, indem Sie das Internet der Dinge anwenden, um neue Datenquellen abzuklopfen.

  3. Stellen Sie sicher, dass Sie qualitativ hochwertige Daten sammeln, da Sie nur schwache Ergebnisse erzielen, wenn Sie Ihre Algorithmen mit minderwertigen Daten füttern.

  4. Entwickeln Sie Ihre Algorithmen und testen, wiederholen, trainieren, validieren und verbessern Sie sie kontinuierlich, um bessere Algorithmen zu programmieren, die den Wert Ihres Unternehmens steigern können.

  5. Wiederholen Sie die ersten vier Schritte, um Schritt für Schritt immer mehr Prozesse in Ihrem Unternehmen zu automatisieren.

Der Schritt in Richtung Algorithmen erfolgt schnell, viel schneller als wir es erwarten, geschweige denn, dass politische Entscheidungsträger mithalten können. Es ist daher wichtig für uns, dass wir uns dessen bewusst sind, wie Algorithmen die Art verändern werden, wie wir Geschäfte machen, wie wir leben und wie unsere Gesellschaften funktioniert, denn ehe wir uns versehen, haben Algorithmen die ganze Welt übernommen.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) “Mathematics *Explore April 24, 2013 #4* (at one time)” by Tom Brown (CC BY 2.0)


The Conversation

Weiterlesen »

Kann uns AlphaGo bei der Bewältigung des Klimawandels helfen?

Künstliche Intelligenz (image by 849356 [CC0 Public Domain] via Pixabay)new

Anfang März hat zum ersten Mal überhaupt ein Computer (Genauer: Das Computer-Programm AlphaGo) gegen einen Menschen das asiatische Brettspiel Go gewinnen können. Bereits früher haben Computer gegen Menschen in verschiedenen Spielen gewinnen können. So gewann 1997 der IBM-Computer Deep Blue gegen den damaligen Schach-Weltmeister Garri Kasparow, 2011 gewann der IBM-Computer Watson zum ersten Mal in der US-TV-Show Jeopardy! gegen die menschlichen Mitspieler.

Beim Brettspiel Go ist das besondere jedoch, dass die übliche Logik der Programmierung der Maschine durch bloßes Eingeben aller denkbaren Züge, um aus jeder Situation heraus die relativ optimale Entscheidung zum nächsten Zug treffen zu können, nicht mehr ausreicht, um den Spielablauf bewältigen zu können.

Bereits nach dem Legen des zweiten Steins im Spiel Go gibt es theoretisch über 100.000 denkbare Spiel-Konstellationen. Die Gesamtzahl der in einem Spiel theoretisch denkbaren Züge liegt über der Zahl der Atome im gesamten Universum. Da ist es nachvollziehbar, dass dieser Möglichkeitsraum mit einer händisch konfigurierten Entscheidungslogik nicht mehr abbildbar ist.

Somit ist die zu Google gehörende Firma DeepMind andere Wege gegangen und hat begonnen, die Methode des Deep Learning anzuwenden. Beim Deep Learning lernen Computer ebenso wie ihre menschlichen neuronalen Pendants mit Hilfe künstlicher Neuronen, die in Layern nacheinander geschaltet sind und von Layer zu Layer (daher der Begriff “Deep” Learning) zu einer akkurateren Aussage (Output) bezüglich des zu analysierenden Inputs (Bilder, sonstige Daten) kommen (eine sehr gute Beschreibung des gesamten Lernprozesses findet sich auf der verlinkten Golem-Seite).

Durch “Trainieren” der Neuronen ist es möglich, im Laufe der Zeit zu immer besseren Ergebnissen in der Analyse des Inputs zu kommen. Erst dadurch ist es AlphaGo möglich geworden, die im Spiel Go geforderte Intuition angesichts der schier unendlichen Zahl von Entscheidungsmöglichkeiten händelbar zu machen.

AlphaGo als letzter Schritt zur Erreichung der technischen Singularität?

Das Spannende an dieser Methode ist, dass irgendwann selbst die Projektverantwortlichen nicht mehr erklären konnten, warum der Algorithmus in der Weise entscheidet wie er entscheidet. Übertragen auf den Go-Wettbewerb, wurde immer wieder betont, dass AlphaGo Züge gemacht habe, die nach menschlichem Ermessen keinen Sinn machten.

Dass der menschliche Sinn an dieser Stelle vielleicht nicht mehr ausreicht, um die Maschine zu verstehen, wird deutlich, wenn man die Vorhersagen des neuronalen Netzwerkes betrachtet. Dieses war speziell mit der Berechnung der Gewinnwahrscheinlichkeit von AlphaGo befasst und hatte in den meisten Fällen die Niederlage des Menschen bereits richtig vorhergesehen, als alle anderen anwesenden Menschen dies überhaupt noch nicht erkannten. Damit aber hat der Computer ein Maß an Intuition und Urteilsfähigkeit bewiesen, wie man es vor noch nicht einmal 2 Jahren in der Fach-Community allenfalls und frühestens für das Jahr 2024 vorhergesehen hatte.

Erreichen wir damit das Zeitalter der technischen Singularität schneller als vorhergesagt? Das Zeitalter, in dem sich Maschinen schneller selbst weiter entwickeln als es der menschliche Experten nachzuvollziehen im Stande ist? Nicht umsonst ist im Jahre 2012 einer der prominentesten Vertreter der Vorstellung von der technologischen Singularität – Raymond Kurzweil – ausgerechnet zu Google gewechselt.

Der Mensch als hybrides Wesen?

Vor einiger Zeit hatte Kurzweil seine These bekräftigt, nach der Menschen spätestens ab 2030 als hybride Lebenwesen mit einer Schnittstelle ins Internet existieren würden.

Betrachtet man die Forschung um AlphaGo und die Thesen von Kurzweil gemeinsam, so wird automatisch ein weitergehendes offensichtliches Ziel der Google Projekte sichtbar. Technologische Singulartität wird als der Zeitpunkt in der Zukunft beschrieben, ab dem sich Maschinen mittels Künstlicher Intelligenz selbst weiterentwickeln und sich damit dem Verständnis der Menschen entziehen; wird dies kombiniert mit Künstlicher Intelligenz, die zunehmend intuitiv entscheiden kann, so ist die Selbständigkeit der Maschinen plötzlich in zeitlich absehbarer Zeit denkbar:

And it’s different from a program you’ve hand-crafted where you know all the nuances of what you can do: here it has picked up things for itself

Menschliche versus algorithmische Erkenntnis?

Die eine Möglichkeit, auf diese sich anbahnenden Entwicklungen einzugehen, wäre diese zu kritisieren und ein Schreckensszenario zu skizzieren, das stark an die kulturpessimistischen Terminator-Filme des letzten Jahrhunderts erinnert. Ganz in Tradition eines deutschen Kulturpessimismus konnte mit Blick auf das Go-Experiment schnell festgestellt werden:

Das birgt eine Gefahr: Wenn wir uns auf die Vorhersagen der Rechenmaschinen verlassen, ohne zu begreifen, wie diese Vorhersagen zustandekommen, verabschieden wir uns vom Grundprinzip wissenschaftlicher Erkenntnis

Dieses Mal beschränkt sich allerdings die Sicht auf die Künstliche Intelligenz und AlphaGo nicht nur auf deutsche Medien. Auch Elon Musk, Bill Gates und Stephen Hawking haben in den letzten beiden Jahren immer wieder vor der Vernichtung des Menschen durch eine künstliche Intelligenz gewarnt. So stellte Hawking vor 2 Jahren in einem BBC-Interview fest:

“The development of full artificial intelligence could spell the end of the human race.”

Sind denn Atomwaffen und Klimawandel moralisch und rational?

Anfang diesen Jahres betonte er dann aber auch, dass es vor allem die menschengemachten globalen Krisen seien – Atomwaffenproduktion, Klimawandel und genetisch modifizierte Viren – die langfristig die Existenz des Menschen gefährden würden. Spannnend ist dann an dieser Stelle, die aktuellen Einlassungen von Hawking mit dem Statement von Google in Hinblick auf das Go-Experiment in Einklang zu bringen. Denn Google schreibt im Google Blog zur weiteren Zielsetzung des AlphaGo-Experiments:

Ultimately we want to apply these techniques to important real-world problems. Because the methods we’ve used are general-purpose, our hope is that one day they could be extended to help us address some of society’s toughest and most pressing problems, from climate modelling to complex disease analysis.

Künstliche Intelligenz oder auch Superintelligenz müssen also nicht zwangsläufig in einer Apokalypse enden. Vielleicht ist es gerade der Schritt hin zur extensiven Nutzung der Künstlichen Intelligenz, der uns vor den Folgen unserer eigenen Fehler bewahren kann?

Künstliche Intelligenz als Ausweg aus globaler Komplexität?

In einer Zeit, in der globale und gesellschaftliche Komplexität mit den nicht mehr absehbaren direkten und indirekten Folgen interdependenter Handlungen und Akteure immer mehr an Dynamik gewinnt, wäre es doch hilfreich, eine Künstliche Intelligenz an seiner Seite zu wissen, von der zumindest glaubhaft vermutet werden kann, dass sie Muster und Logiken in der menschlich nicht mehr nachvollziehbaren Komplexität erkennt:

Neural networks can be used in all sorts of settings that demand the human-like capacity to evaluate various strategies under conditions of uncertainty.

Dass sich hingegen ausgerechnet der Mensch mit seiner jahrtausendealten Tradition der Kriege und der in der Neuzeit erworbenen Fähigkeit, sich seiner eigenen Lebensgrundlagen auf globaler Ebene zu berauben, herausnimmt, Maschinen oder Künstliche Intelligenz für deren – für den Menschen nicht mehr nachvollziehbare Entscheidungslogik – zu kritisieren, mutet dann doch etwas überheblich und kurzsichtig – also menschlich – an. Sich wider besseren Wissens mit der Nutzung von Autos und nicht nachhaltigen Energien die eigene Lebensgrundlage beständig aufzuheizen und zu vernichten, zeugt jedenfalls in keiner Weise von der Intelligenz und moralischen Integrität, wie wir sie doch gleichzeitig von Algorithmen und Robotern einfordern.

Künstliche Intelligenz rettet schon heute Leben

Die bereits jetzt erkennbaren Gewinne, die die Nutzung von AI erzielt, sind zudem auch nicht wegzudiskutieren und sollten bei moralischen Einordnungen der Ethik von Algorithmen (solange sie vom Menschen entwickelt worden sind?) berücksichtigt werden. Bereits eine kleine Auswahl der positiven Beispiele spricht eine deutliche Sprache:

  • Nach Selbstauskunft von Google könnten 94% aller Autounfälle in den USA durch autonom fahrende Autos zukünftig verhindert werden. Dies wäre im Idealfall eine Reduzierung der Unfalltoten um 30.000/Jahr allein in den USA.

  • Permanent laufende Analysen der Vitaldaten von Frühgeborenen erkennen bereits 24h vor Ausbruch einer Infektion die vom Menschen noch nicht identifizierbare Gefahr und ermöglichen rechtzeitige Medikamentengabe.

  • Das technisch mögliche ständige Tracken von Umwelt- und Gefahrgut-Daten könnte Katastrophen wie die Chemieunfall in Tianjin/China im letzten Jahr verhindern helfen.

  • Die AppleWatch steht einem EKG in der Genauigkeit nicht nach. Der Tod infolge eines Kreislaufzusammenbruchs in die häufigste Todesursache bei älteren Menschen. Die permanente Überwachung durch ein solches Device könnte unzählige Menschenleben retten.

Sicher kann all die Technik auch genutzt werden, um Waffen entsprechend intelligent auszugestalten. Der halb-automatische Waffenroboter an der innerkoreanischen Grenze ist sicher ein abschreckendes Beispiel – entwickelt von der Konsumelektronikfirma Samsung. Die aktuellen Videos vom Atlas Roboter der zu Alphabet gehörenden Firma Boston Dynamics muten durchaus unheimlich an und eine Nähe von Google zur CIA ist ja auch schon lange bekannt.

Es wäre aus meiner Sicht aber gegenüber diesen Frühgeborenen und den älteren Menschen mehr als rücksichtslos, die Beantwortung der vielen offenen ethischen Fragen im Kontext der Künstlichen Intelligenz vor die Rettung ihres eigenen Lebens zu stellen. Würde denn dann nicht genau der Mensch Gott spielen, so wie es der deutsche Kulturpessimismus der Künstlichen Intelligenz ja vorhält? Wieso sollten wir den Anspruch haben, eine Technik bis in alle Zukunft bis ins Letzte durchdringen zu können, bevor wir sie abertausende Menschen zugute kommen lassen? Wäre nicht gerade dieses Vorgehen Ausdruck ebenjener menschlichen Moral, die uns Kriege und die schleichende Selbstvernichtung gebracht hat und die wir deshalb gerade mit Hilfe der Algorithmen auch mal in Frage stellen sollten statt jeden Fortschritt proaktiv zu verbieten, wenn man schreibt:

Ist die Superintelligenz gottgleich, weil sie scheinbar übermächtig intelligent ist und dabei nicht mehr durch Menschen zu verstehen ist?

Der Autor scheint in die richtige Fragerichtung zu streben, bleibt aber auf halber Strecke stehen. Was die Superintelligenz und das Internet als neuronaler Backbone der Menschheit mit Gott zu tun haben könnte, kann man gut beim schwedischen Internetvordenker Alexander Bard nachlesen.

Was wäre, wenn ein Algorithmus nicht imstande wäre, den menschlichen Widersinn, der hinter Klimawandel und Ausbeutung der Biosphäre steckt, rational nachzuvollziehen? Welch Moral wäre denn dann dem Menschen dienlicher; die menschliche oder die Moral des sich irgendwann selbst weiterentwickelnden Algorithmus?


Teaser & Image “Künstliche Intelligenz” by 849356 (CC0 Public Domain)


Weiterlesen »

#EsIstVorbei: Schlussmachen im Zeitalter des Internets

Love (of technology) (adapted) (Image by Matthew G [CC BY 2.0] via flickr)

Warum es Algorithmen uns so schwer machen, mit einer Beziehung endgültig abzuschließen. Menschliche Beziehungen umspannen mittlerweile längst auch unsere sozialen Netzwerke. Wir sind über etliche Social Media Accounts miteinander verbunden. Das ist aber nur so lange wünschenswert, bis wir eine Beziehung beenden wollen. Denn auch wenn das Internet uns besser als je zuvor vernetzen kann, kann es eins bisher noch nicht sehr gut: Beziehungen beenden. Müssen wir also eine adäquate Schlussmach-Netiquette entwickeln?

Es war einmal vor langer Zeit, da hatten die Menschen noch kein Internet und auch keine Smartphones. Ich kann mich noch gut an diese Zeiten erinnern, in der ich noch die Telefonnummern meiner Freunde auswendig kannte und meine Eltern aus Telefonzellen anrief, um zu sagen, um wie viel Uhr ich zu Hause sei.

Es war auch die Zeit, in der ich meinem damaligen Schwarm eine Postkarte mit meiner Telefonnummer als einziger Nachricht schickte und er daraufhin tatsächlich in mühsamer Kleinarbeit über’s Jahrbuch und die Suche im Telefonbuch herausfand, wer ich denn war. Es war also eine Zeit, in der man sich tatsächlich ein bisschen anstrengen musste, um eine neue Beziehung aufzubauen.

Social Media hat dies für uns erheblich einfacher gemacht. Mit nur wenigen Klicks können wir heutzutage Menschen über Facebook, Snapchat, Instagram, Twitter oder Tinder kennenlernen. Soziale Medien sind darauf ausgerichtet, das Aufbauen neuer Beziehungen so einfach und unkompliziert wie möglich zu machen. Doch was passiert, wenn wir eine Beziehung beenden wollen? Wenn die Liebe, die einmal da war und zwei Menschen über sämtliche soziale Netzwerke hinweg verbunden hat, plötzlich aufhört? Im echten Leben können wir relativ einfach einen Schlussstrich ziehen: “Es ist aus!” Schluss. Ende. Vorbei. Doch im Internet gibt es bisher noch keinen äquivalenten digitalen Schlussstrich.

Ein Algorithmus vergisst nie

Schuld daran sind vor allem die Algorithmen, die von Programmieren nur darauf ausgerichtet sind, Beziehungen zu finden, nicht aber, diese zu beenden. Wenn sich der Algorithmus von Google Mail erstmal gemerkt hat, dass der Partner immer mit in die Betreffzeile gesetzt wird, vergisst er das nicht mehr. Wenn beim Venmo-Zahlformular lange nach Beziehungsende immer noch der Name des Ex-Partners als Zahlungsvorschlag auftaucht, dann nur weil ein Algorithmus so programmiert wurde. Algorithmen sind hervorragend, um Verbindungen zu finden und sich diese zu merken. Doch vergessen können Algorithmen nicht. Beziehungsende? Nicht vorprogrammiert! Die schmerzhafte Erinnerung an die zerbrochene Beziehung starrt uns jedes Mal ins Gesicht, wenn wir unseren Facebook-Feed öffnen oder unsere alten Instagram-Fotos durchschauen.

Wenn es vorbei ist, ziehen wir im echten Leben einfach in einen anderen Stadtteil, löschen Telefonnummern und packen gemeinsame Erinnerungsstücke in eine Kiste, die wir in der hintersten Ecke des Dachbodens verstauen. Für die digitale Welt der sozialen Medien gibt es eine solche Kiste leider noch nicht. Es gibt aber mittlerweile zumindest einige Versuche, um uns auch das digitale Schlussmachen leichter zu machen.

Brauchen wir einen digitalen Schlussmach-Coach?

Die bekannteste Applikation ist wohl Block Your Ex, mit dem der bisherige Partner aus dem persönlichen Newsfeed geblockt wird. Wer einen ganz radikalen Schlussstrich ziehen will, nutzt den Kill Switch. Eine sehr hilfreiche Applikation gegen schwache Momente kann auch die iPhone-App Drunk Dial sein. Oder für die ganz dramatischen gibt es mittlerweile auch eine Applikation, mit der man digital “Fotos verbrennen” kann.

Doch all diese Applikationen haben noch ihre Schwächen. Selbst mit der Block Your Ex-App sehen wir immer noch, welche Events in unserer Nähe unser Ex-Partner besucht. Auch Tinder zeigt uns immer noch die Freunde unserer ehemaligen Partner als möglichen Match an. Wenn Schlussmachen schon im echten Leben nicht einfach ist, kann es in der digitalen Welt eine riesige Anstrengung sein, alle Spuren an den Ex-Partner zu verwischen. So anstrengend, dass sich die Idee eines Social Media Break Up Coordinator derzeit rasant im Internet verbreitet. Bisher ist dieser Schlussmach-Coach nur eine theatralische Performance von Caroline Sinders, einer Künstlerin und digitalen Anthropologin aus den USA. Doch die Idee dahinter könnte zu einem echten Kassenschlager werden: In ihrem Stück kümmert sich Sinders als Break-Up-Koordinatorin darum, alle Spuren an den oder die Ex im Netz zu entfernen – gegen Bezahlung versteht sich. Das erspart ihren Kunden die Mühe und den Kummer, selbst alle Social Media Profile nach dem Ex-Partner durchforsten zu müssen. Sinders kann das, was die Schlussmach-Apps noch nicht können: Mit menschlichem Mitgefühl nachvollziehen, welche digitalen Verbindungen wir nach einer zerbrochenen Beziehung kappen möchten.

Wir haben keine Netiquette für’s Beziehungsende

Es besteht also eindeutig Bedarf an einer Verbindung zwischen menschlichen Gefühlen und Algorithmen, wenn es um das digitale Schlussmachen geht. Denn es gibt bisher auch keine wirklichen Konventionen darüber, was die richtige “Beziehungsende-Netiquette” denn eigentlich ist. Darf ich noch ein “like” setzen, wenn mein Ex-Freund etwas Lustiges auf Facebook postet? Ist es in Ordnung auf den Tweet der Ex-Freundin zu antworten?

Die digitale Anthropologin Ilana Gershon von der Indiana University in den USA hat sich in einer Studie mit diesen Fragen ausführlich beschäftigt. Sie wollte herausfinden, was uns das Nutzerverhalten in sozialen Medien über das Beenden von Beziehung sagen kann. Ihre Schlussfolgerung: Selbst wenn uns vom persönlichen Schlussmachen bis zum Schicken einer WhatsApp-Nachricht immer mehr Kommunikationsformen zur Verfügung stehen, nutzen User diese in sehr differenzierter Form. Eine SMS zum Schlussmachen wird nicht gleich gesetzt mit einem Gmail-Chat, in dem man die Beziehung beendet. Doch wer was als angebracht empfindet und welche Normen es zum Schlussmachen gibt, das konnte selbst diese Studie nicht klären.

Doch es kann nicht mehr lange dauern, bis Programmierer auch Algorithmen dies beibringen werden. In Zukunft installieren wir dann vielleicht nur noch eine Schlussmach-App, mit der wir all die schmerzhaften Spuren zu unserer alten Beziehung automatisch verwischen können: Aus und vorbei, klick und weg.


Image (adapted) „Love (of technology)“ by Matthew G (CC BY 2.0)


 

Weiterlesen »

5 Lesetipps für den 22. Januar

In unseren Lesetipps geht es heute um Polen, Periscope, Netflix, wie ein Algorithmus politische Reden schreibt und die Messenger der Zukunft. Ergänzungen erwünscht.

  • POLEN Foreign Policy: Obama Is Poland’s Only Hope: Die neue polnische Regierung versucht mehr als zwei Dekaden demokratische Entwicklung in nur wenigen Wochen umzukehren. Und die Europäische Union wird wohl nur zu schauen können. Genau wie bei Ungarn. Nur wenn die europäischen Werte keinen Anreiz mehr für Polen darstellen, wohin wendet sich das Land dann? Denn Russland ist in diesem Fall keine Alternative für Polen. Bleiben noch die USA, und damit die Hoffnung der Europäischen Union, dass über die NATO-Beziehungen die polnische Regierung zurück in den Kreis der anderen Demokratien führen kann.

  • PERISCOPE Fast Company: Inside Periscope: Als uns im Sommer 2015 Dienste wie Meerkat und Periscope quasi überfielen, eine Technologie als neuesten Hype zu erklären, die es schon seit Jahren gab und wofür es auch schon Apps gab, nervten Dienste wie Persicope erst einmal gewaltig. Auf der ElbeBlogger-Reise nutzte ich den Dienst dann zwei Wochen lang jeden Abend und lernte ihn so langsam kennen und mögen. Inzwischen hat sich der aufgewirbelte Hype-Staub etwas gelegt und Periscope hat sich als Dienst erwiesen, der länger als einen Sommer gefragt ist. Harry McCracken hat sich für Fast Company intensiver mit dem Dienst auseinandergesetzt und gibt einen lesenswerten Einblick in das Unternehmen.

  • NETFLIX Meshed Society: Netflix is the next phase of globalization: Über die Vorteile des Streaming-Dienstes Netflix muss man wohl heutzutage nicht mehr viel sagen. Letzten Sommer habe ich es auf einer Europareise unglaublich geschätzt, vor allem Dank VPN, auch in anderen Ländern Content zu sehen, dessen Sprache ich verstehen kann. Martin Weigert analysiert auf seinem Blog, wie ein global zugängliches Netflix unsere Sehgewohnheiten verändern könnte. Welche Vorteile das hat, aber auch, denn das traditionelle Fernsehen wird technologisch definitiv nicht mithalten können, was es bedeuten könnte, wenn Netflix so mächtig wird, fragt er sich in seinem Blogpost.

  • ALGORITHMUS MIT Technology Review: How an AI Algorithm Learned to Write Political Speeches: In einer Folge der dänischen Politikserie Borgen muss der Spin Doctor Kasper Juul eine Rede für die Premierministerin schreiben und erklärt dabei einer Mitarbeiterin, wie eine politische Rede aufgebaut sein muss. Dahinter steckt System und dies hat Valentin Kassarnig von der Universität Massachusetts nun einem Algorithmus beigebracht, der politische Rede schreiben kann. Die sind im Detail noch nicht perfekt, und selbstverständlich nur auf Englisch, denn die Datenbank des Algorithmus ist mit über 4.000 Reden von 53 Debatten des US-Kongress gefüllt. Aber der erste Schritt ist getan, eine gute Rede zu schreiben können nun auch Maschinen. Irgendwann wird eine Maschine eine Rede halten und wir werden sie wählen.

  • MESSENGER Wired: Do We Really Want Messaging to Replace Our Apps?: Messenger-Apps werden unsere wichtigsten Apps. Medien schicken uns auf dem Messenger von Facebook die neuesten Nachrichten, Startups geben uns via WhatsApp Tipps für unser Outfit, ein mit Künstlicher Intelligenz verbesserter Slackbot erinnert uns an das nächste Meeting und was wir dazu wissen müssen. Dies sind nur einige Beispiele, wie Messenger unsere wichtigsten Assistenten im Alltag werden. Am Beispiel des von Berlin nach New York abgewanderten GoButler geht Cade Metz auf Wired.com der Frage nach, ob wir das überhaupt wollen.

CHIEF-EDITOR’S NOTE: Wenn Ihnen unsere Arbeit etwas wert ist, zeigen Sie es uns bitte auf Flattr oder indem Sie unsere Reichweite auf Twitter, Facebook, Google+, Soundcloud, Slideshare, YouTube und/oder Instagram erhöhen. Vielen Dank. – Tobias Schwarz

Nutze Netzpiloten 1-Klick: Mit nur einem Klick werden dir bequem alle 40 Sekunden die hier besprochenen Seiten „vorgeblättert“ START.

Weiterlesen »

5 Lesetipps für den 28. Dezember

In unseren heutigen Lesetipps geht es um Open Source, Smartphones in unserer Gesellschaft, Anonymität, Big Data und Algorithmen, sowie Doppelgänger. Ergänzungen erwünscht.

  • OPEN SOURCE Wired: Open Source Software Went Nuclear This Year: Es ist der finale Satz von Cade Metz Artikel, der eine der wichtigsten Lektionen des Jahres in einfache Worte fasst: Wenn wir eines in 2015 gelernt haben, dann niemals die Macht von Open Source zu unterschätzen. Und es sind nicht mehr die kleinen Schritte, wie mit Linux betriebene Surfer oder Android-Smartphones (auch wenn Google hier dem Gedanken von Open Source nicht immer gerecht wird), sondern die großen Namen, wie Microsoft und Apple, die beide inzwischen auch unter Open Source veröffentlichen, und vor allem die Perspektiven, denn es wird das unsere Gesellschaft stärker als das Internet an sich verändernde Künstliche Intelligenz sein, die erst durch eine Forschung unter Open Source wirkliche Fortschritte erzielen wird, die dem Thema Open Source noch mehr Bedeutung verleihen wird.

  • SMARTPHONE Social Media Week: Smartphones and Social Media – Where Will it Take Us: Vor 17 Jahren hat meine jüngere Schwester zur Einschulung ein Kinder-Handy bekommen, das genau drei eingespeicherte Nummern wählen konnte. Weihnachten 1999 durfte ich dann auch ein Handy haben. Das ist alles noch nicht lange her und trotzdem ist die Welt durch diese mobilen Geräte eine andere als damals, sozusagen der Welt im letzten Jahrtausend. Smartphones sind Teil unserer westlichen Gesellschaft geworden und haben einen Status erreicht, der laut Dan Radak dazu führt, dass Menschen ohne ein Smartphone perspektivisch die schlechteren Berufsmöglichkeiten und ein wenig ausgeprägtes soziales Leben haben werden. Ohne dass diese negativen Punkte genauso eintreten müssen, kann ich das positive Gegenteil dazu schon nachvollziehen. Smartphones, in Kombination mit Social Media, hat mein Berufsleben geprägt und lässt mich egal wo und wann, stets mit Freunden und anderen Menschen kommunizieren. Über Radaks Visionen sollten wir uns aber mal unterhalten.

  • ANONYMITÄT Fast Company: Has This Man Unlocked The Secret To Internet Anonymity?: Jonathan Hirshon ist laut der BusinessWeek der Silicon Valley Guru wenn es um PR geht. Er hat wohl für mehrere große Internetunternehmen gearbeitet bzw. sie sind seine Kunden und trotzdem kennt das Internet nicht sein Gesicht. Für ein Hoax hat Hirshon zu viele Profile in diesem Netz, die Täuschung wäre in diesem Ausmaß wohl zu aufwending, weshalb man Daniel Terdimans These, dass Jonathan Hirshon durch mit seinem Namen vertaggte Bilder, die nicht ihn zeigen, und dem Versuch jegliches Bild von ihm aus dem Inetrnet fernzuhalten, wohl wirklich einen gewissen Status von Anonymität im Netz erreicht hat. Und es zeigt den Schwachpunkt von Gesichtserkennungssoftware: sie ist (noch) nicht smart.

  • ALGORITHMUS TechRadar: Forget big data – it’s time for big algorithms to change the world: Big Data ist mehr als ein Buzzword, dahinter steckt meiner Meinung nach wirklich ein Teil unserer Zukunft, Doch in erster Linie ist Big Datat erst einmal nur eine Ansammlung an Unmengen von Daten. Wie in dem vorgangegangenen Lesetipp beschrieben, können Algorithmen noch durch zu viele Daten verwirrt werden, gefragt sind deshalb auch mit Big Data umgehende Algorithmen, wie Jamie Carter in seinem Artikel auf TechRadar.com erklärt. Dies würde dann den nächsten Schritten, maschinelles Lernen durch Künstliche Intelligenz, wesentlich verbessern.

  • DOPPELGÄNGER Fusion: How my doppelgänger used the Internet to find and befriend me: Nach einem Lesetipp zu einer Person, die ihr Bild aus dem Internet fernhält und den Lesetipp zur Notwendigkeit von smarten Algorithmen, die mit Big Data umgehen können, zum Abschluss ein Lesetipp über zwei identisch aussehende Menschen, die das Internet und all seine vermeintlichen Segnungen, wenn es um digitale Fotografie geht, genutzt haben, um ihren jeweiligen Doppelgänger zu finden. Denn auch das macht das Internet möglich, beinahe egal wo auf der Welt, solange beide Zugang zum Internet haben und das gleiche Nutzungsverhalten an den Tag legen, wenn es um Selfies geht. Trotzdem eine schöne Geschichte.

CHIEF-EDITOR’S NOTE: Wenn Ihnen unsere Arbeit etwas wert ist, zeigen Sie es uns bitte auf Flattr oder indem Sie unsere Reichweite auf Twitter, Facebook, Google+, Soundcloud, Slideshare, YouTube und/oder Instagram erhöhen. Vielen Dank. – Tobias Schwarz

Nutze Netzpiloten 1-Klick: Mit nur einem Klick werden dir bequem alle 40 Sekunden die hier besprochenen Seiten „vorgeblättert“ START.

Weiterlesen »

Wie Big Data vor Kreditkartenbetrug schützt

Kreditkarte (Image by jarmoluk [CC0 Public Domain], via Pixabay)

Machine Learning und Big Data wissen, dass du es nicht warst, der gerade deine Kreditkarte benutzt hat. Dies könnte Verbrauchern bald sehr viel nützen. Während du gerade zu Hause sitzt und dich um dein Zeug kümmerst, erhältst du einen Anruf der Abteilung für Betrugsermittlung deines Kreditkartenunternehmens, die dich fragt, ob du gerade in einem Kaufhaus in deiner Stadt etwas erworben hast. Du warst es jedenfalls nicht, der mit der Kreditkarte die teuren Elektrogeräte gekauft hat – die war nämlich den ganzen Nachmittag in deiner Tasche. Wie also konnte die Bank den Kauf als betrügerischen Akt identifizieren?

Kreditkartenunternehmen haben ein starkes Eigeninteresse daran, finanzielle Transaktionen zu identifizieren, die unautorisierter und krimineller Natur sind. Der Einsatz ist hoch. Der US-amerikanischen Studie zu Stornierungszahlen zufolge haben US-Amerikaner im Jahr 2012 insgesamt 26,2 Milliarden Transaktionen per Kreditkarte bezahlt. Der geschätzte Verlust durch illegale Buchungen betrug in jenem Jahr 6,1 Milliarden US-Dollar. Der staatliche Fair Credit Billing Act limitiert die Haftbarkeit der Eigentümer auf 50 US-Dollar bei unautorisierten Transaktionen, was dazu führt, dass Kreditkartenunternehmen die Verantwortung übernehmen müssen. Es ist offensichtlich, dass betrügerische Zahlungen große Auswirkungen auf die Bilanzen der Unternehmen haben können. Die Branche fordert von jedem Anbieter, der Kreditkarten vertreibt, eine jährliche Sicherheitsprüfung. Doch diese Maßnahme kann nicht jeden Betrug verhindern.

In der Bankenbranche sind Messrisiken eine gefährliche Angelegenheit. Das Hauptziel ist es, betrügerische Akten zu identifizieren, bevor ein zu großer finanzieller Schaden angerichtet wird. Aber wie funktioniert das? Und wer gewinnt das Wettrüsten zwischen den Dieben und den Finanzinstitutionen?

Die Truppen versammeln

Aus Verbraucherperspektive sieht die Aufdeckung von Betrugsfällen manchmal aus wie Zauberei. Der Prozess geschieht automatisch, ohne sichtbare Einwirkung eines Menschen. In das offenbar nahtlose und unverzügliche Vorgehen sind eine Reihe von ausgeklügelten Technologien verwickelt, die sich vom Finanzsektor über die Wirtschaft bis in den Rechts- und Informatikbereich ausweiten.

Natürlich gibt es einige recht einfache und direkte Feststellungsmechanismen, die keine umfassende Erklärung benötigen. Zum Beispiel kann das Unvermögen, die korrekte Postleitzahl anzugeben, die mit der Kreditkarte verbunden ist, wenn sie an einem ungewöhnlichen Ort eingesetzt wird, ein guter Indikator für einen Betrug sein. Aber Betrüger umgehen diesen Routinecheck geschickt – im Grunde ist das Auffinden der Postleitzahl des Opfers so einfach wie das Benutzen der Suchfunktion von Google.

Üblicherweise war die Betrugsauffindung auf Techniken der Datenanalyse angewiesen, die einen großen menschlichen Einsatz abverlangte. Ein Algorithmus entdeckte verdächtige Fälle, die letztendlich von menschlichen Prüfern bewertet werden mussten, die vielleicht auch die betroffenen Kartenbesitzer anriefen, um sie zu fragen, ob sie tatsächlich die Karten belastet hatten. Heutzutage stehen die Firmen einer konstanten Flut von so vielen Transaktionen gegenüber, dass sie auf Big-Data-Analysen als Hilfe angewiesen sind. Neu entstehende Technologien wie Machine Learning und das Cloud Computing tauchen im Feld der Betrugsaufdeckung auf.

Es gilt zu lernen, was echt und was fragwürdig ist

Einfach gesagt, bezieht sich das maschinelle Dazulernen auf sich selbst verbessernde Algorithmen, also vordefinierte Prozesse, die spezifischen Regeln folgen und von einem Computer ausgeführt werden. Ein Computer fängt mit einem Modell an und trainiert ihn dann mittels dem Trial- und Errorverfahren. So kann er dann Vorhersagen abgeben, beispielsweise zu dem Risiko, das mit einer finanziellen Transaktion verbunden ist.

Ein maschinell dazulernender Algorithmus muss jedoch erst trainiert werden, indem man ihm erst einmal Transaktionsdaten von eine sehr hohen Anzahl von Kartenbesitzern einführt. Die Abfolge von Transaktionen ist ein Beispiel dieser Art der Trainingsdaten. Beispielsweise tankt eine Person einmal pro Woche, sie kauft alle zwei Wochen Lebensmittel ein und so weiter. Der Algorithmus lernt, dass dies ein normaler Transaktionsablauf ist.

Nach der Durchführung dieser genauen Abstimmung werden Kreditkartentransaktionen möglichst in Echtzeit durch den Algorithmus geprüft. Dieser spuckt dann eine Einschätzung heraus, die die Wahrscheinlichkeit angibt, dass eine Transaktion betrügerisch war (beispielsweise hier: 97 Prozent). Angenommen, das Betrugsauffindungssystem ist so konfiguriert, dass es jede Transaktion blockiert, die eine Wahrscheinlichkeit von über 95 Prozent aufweist, könnte diese Beurteilung sofort eine Abweisung der Karte an dem jeweiligen Verkaufspunkt auslösen.

Der Algorithmus bezieht viele Faktoren ein, um eine Transaktion als betrügerisch einzuordnen: die Vertrauenswürdigkeit des Verkäufers, das Kaufverhalten des Karteninhaber bezogen auf Zeit und Ort, die IP-Adresse, und so weiter. Je mehr Anhaltspunkte es gibt, desto präziser ist die Entscheidung.

Dieser Prozess macht eine rechtzeitige – beziehungsweise eine Echtzeitaufdeckung von Betrug möglich. Kein Mensch kann tausende Daten simultan auswerten oder eine Entscheidung in einem Bruchteil einer Sekunde treffen.

Hier ist ein typisches Szenario. Wenn du zum Kassierer gehst, um im Supermarkt zu zahlen, ziehst du deine Karte durch. Die Transaktionsdetails wie die Zeitangabe, der Betrag, die Identität des Händlers und die Mitgliedsschafsinformationen werden zu dem Aussteller der Karte übermittelt. Diese Daten werden in den Algorithmus eingespeist, der die persönlichen Einkaufsmuster kennt. Passt diese bestimmte Transaktion in das Verhaltensprofil, das aus vielen vergangenen Kaufszenarien und Daten zusammengesetzt ist?

Der Algorithmus weiß sofort, wenn deine Karte in dem Restaurant benutzt wird, in das du jeden Samstagmorgen gehst – oder an der Tankstelle zwei Zeitzonen entfernt von dir zu einer eigenartigen Zeit um 3 Uhr morgens. Er prüft auch, ob die Nutzung deiner Transaktion von der gewöhnlichen abweicht. Wenn die Karte plötzlich zwei Mal an einem Tag für die Auszahlung eines Dispositionskredits verwendet wird, obwohl die vergangenen Daten keine solche Verwendung aufzeigen, wird dieses Verhalten die Betrugswahrscheinlichkeit steigern. Wenn die Betrugswahrscheinlichkeit der Transaktion eine gewisse Schwelle überschritten hat, wird – meist nach einer kurzen Prüfung durch eine reale Person – der Algorithmus mit dem Verkaufssystem kommunizieren und es auffordern, die Transaktion zu verwerfen. Onlinekäufe durchlaufen denselben Prozess.

Bei dieser Art des Systems werden erhebliche menschliche Eingriffe der Vergangenheit angehören. Tatsächlich könnten sie ganz abgeschafft werden, denn die Reaktionszeit ist viel länger, wenn ein menschliches Wesen zu sehr in den Kreislauf der Betrugsauffindung eingebunden ist. Nichtsdestotrotz können Menschen noch eine Rolle spielen – sowohl wenn es darum geht, einen Betrug zu bewerten als auch die Folgen einer verweigerten Transaktion abzuwickeln. Wenn eine Karte mehrmals abgelehnt wird, kann eine reale Person den Kartenbesitzer anrufen, bevor die Karte dauerhaft gesperrt wird.

Computerdetektive in der Cloud

Die reine Anzahl an Finanztransaktionen, die bearbeitet werden müssen, ist im Bereich von Big Data tatsächlich überwältigend. Aber das maschinelle Dazulernen gedeiht auf den Datenbergen – mehr Information lässt nämlich die Genauigkeit des Algorithmus steigen und hilft dabei, Falschmeldungen zu beseitigen. Das kann beispielsweise von verdächtigen Transaktionen ausgelöst werden, die eigentlich legitimiert sind (zum Beispiel durch die Nutzung einer Karte an einem unerwarteten Ort) – zu viele Warnsignale sind genauso schlecht wie gar keine.

Es benötigt eine Menge an Rechenleistung, um sich durch dieses Datenvolumen zu wühlen. Zum Beispiel produziert PayPal jederzeit mehr als 1,1 Petabytes an Daten für 169 Millionen Kundenaccounts. Dieser Überfluss an Daten – ein Petabyte entsprechen zum Beispiel mehr als 200.000 DVDs – hat einen positiven Einfluss auf das maschinelle Lernen des Algorithmus, aber er kann auch eine Hürde sein für die die EDV-Infrastruktur eines Unternehmens.

Und hier kommt das Cloud Computing ins Spiel: Ausgelagerte EDV-Ressourcen können eine wichtige Rolle spielen. Cloud Computing ist größenvariabel und nicht durch die eigene Rechenleistung des Unternehmens limitiert.

Betrugsaufdeckung ist ein Wettrüsten zwischen dem Guten und dem Bösen. Derzeit scheinen die Guten an Boden gutzumachen. Dies geschieht mittels neuer Innovationen der IT-Technologien wie Chip- und PIN-Technologien mit Verschlüsselungsfähigkeiten, Machine Learning, Big Data und natürlich dem Cloud Computing.

Sicherlich werden Betrüger weiterhin versuchen, die Guten auszutricksen und die Grenzen der Betrugsaufklärung herauszufordern. Drastische Änderungen innerhalb der Zahlungsmuster selbst sind eine andere Hürde. Dein Handy ist nun in der Lage, Kreditkarteninformation zu speichern und kann so genutzt werden, um kabellose Zahlungen zu tätigen – was wiederum neue Angriffspunkte liefert. Zum Glück steht die derzeitige Generation der Betrugsaufdeckung den Technologien des Zahlungssystems größtenteils neutral gegenüber.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Kreditkarte“ by jarmoluk (CC0 Public Domain)


The Conversation

Weiterlesen »

5 Lesetipps für den 8. Dezember

In unseren Lesetipps geht es heute um Kontrolle beim Datenschutz, Virtual Reality, Hashtags im Jahresrücklick, das Smartphone Comet und HP. Ergänzungen erwünscht.

  • DATENSCHUTZ Süddeutsche.de: Neues Safe-Harbor-Abkommen mit mehr Kontrolle – Digital: EU-Justizkommissarin V?ra Jourová plädiert für besseren Datenschutz für europäische Nutzer, sodass Tech-Konzerne wie Google oder Facebook weniger Personendaten in die USA übermitteln können. Jourová fordert ein neues Abkommen, welches im Januar mit den USA verhandelt werden und als Ergebnis ein “System von Vertrauen und Kontrolle” entstehen soll. Die bisherige Safe-Harbour-Vereinbarung wies in Bezug auf die ausreichende Kontrolle einige Mängel auf. Der EuGH hatte das Abkommen bereits im Oktober für ungültig erklärt, was durch die Klage von dem Österreicher Max Schrems, der seine Facebook-Daten in den USA nicht vor staatlicher Überwachung geschützt sieht, ausgelöst wurde.

  • VIRTUAL REALITY DIE WELT: Virtuelle Realität: Google und Facebook bringen neue Produkte: “Virtual Reality” und jeder möchte besser sein. Der Konkurrenzkampf um die beste Technik im Bereich der virtuellen Realität ist in vollem Gange. Google und Facebook sind zwei der Großkonzerne die kräftig mitmischen. Facebook setzt beispielsweise auf Oculus Rift, eine 3D-Videobrille, für die auf einem Event im Microsoft theatre aktuell eine neue Software live vorgestellt wurde, mit der man virtuell Teil einer Rockband sein kann. Google präsentierte fast zeitgleich eine neue App für Aufnahmen von virtueller Realität. Damit spricht Google vor allem die breite Masse an und macht VR für alle erschwinglich.

  • HASHTAGS horizont: 2015 auf Twitter: Das waren die weltweit wichtigsten Hashtags des Jahres: Jahresrückblick bei Twitter mit den wichtigsten Hashtags. Der Hashtag #JeSuisParis führt die Liste mit der weltweit größten Wirkung und Resonanz im Netz an. Zu den Anschlägen in Paris drückten hierdurch viele Menschen über den Globus ihr Mitgefühl und Solidarität für die Bewohner von Paris aus. Überhaupt ist durch die 10 ersten Plätze zu sehen, dass soziale Themen in diesem Jahr besonders im Fokus der Hashtags standen. Auf Platz 2 ist der Hashtag #BlackLivesMatter, der für die US-Bürgerrechtsbewegung und die Proteste gegen rassistische Polizeigewalt. Platz 3 und 4 belegen #MarriageEquality und #RefugeesWelcome.

  • COMET t3n: Comet: Erstes schwimmendes Smartphone der Welt erfolgreich finanziert: Mit dem Smartphone baden gehen. Das erste schwimmende Smartphone mit dem Namen Comet soll vorrausichtlich im nächsten Jahr auf den Markt kommen. Die Entwickler Comet Core mussten den ersten Versuch, das Gerät per Crowdfunding zu finanzieren, abbrechen. Via Indiegogo konnten sie aber nun genug Geld für das schwimmende Smartphone sammeln. Dennoch gibt es bisher nur einen Prototypen, der aber auf eine vielversprechende Qualität für den Markt hoffen lässt. Durch eine hochwertige Software soll das Smartphone an der Wasseroberfläche schwimmen können, das aber natürlich auch nur für kürzere Zeit.

  • HP Golem.de: Hewlett-Packard: HP gibt Produktion von preiswerten Tablets auf: Neue Produktions-Ausrichtung bei Hewlett Packard. Der Hersteller setzt bald nicht mehr auf die Produktion von preiswerten Tablets, um im Gegenzug mehr auf teurere und somit profitablere Geräte für das Unternehmen zu setzen. Ron Coughlin, President for Personal Systems bei HP, erklärt hierzu: “Wir konzentrieren uns auf Geschäftsmobilität, um Tablets für den Außendienst, Bildung, den Einzelhandel und das Gesundheitswesen anzubieten.” Im Fokus der Produktion stehen demnach Business-Tablets und-Detachables.

CHIEF-EDITOR’S NOTE: Wenn Ihnen unsere Arbeit etwas wert ist, zeigen Sie es uns bitte auf Flattr oder indem Sie unsere Reichweite auf Twitter, Facebook, Google+, Soundcloud, Slideshare, YouTube und/oder Instagram erhöhen. Vielen Dank. – Tobias Schwarz

Nutze Netzpiloten 1-Klick: Mit nur einem Klick werden dir bequem alle 40 Sekunden die hier besprochenen Seiten „vorgeblättert“ START.

Weiterlesen »

Ein Algorithmus analysiert Porträts eines Jahrhunderts

Jabez Hogg macht ein Portrait in Richard Beards Studio (1843)

Mit ihrer Studie A Century of Portraits, ein Jahrhundert voller Porträts, haben Studierende der kalifornischen Universität Berkeley einen Algorithmus entwickelt, mit dem zum ersten Mal eine große Anzahl von Fotos ganz gezielt analysiert wurde. Dafür wurden etwa 40.000 Jahrbuch-Porträts digital untersucht und dabei Spannendes zur historischen Entwicklung von Fotos herausgefunden. Ihre Erkenntnisse: Nicht nur die Veränderung von Mode und Frisuren über die Jahrzehnte lassen sich digital über die Bilder analysieren, sondern auch die Geschichte des fotogenen Lächelns.

Unser Foto-Projekt tanzt total aus der Reihe, aber wie das so ist im Leben – es ist einfach passiert.“ Das Projekt, das so spontan entstanden ist und Berkeley-Studentin Shiry Ginosar im Netzpiloten-Interview wie beiläufig beschreibt, könnte völlig verändern, wie wir mit historischem Fotomaterial umgehen.

Es gab zwar vor der Studie von Shiry Ginosar, Kate Rakelly, Sarah Sachs, Brian Yin and Alexei A. Efros einige Computerspezialisten, die Algorithmen zur Foto-Analyse entwickelt haben, aber keine dieser Studien hat bisher so viele Daten verwendet, um ganz spezifische Fragestellungen nachzugehen und somit einschneidend bewiesen, wie Computeralgorithmen und Gesellschaftswissenschaften Hand in Hand gehen können.

120 Jahre Schulgeschichte in einer Studie

Die Studie A Century of Portraits hat insgesamt 949 US-Jahrbücher aus 128 Schulen aus 27 Bundestaaten von 1905 bis 2013 untersucht. Insgesamt wurden so 154.976 Porträts aus über 100 Jahren herausgesucht – in der Welt von Shiry Ginosar ist das lächerlich wenig Analysematerial. „Wir werten normalerweise Daten mit Millionenwerten aus. Für diese Studie waren es letztendlich sogar nur etwa 40.000 Fotos, die wir mit verschiedenen Algorithmen analysiert haben.“ Dementsprechend schnell konnten die Daten verarbeitet werden.

Doch der Weg zu diesen Foto-Algorithmen war nicht ganz so leicht. Zunächst mussten Shiry Ginosar und ihr Team die Fotos vorbereiten. Im ersten Schritt wurden Porträts, in denen die Schüler nicht frontal in die Kamera schauten, aussortiert. Danach mussten alle Fotos auf eine Größe vereinheitlicht werden und in Graustufen angepasst werden. „Zum Glück haben die meisten High Schools in den USA mittlerweile all ihre Jahrbücher eingescannt, sodass es einfach war an die Fotos zu kommen. Aber manchen Jahrbüchern, die nicht im System waren, mussten wir monatelang hinterherjagen.“ Als dann aber endlich die Jahrbuch-Fotos zur Auswertung bereit standen, stellte sich die Frage: Was soll hier eigentlich untersucht werden?

Jahrbuch-Fotos aus über 100 Jahren (Image: Universität Berkely)
Jahrbuch-Fotos aus über 100 Jahren (Image: Universität Berkely)

 

Die Aussagekraft von Fotos

Wenn Historiker oder Sozialwissenschaflter Fotos oder Gemälde untersuchen, geht es ihnen oft um ganz bestimmte Aspekte. Haben sich gewisse Eigenheiten über einen Zeitraum hinweg verändert und wenn ja, warum? Kann man Unterschiede in Fotos aus dem 20. Jahrhundert in den USA und in Europa feststellen? Ein großer Teil unseres kulturellen Erbes ist nur in Bildform vorhanden, etwas, das sich natürlich heute im Zeitalter von Facebook und Instagram nur noch verstärkt. Für diese visuelle Geschichte können Geisteswissenschaftler Wörter und Begriffe finden, sie können sie beschreiben, aber wirklich verstehen, kann man sie oft nur durch die Bilder selbst.

Wenn Historiker also bisher visuelles Material analysiert haben, blieb ihnen nichts anderes übrig, als dies manuell zu tun – also mühsam Fotos durchgehen und diese selbst zu interpretieren. A Century of Portraits bietet hier möglicherweise zum ersten Mal einen ersten Ansatz, um unzähliges, bisher nicht angezapftes visuelles Material, auswerten zu können.

Für ihre Studie hat sich Shiry Ginosar zunächst auf drei Hauptpunkte konzentriert: Wie haben sich Frisuren Jahrzehnt um Jahrzehnt verändert? Wie änderte sich das Lächeln der Schüler im Laufe der Zeit? Und schließlich, welche Aussagen lassen sich über Brillenmode machen?

Die ersten zwei Punkte stellen sie in ihrer Studie A Century of Portraits vor, die Geschichte der Brillenmode wird bald in einer weiteren Arbeit des Teams veröffentlicht werden. Um diesen Fragen auf die Spur zu kommen, hat das Team im ersten Schritt ein „Durchschnittsgesicht“ für jedes Jahrzehnt aus Pixelwerten zusammengerechnet.

Berechnung von Durchschnittsgesichtern der Jahrzehnte (Image: Universität Berkely)
Berechnung von Durchschnittsgesichtern der Jahrzehnte (Image: Universität Berkely)

Im zweiten Schritt wurden dann „Frisuren-Cluster“ erstellt. Ein Algorithmus sollte errechnen, welche Frisuren nur in bestimmten Jahrzehnten vorkommen. Aus diesen Frisuren wurden dann die vier häufigsten Frisuren eines Jahrzehnts ermittelt.

Das vom Algorithmus erstellte Frisuren-Cluster (Image: Universität Berkely)
Das vom Algorithmus erstellte Frisuren-Cluster (Image: Universität Berkely)

 

Einmal lächeln bitte

Für die Entwicklung des Lächelns wurde ermittelt, inwiefern sich die Mundwinkel von Jahrzehnt zu Jahrzehnt veränderten. Das Ergebnis: Wir lächeln heute öfter und breiter als früher. Während Menschen 1903 gar nicht lächelten, werden 20013 richtig Zähne beim Lächeln gezeigt.

Heutzutage lächeln wir mehr auf Fotos als früher (Image: Universität Berkely)
Heutzutage lächeln wir mehr auf Fotos als früher (Image: Universität Berkely)

Die Historikerin Christina Kotchemidova, die sich mit dem Thema „Lächeln“ lange und intensiv beschäftigt hat, erklärt, dass es vor allem die Kodak-Werbung war, die Menschen dazu anregte, in Fotos zu lächeln. Auch die Tatsache, dass wir nicht mehr stundenlang für ein Foto posieren müssen, hat sicherlich viel damit zu tun, dass Menschen nicht mehr so ernst in die Kamera drein schauen.

Shiry Ginosar selbst hält sich mit möglichen Erklärungen zurück: „Wir selbst können nicht sagen, warum das so ist“, sagt Shiry Ginosar, „das müssen Historiker oder Psychologen analysieren. Wir stellen ihnen nur das Material zur Verfügung.

Genau das zeigt auch die Stärke der Studie von Ginosar und ihrem Team. Wissenschaften, die sich ansonsten eher feindlich gegenüber stehen, können plötzlich vom Wissen der anderen profitieren.

Mit Algorithmen Bilder für die Zukunft bewahren

Genau das haben Shiry Ginosar und ihr Team auch in Zukunft vor: „Wir arbeiten schon daran, einer Doktorantin mit ihrer Geschichtsarbeit zu helfen. Lustigerweise schreibt sie ihre Doktorarbeit zur Entwicklung von Haarmode.

An Ideen für weitere Algorithmus-Foto-Projekte fehlt es Shiry Ginosar nicht: Sie träumt von einer Haarenzyklopädie, die Frisurentrends über Jahrhunderte hinweg darstellt und sie träumt von einer Welt, in der Algorithmen es uns ermöglichen, unsere visuelle Welt zu ordnen, zu verstehen und zu bewahren.


Image „Jabez Hogg macht ein Portrait in Richard Beards Studio“ (Public Domain)


Weiterlesen »

Wird Twitter durch „Moments“ menschlicher?

Twitter Bird Logo Sketch, New (adapted) (Image by Shawn Campbell [CC BY 2.0] via Flickr)

Twitters Nutzerwachstum hat sich in den letzten drei Jahren verlangsamt – kann das neue Feature namens Moments das vielleicht ändern? Anfang diesen Monats startete Twitter ein neues Feature namens Moments, das eine kuratierte und ständig aktualisierte Sammlung von Tweets anbietet, die das Unternehmen als “das Beste, was gerade bei Twitter passiert” beschreibt. Unter den Überschriften “Heute”, “Nachrichten”, “Sport”, “Unterhaltung” und “Fun” präsentiert Moments eine Reihe von Tweets mit Texten, Videos und Fotos, deren Inhalte von den letzten Entwicklungen im US-amerikanischen Wahlkampf bis hin zu niedlichen Tierbildern reichen.

Die Aufmerksamkeit, die Moments gewonnen hat, ist groß, sowohl weil es Twitters Bestreben das schleppende Nutzerwachstum anzukurbeln zeigt, als auch weil es auf menschliche Kuratoren angewiesen ist. Dieses Vertrauen in Menschen lässt wichtige Fragen nach dem Wert der Leute in technologie-getriebenen Informationsservices und den Grenzen der modernen Spitzensoftware aufkommen.

Warum ist Moments gerade jetzt für Twitter wichtig?

Der wichtigste Antrieb hinter der Entwicklung von Moments ist Twitters stagnierendes Nutzerwachstum.

Twitter, das seit 2006 auf dem Markt ist, kämpft darum, sich auf dem amerikanischen Markt vollständig durchzusetzen. Laut Daten des Pew Research Center nutzen lediglich 20 Prozent der Erwachsenen in den USA Twitter, im Vergleich dazu sind es 62 Prozent der Erwachsenen bei Facebook, 26 Prozent die Pinterest nutzen, 24 Prozent sind Nutzer von Instagram und 22 Prozent nutzen LinkedIn.

 

Hinzu kommt, dass sich Twitters Nutzerwachstum in den letzten drei Jahren verlangsamt hat; waren es im ersten Quartal 2012 noch 18 Prozent, sind es im zweiten Quartal diesen Jahres nur noch 3 Prozent.

Der vor kurzem wieder eingesetzte CEO von Twitter, Jack Dorsey, nennt als Ursache des verlangsamten Wachstums die verwirrende Plattform, deren Navigation schwierig ist. Moments soll nun beide Probleme lösen.

 

Zuallererst soll Moments die Schlüsselfunktion von Twitter hervorheben. Daten des GlobalWebIndex Social Report weisen darauf hin, dass Twitter vor allem als Nachrichtenservice genutzt wird. Wie die Grafik zeigt, berichten 41 Prozent der Nutzer, dass sie in den letzten 30 Tagen einen Nachrichtenbeitrag auf Twitter gelesen haben und 35 Prozent geben an, sich eingeloggt zu haben, um zu sehen, was aktuell passiert (ohne etwas zu tweeten) oder um Trends zu verfolgen.

Moments vereinfacht diese passive Leseart in dem es einen schnellen Überblick über die Nachrichten des Tages bietet. Es betont den größten Reiz von Twitter: Zugang zu interessanten, aktuellen Informationen. Für neue Nutzer kann Moments als Einstieg dienen, um zu zeigen, wie die Plattform funktioniert. Zweitens macht es Moments einfacher, auf der Seite zu navigieren. Anstelle der unorganisierten, zeitlich umgekehrten Zeitachse, mit der erfahrene Nutzer der Plattform vertraut sind, bietet Moments eine stabile und strukturierte Sammlung von Inhalten. Für neue Nutzer, die Twitter noch verwirrend finden, bietet Moments Übersichtlichkeit und erleichterte Bedienung. Falls Dorseys Diagnose korrekt ist, könnte Moments Twitter zu größerem Nutzerwachstum verhelfen. Allerdings sind sich nicht alle Beobachter einig, dass die Verwirrung der Nutzer der Hauptschuldige am stagnierenden Wachstum ist. Der Mitarbeiter der Harvard Business Review Umair Haque schlägt eine alternative Theorie vor, nach der Twitters Wachstum sich auf Grund des ausfallenden und verunglimpfenden Tons, der häufig auf der Plattform angeschlagen wird, verlangsamt hat. Daher bleibt es abzuwarten, ob sich Moments als die richtige Behandlung für das Gebrechen einer nur wenig wachsenden Nutzerbasis erweist.

Wie funktioniert Moments?

Der vielleicht interessanteste Aspekt von Moments ist die Technologie dahinter, besonders da nicht wirklich Technologie in Gebrauch genommen wird. Die Moments Inhalte werden nicht von einem Algorithmus ausgewählt, sondern ausschließlich von Menschen bei Twitter. Dabei erhalten sie Hilfe von Nachrichtenorganisationen wie The New York Times und der Washington Post. Mit anderen Worten: Twitter sucht nicht nach software-basierten Lösungen für das Problem des Nutzerwachstums, sondern hat sich für menschliche Arbeit entschieden. Für Twitter bedeutet dies Inhalte mit höherer Qualität und ein geringeres Risiko von peinlichen Fehlern (welche das Unternehmen in früheren, auf Algorithmen basierenden, Versuchen der Zusammenstellung von Inhalten erlebt hat). Für Nachrichtenorganisation stellt eine Beteiligung an Features wie Moments eine Möglichkeit dar, wie sie Besucher auf ihre Website bringen, während sie noch damit ringen sich an den Einfluss, den soziale Medien auf das Nachrichtengeschäft haben, zu gewöhnen. Twitters Entscheidung menschliche Kuratoren anzustellen, kommt zu einer Zeit, in der die Bedrohung der menschlichen Mitarbeiter durch hochentwickelte Roboter und Software in allen Industrien von der Gastronomie bis hin zum Journalismus ein häufiges Thema ist. Doch während die Bedenken darüber wachsen, ersetzen immer mehr Technologieunternehmen Algorithmen und Software durch Menschen. Beispiele sind auch außerhalb Twitters, von Menschen kuratiertem, Moments zu finden. Die Firma YouTube, eine Tochterfirma von Alphabet (ehemals Google), kündigte vor kurzem an, sie werde mit den Menschen der Nachrichtenagentur Storyful zusammenarbeiten, um einen Video News Feed zu kuratieren. Auch Apple investiert, sowohl für die Nachrichten App als auch für den Musikservice, in menschliche Experten als Kuratoren. Diese Beispiele bilden einen starken Kontrast zu den Algorithmen, die häufig Feeds befüllen. Facebooks Nachrichten Feed nutzt beispielsweise einen Algorithmus, der in Betracht zieht, wem man folgt, was einem gefällt und mit welchen Freunden man am häufigsten interagiert, um zu bestimmen, welche Inhalte angezeigt werden. Eine Art, diese Ankündigungen zu lesen ist, dass sie die Rückkehr des menschlichen Wesens einläuten, dass sie die Erkenntnis repräsentieren, dass das menschliche Urteilsvermögen einen Wert hat, der nicht von einer reinen Software reproduziert werden kann. Eine realistischere Interpretation könnte jedoch sein, dass die Entscheidungen der Technologieunternehmen eher der Erkenntnis geschuldet sind, dass die gegenwärtige Software Generation ihre Grenzen hat. In einem Interview mit Note to Self betont Yoshua Bengio, Professor für Informatik an der University of Montreal, wie unterentwickelt das heutige maschinelle Lernen und die künstlichen Intelligenzen sind. Diese Systeme mit menschlichen Kleinkindern vergleichend erklärte Bengio: “Sie sind noch jünger als Babys, sie sind Proto-Babys, nicht annähernd so klug wie Babys.”

Dieses Proto-Säuglingsalter des maschinellen Lernens wurde bei einem Vorfall Anfang des Jahres deutlich, als Googles Bilderkennungssoftware fälschlicherweise ein afro-amerikanisches Paar als Gorillas markierte. Google entschuldigte sich für den Fehler und unternahm sofort Schritte, um weitere Probleme dieser Art zu vermeiden, aber das innewohnende Problem bleibt: Die gegenwärtige Software ist einfach zu dumm, um Entscheidungen zu treffen, die menschliche Erwachsene intuitiv entscheiden würden. Und für Unternehmen, wie Apple, Alphabet und Twitter steht zu viel auf dem Spiel, als dass sie ihr gesamtes Geschäft auf Software setzen würden, die sich noch im Proto-Säuglingsalter befindet.

Daher ist es wahrscheinlich ein Fehler zu verkünden, dass wir in ein neues Zeitalter der Menschen bei Apple, Twitter und ähnlichen Unternehmen vorstoßen. Stattdessen bedeuten diese Entwicklungen lediglich eine Pause im Vormarsch der Mechanisierung. Sobald die Algorithmen erwachsen sind, ist es denkbar, dass die menschlichen Kuratoren den Weg der menschlichen Autobauer gehen werden.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) “Twitter Bird Logo Sketch, New” by Shawn Campbell (CC BY 2.0)


 

Weiterlesen »

Maschinen für die glückliche Suche

zettelkasten (adapted) (Image by Kai Schreiber [CC BY-SA 2.0] via Flickr)

Das 760 laufende Meter umfassende Tessiner Archiv des legendären Ausstellungsmachers Harald Szeemann, wird von einem Chaos der Ordnungen in allen Ebenen beherrscht. Zettel an Schnüren von der Decke, Karteikästen mit Registern auf Tischen, Schubladenschränke, Regale, Kisten und Tüten, Versuche des Reihens und Stapelns, der Serien- und Haufenbildungen. “Unordnung ist eine Quelle der Hoffnung” steht unter einem Regalbrett: “Das Wichtigste ist für mich, mit geschlossenen Augen durchzugehen, und meine Hand wählen zu lassen.” Szeemann baut also einen Zufallsmechanismus in seine analoge Sammlung ein. Im wissenschaftlichen Kontext geht man bekanntlich anders vor.

Wenn Forscher sehr sicher sind, was genau sie wissen wollen, entsteht dabei zwischen Lesen und Schreiben keine große sachliche und zeitliche Lücke.“Man bibliografiert, welche Beiträge geleistet worden sind, und notiert sich, was ihnen entnommen werden kann”, schreibt Jürgen Kaube in seinem Beitrag “Luhmanns Zettelkasten oder Wie ist gedankliche Ordnung möglich?” im Ausstellungskatalog “Serendipity – Vor Glück des Findens”, erschienen im snoeck-Verlag. Nachdenken, Weiterlesen, Rechnen, Experimentieren, Datenausschöpfen, Fragen und Antworten formulieren. Die Lektüre und Recherche erfolgt zielgerichtet.

Was in Schubläden schlummert

Der berühmte Zettelkasten, den der Soziologe Niklas Luhmann schon im Alter von 25 Jahren anlegte und bis zwei Jahre vor seinem Tod 1998 geführt hat, um seine Gedanken und Lektüren zu dokumentieren, funktioniert anders. Eine Erkenntnis wollte er nicht in Stein meißeln, sondern auf verschiedene Wege weiterführen. Kaube erklärt das mit dem Zettel 7/59a zum Begriff des Klassikers. Dort notiert Luhmann: “Man kann es tun, aber es entspricht nicht wissenschaftlichem Stil, die Klassiker mit Dankbarkeit zu überschwemmen”und “Vielleicht sind Klassiker auch, und gerade deshalb, so beliebt, weil man sich von ihnen durch Personennamen unterscheiden kann, während bei theoretischen Positionen schwierige Überlegungen nötig sind, wirklich festzustellen, worin sie sich unterscheiden.

Dieser Luhmann-Zettel unterstreicht die Kombinationsmöglichkeiten seines Gedankenkosmos, der in Schubläden schlummert. Er belegt nach Auffassung von Kaube die Verwendungsfähigkeit in unterschiedlichen Kontexten wie “Klassiker” oder “Adeptentum” oder “Philologie”. Anschlussmöglichkeiten ergeben sich auch über die Funktion von Personennamen oder über die verschiedenen Ausprägungen von Dankbarkeit. “Es kommt in jedem Fall nur darauf an, dass man diesen Zettel wiederfindet, wenn man an Überlegungen zu Dank, Philologie oder Epigonen sitzt. Dafür hat die Ordnung des Zettelkastens, die Anordnung der Zettel, das interne Vereisungssystem und die Schlagwörtervergabe zu sorgen”, schreibt Kaube.

Zufallslektüre und die Fähigkeit etwas zu finden, was man gar nicht gesucht hat

Am wichtigsten ist allerdings die Berücksichtigung des Zufalls bei der Lektüre. Es gibt Themenblöcke im Luhmannschen Archiv etwa zum Begriff des Amtes, zu Wirtschaft, zu Hochkulturen oder zur Entscheidungstheorie. Diese anfängliche Ordnung wird immer wieder verlassen. Notierte Nebengedanken zu diesen großen Linien werden einfach an der Stelle eingeschoben, an der der Zettelkasten geöffnet war. Das führt zur Steigerung des Überraschungsgehaltes beim erneuten Zugriff auf den Kasten. Durch die Anwendung dieses “Multiple-Storage-Prinzips” – also die Mehrfach-Ablage – durchbricht Luhmann auch eine historische Ordnung nach der Machart “Das waren meine ersten Gedanken zu xyz”.

Der Kasten versucht die Vorteile von Ordnung mit den Vorteilen der Unordnung zu kombinieren”, so Kaube. Damit bewegt sich Luhmann auf der von Horace Walpole benannten Gabe der Serendipität, also der Fähigkeit, etwas zu finden, was man gar nicht gesucht hat. Eine Recherche-Methodik für überraschende Erkenntnisse.

Entscheidend ist Verzicht auf eine Zettel-Priorität. Es gibt in diesem Netz der Notizen keine privilegierten Plätze und keine Zettel von besonderer Qualität. Mit der Ablagetechnik und die Kombinatorik der Notizen gleicht der Zettelkasten den Hyperlinks des Internets.

Digitale Forscher-Elite sollte nach Bielefeld pilgern

Das Suchen dieser Links wird allerdings vom Google-Algorithmus dominiert. Man erhält “webgerechten” sowie “technisch sauber aufbereiteten Content”, heißt es im unsäglichen SEO-Jargon.

Klingt nicht gerade nach einer glücklichen Sucherfahrung mit zufälligen Ergebnissen, die wieder zu neuen Erkenntnissen führen. Eine laue Alternative hat man mit der Google-Option “Auf gut Glück”, die auf dem stARTcamp Köln als mögliche Recherche-Methode ins Feld geführt wurde.

Unter den Teilnehmern hatte sie noch keiner ausprobiert. Die Notiz-Amt-Erfahrungen waren auch nicht gerade prickelnd.

Die Überraschungsfunktion des Luhmann-Zettelkastens ist besser und vielfältiger. Wenn in Deutschland und Europa über Alternativen zum Suchmaschinen-Riesen in Mountain View nachgedacht wird, sollte die digitale Forscher-Elite nach Bielefeld pilgern und das Sortiersystem von Luhmann als Maschine des glücklichen Suchens nachbauen.


Image (adapted) „zettelkasten“ by Kai Schreiber (CC BY-SA 2.0)


 

Weiterlesen »

CityBeat: Daten sollen helfen, News zu finden

News (adapted) (Image by MIH83 [CC0 Public Domain] via Pixabay)

CityBeat versucht, durch Instagram-Daten, die mit Geomarkierungen versehen sind, die neuesten Nachrichten zu entdecken. Oft jedoch erfolglos oder zu spät. Am 12. März 2014, kurz nach 9:30 Uhr, explodierten zwei Wohnungen in East Harlem, als eine Wasserleitung in eine Gasleitung stürzte. Acht Menschen wurden getötet und es gab Dutzende Verletzte. Reporter rasten zum Ort des Geschehens, aber vier Redaktionen – The New York Times, BuzzFeed, Gothamist und The New York World – nutzten einen anderen Dienst, um über die Geschehnisse zu berichten: CityBeat, ein Programm, das auf algorithmischer Basis geomarkierte Postings aus den sozialen Medien heraussucht, um in New York neue Stories zu finden. CityBeat wurde von den Forscher der Cornell Tech, genau genommen Cornell’s Außenstelle für angewandte Wissenschaften in New York, und Rutgers entwickelt und wurde zu dem Zeitpunkt gerade von den vier Redaktionen getestet.

Bei CityBeat erschienen Berichte über die eingestürzten Gebäude in den sozialen Medien, aber als man endlich genug Posts zusammenhatte, um einen Algorithmus zu registrieren, wussten die Nachrichtenorganisationen bereits von der Explosion und die Reporter und Fotografen waren auch schon vor Ort. „[Das Feuer von Harlem] war zwar in den Schlagzeilen, aber erst eine halbe Stunde später… in so einem Moment nutzen wir Instagram nicht“, sagte einer der Journalisten, der von den Forschern für ihren Bericht interviewt wurde.

Die Teilnehmer sind überzeugt, dass CityBeat am nützlichsten sei, wenn man Events planen wolle: Konferenzen, Konzerte, Events oder PR-Aktionen, wie das eine Mal, als ein Mann in einem Bärenkostüm durch Manhattan spazierte. Das Programm war weniger effektiv, wenn es darum ging, Nachrichten in Echtzeit zu bespielen. „Wir haben darüber gesprochen, dass das eine Einschränkung ist. Wir verstehen die Basis der Information“, so Raz Schwartz, einer der Mitverfasser der Studie. „Die sozialen Medien sind wahrscheinlich nicht die beste Art, um die neuesten Geschehnisse herauszufinden.“

Schwartz arbeitet jetzt im User Experience Team bei Facebook mit, führte die Studie aber als Teil seiner Forschung im Anschluss an seine Doktorarbeit bei Cornall, zusammen mit Mor Naaman, Professor bei Cornall, und Rannie Teodoro von Rutgers, durch. Die Studie wurde vom Brown Institute For Media Innovation der Columbia-Universität gefördert. Kürzlich präsentierte Schwartz die Ergebnisse auf einer Konferenz im englischen Oxford.

Obwohl die Forscher auf andere Themengebiete ausgewichen sind, gibt es CityBeat noch immer. Die Seite wurde gebaut, um auf großen Bildschirmen in Redaktionsräumen gezeigt zu werden. Sie besteht aus drei großen Teilen. Es gibt die Detected Events List (dt.: Liste der gefundenen Ereignisse), eine Zusammenfassung der Ereignisse, die der Algorithmus innerhalb der letzten 24 Stunden durch seine Instagram-Daten gefunden hat. Es gibt auch ein Fenster, mit dem neue Ereignisse mit Ortsangabe in New York angezeigt werden. Das dritte Element ist eine Seitenleiste, die Statistiken in Tweets, Hashtags und mehr anzeigt.

Um Events rund um New York zu finden, sucht sich der Algorithmus von CityBeat die Instagram-Daten heraus, die eine Geomarkierung haben. Wenn er viele Fotos von einem bestimmten Ort herausfiltert, wird ein ‚Candidate Event‘ aufgemacht, in dem alle Fotos auftauchen, die sich mit dem Ereignis beschäftigen. Wenn dies geschehen ist, wird eine automatische Nachricht an die Mitarbeiter von Amazon Mechanical Turk gesandt, die kontrollieren, ob es sich um ein berichtenswertes Ereignis handelt und nicht etwa um eine Gruppe Menschen, die einfach nur Selfies von ihrem Besuch des Empire State Buildings posten. Diese Vorgehensweise erwies sich jedoch als „problematisch“, wie die Mitarbeiter in ihrem Bericht festhielten. „Oft wurde man bei Amazon Mechanical Turk von der Fülle verschiedener Fotos, die auftauchten und wirkliche Ereignisse als Störung klassifizierten, abgelenkt“, so die Studie.

Algorithmen und Bots sind in der letzten Zeit in den Nachrichten recht alltäglich geworden. Sowohl die Associated Press als auch die Los Angeles Times nutzen Bots, um bestimmte Artikel zu schreiben. Apps wie SmartNews benutzen Algorithmen, um sich durch Millionen von URLs zu suchen und somit ihren Usern Neuigkeiten zu präsentieren; und natürlich ist da noch Facebook, das die Zukunft eines Verlegers mit einem verbesserten News Feed verändern kann.

Während in den Redaktionen noch getestet wurde und man nicht sehr überzeugt vom Nutzen der Plattform war, sagte Schwartz, dass er trotzdem daran glaube, dass man aus dem Experiment namens CityBeat gelernt habe, nämlich etwas über die Rolle, die Algorithmen bei den Nachrichten spielen können. „Das haben wir schon überall gesehen“, sagt Schwartz und bezieht sich dabei auf die zunehmende Nutzung von redaktionellen Algorithmen. „Es wächst und wächst und wir müssen verstehen, was das heißt. Wir müssen verstehen, was passiert, wenn wir dem Algorithmus die Macht über die Auswahl und Erstellung unserer Nachrichten geben.“

Dieser Artikel erschien zuerst auf Niemanlab. Übersetzung von Anne Jerratsch.


Image (adapted) „News“ by MIH83 (CC0 Public Domain

Weiterlesen »

Entscheidungsmacht von Algorithmen: Mensch versus Algorithmus

Algorithmus (Bild by geralt [CC0] via pixabay).jpg

Algorithmen bestimmen mittlerweile unser tägliches Leben. Aber ist eine von Menschen getroffene Entscheidung richtig, auch wenn der Algorithmus das anders sieht? Algorithmen versuchen ein Problem zu lösen, in dem sie den Vorgang der Problemlösung genau beschreiben. Sie werden von Menschen entwickelt, um dann eigenständig nach vorgegebenen Parametern Ergebnisse zu liefern. Google präsentiert uns nach einem von Experten erarbeiteten Algorithmus die Suchergebnisse auf unsere gestellte Frage. Amazon versucht uns Empfehlungen nach einem Algorithmus vorzuschlagen und Facebook passt unsere Timelines nach einem Algorithmus an. Doch wie fehlerfrei kann etwas von Menschen entwickeltes sein?


Warum ist das wichtig? Durch die umfassende Digitalisierung unserer Gesellschaft sind Algorithmen ein fester Bestandteil unseres Lebens.

  • Algorithmen bestimmen unsere Gesellschaft, aber ohne Transparenz können sie nicht ethisch bewertet werden.

  • Entwicklungen wie Deep Learning treiben die „Menschwerdung“ von Algorithmen voran, ohne die Schwachstellen des menschlichen Denkens.

  • Erst das Ergebnis zeigt uns, ob Mensch oder Algorithmus Recht haben. Vorhersagen lässt sich das oftmals nicht.


Auch das Navigationsgerät eines Autos funktioniert nach einem Algorithmus: es erfasst den besten, schnellsten oder energieeffizientesten Weg. Was aber, wenn ich, als Mensch, einen schnelleren Weg kenne? Wenn ich eine andere Entscheidung treffe als mir der Algorithmus des Navigationsgerät vorgibt? Bin ich dann immer noch im Recht?

Das Beispiel mit dem Navigationsgerät wirkt einfach zu lösen: Solange das Ziel erreicht wird, war die Entscheidung richtig, unabhängig von der gewählten Strecke. Ob die Strecke, die das Navigationsgerät berechnet hat, oder die man letztlich gefahren ist, schneller war, kann kein Auto fahrender Mensch beurteilen. Außerdem spielen weiteren Faktoren wie der Verkehr, Baustellen und auch Ampeln eine Rolle.

Wie sieht es aber mit Algorithmen in einem Krankenhaus aus? In der ersten Folge von „Looking into Black Boxes“ wird erklärt, wie im Krankenhaus Berlin-Marzahn das „Manchester Triage System“ verwendet wird. Dieses beinhaltet einen Algorithmus, der die Patienten nach Symptomen einteilt und sie dementsprechend in einem bestimmten Zeitraum behandelt werden. Andere Algorithmen überwachen beispielsweise die Dosierung von Medikamenten.

Hier stellt sich wieder die gleiche Frage: Wie weit kann der Mensch auf die Maschine vertrauen? Und: Wenn der Mensch dem Algorithmus widerspricht, wer hat dann Recht?

Ethische Aspekte von Algorithmen

Algorithmen kann eine Ethik beiwohnen, solange sie Konsequenzen für unser tägliches Leben haben, so Zeynep Tufekci gegenüber der taz. „Sie sind zwar nicht lebendig, aber sie sind handlungsmächtig.“ Die Frage, die sich nun stellt, ist die ethische Verantwortung der Menschen hinter dem Algorithmus.

Es gibt immer einen Entwickler, welcher aus einer Formel einen funktionierenden Algorithmus entworfen hat. Letztlich setzt dieser die Parameter fest, nach denen der Algorithmus dann arbeitet und handlungsmächtig agiert. Im Endeffekt entscheiden diese dann auch, was richtig und falsch ist.

Um eine Entwicklerethik festzulegen und auch kontrollieren zu können, müssten Algorithmen transparent gemacht werden. Bisher sind die meisten Algorithmen nur für die Unternehmen dahinter zugänglich. Alles, was wir kaufen, recherchieren oder lesen, wird in Datenbanken gesammelt, ist für Unternehmen jederzeit verfügbar und kann einfach per Fernzugriff geändert werden.

Fehlende Transparenz

Für die Nutzer gibt es allerdings keinerlei Transparenz oder Kontrolle. Mit jedem Nutzer-Account, das wir uns zulegen, tragen wir wieder ein neues Konto in die Datenbank einer Firma ein, die Informationen über uns sammelt und aus diesen versucht, uns ein Erlebnis zu schaffen, was sich in irgend einer Form monetarisieren lässt.

Ohne Transparenz können wir als Gesellschaft nicht entscheiden, ob der Algorithmus nach ethischen Parametern entscheidet oder nicht. Arbeitet ein Algorithmus nach unethischen Vorgaben, sollte sein Ergebnis anzuzweifeln sein. Entspricht die vom Menschen getroffene Entscheidung den ethischen Vorgaben, ist sie klar als richtig zu bewerten, auch wenn der Algorithmus etwas anderes sagt.

Jedoch wird es ein schwieriges bis unmögliches Unterfangen, die Unternehmen zur Offenlegung ihrer Algorithmus-Parameter zu bringen. Daher wird eine ethische Bewertung so schnell nicht möglich sein.

Deep Learning – die neue Zukunft?

In der Forschung rund um Algorithmen werden immer mehr Fortschritte erzielt. Deep-Learning-Algorithmen sind auf dem Weg, ähnlich des menschlichen Gehirn zu funktionieren, in dem menschliches Lernen imitiert wird. Damit gehen die Entwickler einen großen Schritt Richtung Künstliche Intelligenz.

Lernfähige Algorithmen geben die Hoffnung, dass man Ihnen ethisches Verhalten „beibringen“ kann und sie somit irgendwann evaluieren können, was ethisch nicht vertretbar ist. Sind die Ergebnisse solcher Algorithmen dann bald besser als die Entscheidungen, die Menschen treffen? Und wer hat dann die Handlungsmacht?


Teaser & Image (adapted) by geralt (CC0)

 

Weiterlesen »

Datenschutz reloaded: Teilen statt Darwinismus?

Sharing instead of Darwinism (Image: Ole Wintermann)

Die Debatte um Datenschutz lässt verschiedene gesellschaftliche Meta-Aspekte im Umgang mit Daten außer Acht. // von Ole Wintermann

Sharing instead of Darwinism (Image: Ole Wintermann)

Statt über das einfache Pro und Contra des Sammeln von Daten zu diskutieren, sollten wir vielleicht auch fragen, in welchem gesellschaftlichen Zusammenhang welche Positionen vertreten werden.

Datenschutz und die Debatte über die Verwendung von Daten wird seit Jahren unter den immerselben (und überaus wichtigen) Gesichtspunkten geführt:

  1. Datenschutz und Privatsphäre: Welcher Umfang an Datenschutz ist gewünscht und realistisch?

  2. Daten als Machtinstrument: Was wissen Unternehmen und der Staat über mich?

  3. Ungleichheit der Datenanhäufung zwischen privaten und öffentlichen Akteuren: Dürfen Unternehmen mehr über die Einwohner eines Landes wissen als deren eigene Regierung?

  4. Connected Data: Wo ergeben sich Muster in den Datenströmen, die zu Erkentnisgewinnen führen?

  5. Entscheidungsmacht von Algorithmen: Ist eine von Menschen getroffene Entscheidung richtig, auch wenn der Algorithmus das anders sieht?

  6. Kompetenz im Umgang mit Daten: Gehört das Fach Informatik in die Schule und Datenjournalismus als zukünftiges Berufsfeld?

  7. Globalisierung des Sammelns von Daten: Wie passen auf Dauer nationalstaatliche Regelungen zum globalen Netz?

  8. Open Public Data: Wie sehen konkrete Beispiele für #DataforGood aus?

Hinter all diesen ganz pragmatischen operativen Fragen stehen aber stets einige Meta-Fragen oder -Diskurse, die nicht offen angesprochen werden.

Verlust tradierter Deutungshoheiten?

Umso wichtiger jede Art von Daten für die Entscheidungen von Unternehmen, Politik und privaten Nutzer sowie den Bürger wird, desto wichtiger wird die Frage nach der „richtigen“ Interpretation dieser Daten. Die Daten entheben zunehmend die althergebrachten EntscheiderInnen ihrer selbst zugeschriebenen Kernkompetenz: dem Entscheiden. Immer weniger werden es sich Politiker und Unternehmenslenker erlauben können, für die Bürger und Kunden suboptimale Entscheidungen zu treffen, die zwar deren eigene Machtinteressen bedienen, am Ende des Tages aber an den Wünschen von Bürgern und Kunden vorbeigehen. Daten aus Skandinavien haben beispielsweise rechtzeitig auf den gesellschaftliche und volkswirtschaftlichen Schaden hingewiesen, die die Herdprämie in Schweden verursacht hat. Somit wurde die Entscheidung pro-Herdprämie hierzulande rechtzeitig als rein parteipolitisch motivierte Entscheidung erkannt und ihrer Legitimation beim Wähler entzogen.

Damit deutet sich an, dass Deutungshoheiten schwinden werden, umso transparenter Interpretationen erfolgen werden. Entscheidungen können sehr viel stärker als früher auf den öffentlichen Prüfstand gestellt und hinterfragt werden. Damit können die Entscheider immer seltener individuell motivierte Entscheidungen treffen. Sie müssen vielmehr die Reaktion des Kunden und des Bürgers vorab antizipieren, wenn sie nicht wollen, dass die Entscheidung sie selbst in ihrer Funktion sogleich in Frage stellt.

Wie könnte eine Ethik der Algorithmen aussehen?

Wie kann eine Ethik der Algorithmen aussehen? Nicht zuletzt mit der Einführung der ersten selbstfahrenden Autos muss diese Frage speziell für diesen Bereich beantwortet werden. Hinter der Erstellung dieser Algorithmen stehen normative Vorstellungen der Menschen, die sie programmieren. Eine Health-App kann zwar entscheiden, dass mehr als 4.000 Schritte am Tag gesund sind. Wie sieht es aber schon mit dem nächsten Schritt der Bewertung aus? Ab wann ist ein Cholesterin-Wert nicht mehr vertretbar? Welche Studien schlagen welche Grenzwerte vor? Durch die selbstlernenden Bewertungsmechanismen und das Erkennen von Mustern in Connected Data wird sicherlich irgendwann der Algorithmus entscheiden, welcher Wert empfehlenswert ist.

Wenn aber diese Logik auf andere Bereiche übertragen wird, stellt sich die Frage, wie wir mit dieser uns selbst optimierenden Lebensweise umgehen. Was ist, und diese Frage hatte nicht zuletzt Stephen Hawking gestellt, wenn die Algorithmen erkennen, dass unsere Lebensweise und damit auch die Menschen an sich nicht „optimal“ agieren?

Open Data vs. Cyber Warfare?

Könnte es sein, dass die gerade zu beobachtende zunehmend Offenheit der westlichen Gesellschaften in Bezug auf öffentliche Daten potenziell im Zuge von Cyber-Warfare ausgenutzt wird? Würde dem so sein und käme es zu größeren Zwischenfällen als die zuletzt beim französischen Sender TV5 beobachteten, so muss damit gerechnet werden, dass sowohl das Streben nach mehr Open Governance als auch die freie Nutzung öffentlicher Daten erneut eingeschränkt und die Skepsis der Bürger und Nutzer gegenüber dem Sammeln von Daten wieder ansteigen könnte. Dies wäre aber – eben gerade unter dem Gesichtspunkt des „Data for Good“ – leider sehr kontraproduktiv für die Gesellschaft und das Erreichen einer nachhaltigen Lebensweise.

Ob sich unter diesen Bedingungen jemals eine globale Governance und eine Regulierung des Umgangs mit jeder Form von Daten ergeben werden, darf bezweifelt werden. Daten und das Sammeln von Daten geschieht global. Die Regulierung erfolgt regional. Es bestünde damit eigentlich die Notwendigkeit des Aufstellens global gültiger Regeln im Umgang mit nutzerbezogenen Daten – angesichts von drohenden Cyber Warfare Szenarien erscheint dies schwerer denn je zu erreichen sein.

Daten für mehr Nachhaltigkeit?

Der vielleicht wichtigste übergeordnete Verwendungszweck von Daten ist die Erreichung einer gesellschaftlich wie auch individuell nachhaltigen Lebensweise. Stichwort: „Data for Good„. Momentan steht dem allerdings noch entgegen, dass personenbezogene Nutzerdaten nur durch die Unternehmen genutzt werden können, die diese sammeln und das öffentlich zugängliche anonymisierte Daten noch nicht wirklich einer flächendeckende Verwendung zugeführt werden konnten. In Zukunft deutet sich ein kulturell basierter Konflikt zwischen den verschiedenen Weltregionen um das Sammeln personenbezogener Daten an. Es kann angesichts des wachsenden Bewusstseins über die Datensammelproblematik optimistisch davon ausgegangen werden, dass sich in der Zukunft die europäische Sichtweise bei den Nutzern internetbezogener Dienste weltweit durchsetzen könnte.

IKEA-Shopping (Image: Ole Wintermann)

Angesichts von Megatrends, die die Menschheit in ihrer Existenz bedrohen, wäre es wünschenswert, wenn die Verwendung von Daten für die Bewältigung von Klimawandel, sozialen Ungleichheiten oder die Stärkung von Bürgerrechten genutzt werden würden. So zeigen uns schon heute entsprechend aufbereitete und in diesem Maße bisher nicht gekannte Visualisierungen die zunehmende soziale Segregation in europäischen Großstädten, die drastische Erwärmung der Meere in den arktischen Regionen, die weltweiten Flüchtlingsströme oder die Ungleichgewichte auf den globalen Finanzmärkten. Damit aber kann das Bewusstsein für die Globalisierung der Risiken und Herausforderungen sowie für die Verbreitung von geeigneten Lösungen vorangetrieben werden.

Wer definiert den „richtigen“ kulturellen Umgang mit Daten?

Die Interpretation von Datenschutz, Privatssphäre, Marktpotenzialen oder Relevanz ist höchst kulturell dominiert. Wir glauben hierzulande – in einer alternden, schrumpfenden und technikaversen Kultur – dass unser Maßstab im Umgang mit Daten das Maß aller Dinge sei. Dem ist natürlich nicht so. Nicht einmal innerhalb Deutschlands gibt es einheitlich Vorstellungen darüber. So diskutieren Juristen, Ökonomen, Psychologen oder Pädagogen auf vollkommen unterschiedlichen Ebenen miteinander oder auch nebeneinander dieses Thema.

Nicht umsonst hatte Gunter Dueck schon auf der #RP13 zum Meta-Diskurs aufgerufen, um das Verständnis über das gegenseitige Nicht-Verständnis zu verbessern. Auch in diesem Kontext sollte wieder gefragt werden, ob nicht der Nutzer und/oder der Bürger irgendwann einfach selbst darüber entscheiden wird, wie der Umgang mit seinen Daten aussehen sollte, in dem er ganz einfach mit seinem Verhalten darüber abstimmt.

Teilen für eine bessere Welt?

Kollaborativ erarbeitete Lösungen für gesellschaftlich relevante Probleme wie auch für betriebliche Herausforderungen bedeuten immer ein Teilen von Wissen, Daten und Erkenntnis. Unternehmen sind aber nicht auf das Prinzip des Teilens eingestellt. Es ist nicht vorgesehen, dass der Angestellte einen unmittelbaren und individuellen Nutzen vom Teilen seines Wissens mit anderen Kollegen hat. Dass aber das einseitig erwartete Geben durch den Angestellten vom Arbeitgeber implizit erwartet wird, führt zu dramatischen Effizienzverlusten für die Unternehmen.

Der allseits unter dem Buzzword „Share-Economy“ diskutierte Wandel der Produktions- und Konsumgewohnheiten reicht viel weiter als es diese rein betriebswirtschaftliche Sichtweise vermuten ließe. Die Demokratisierung der Energieversorgung, die steigende Bedeutung der Crowd bei der Sammlung von Investitionsmitteln für Startups und Unternehmen, die Regionalisierung der Lebensmittelversorgung oder die Einrichtung virtueller Tauschbörsen für Dienste und Güter sind Ausdruck des Bedürfnisses der Menschen nach einem sozial relevanten Teilen mit fremden Menschen und des Wunsches nach einer Zurückeroberung souveränen Handeln im eigenen Umfeld. Vermarktungsinteressen der Unternehmen, ständige Hacker-Angriffe auf heimische PCs und die Überwachungsaktivitäten der Regierung gegenüber der eigenen Bevölkerung oder anachronistische Vorschriften beim Agieren im Internet (Stichwort Störerhaftung) stehen diesem Wunsch der Menschen entgegen.

Wie geht es weiter?

Die Erfahrungen im persönlichen Umfeld zeigen eines: die Rücksichtslosigkeit staatlicher Akteure und wirtschaftlicher Entscheider im Umgang mit personenbezogenen Daten führt schon jetzt zu einem restriktiveren Umgang der Bürger und Nutzer – unabhängig von Internetaffinität und Bildungsstand – mit ihrer eigenen Kommunikation und den von ihnen verwendeten Inhalten. Verschlüsselungen und der Hinweis auf Telefonate statt des Mail-Austauschs sind Tendenzen im täglichen Miteinander, die ich eigentlich noch von Kontakten in die damalige DDR kenne. Damit aber werden demokratische Regierungen und übergriffige Internet-Firmen genau für ihr Verhalten langfristig bestraft, da sie schwieriger als zuvor an den von ihnen gesuchten Rohstoff – Daten – kommen. Vielleicht führt dies ja zu einem Umdenken. Mit Blick auf die oben beschriebenen Chancen, die der Einsatz von Daten für mehr Nachhaltigkeit eigentlich böte, wäre dies sehr zu begrüßen.

Der Beitrag basiert auf einem Treffen von Experten im Zuge des Foresight-Prozesses „Future Agenda“ zu dem übergeordneten Thema „Zukunft der Arbeit/Datennutzung“ im April diesen Jahres.

Weiterlesen »

5 Lesetipps für den 25. März

In unseren Lesetipps geht es heute um das Verhältnis der SPD zur Digitalisierung, einen Zweitmarkt für E-Books, Native Journalism, Algorithmen als Kunst und einen Überlebensratgeber für Künstler. Ergänzungen erwünscht.

  • DIGITALISIERUNG der Freitag: Innere Sicherheit. Gerechtigkeit. Solidarität: Die SPD kommt beim Thema Digitalisierung nur schwer in die Gänge. Dabei müsste sie sich doch nur auf die eigenen Wurzeln besinnen. Eines der frühesten Ziele der Partei war es doch, den Menschen die Fähigkeiten zu geben, ein selbstbestimmtes Leben zu führen. Und keine andere technologische Innovation hat ein solch enormes „Empowerment“-Potenzial wie das Internet. Yannick Haan sieht die Zeit gekommen, dass sich die SPD das Internet zunutze macht, um ihre alten Versprechen einzuhalten.

  • E-BOOKS heise online: Autoren und Verleger gegen Zweitmarkt für E-Books: Während eines Fachgesprächs der Grünen im Bundestag sprachen sich Autoren und Branchenvertreter gegen einen Zweitmarkt für E-Books und eine Ausweitung der Online-Ausleihe bei öffentlichen Bibliotheken aus. Die Schriftstellerin Nina George begründet ihre Ablehnung unter anderem damit, dass Kunden keine neuen Exemplare mehr kaufen würden, sondern auf E-Books aufweichen würden, die zum Weiterverkauf angeboten werden, da E-Books im Vergleich zu analogen Büchern keine Abnutzungserscheinungen aufweisen. Verbraucherschützer kritisieren dagegen die starre Haltung der Branchenvertreter.

  • FACEBOOK The Awl: Time Borrowed: „Native journalism“ soll das nächste große Ding werden: keine Links mehr, die von den sozialen Netzwerken auf externe Inhalte verweisen; Artikel, die natürlich in den Newsfeed von Social Media eingebunden werden; Leser müssen nicht erst durch reißerische Überschriften dazu gebracht werden, auf einen Link zu klicken. Facebook will zu einer Publisher- und Contentplattform werden und sucht dafür seit einiger Zeit Medienpartner. Diesen winken zahlreiche Vorteile, wenn sie sich vor der Konkurrenz dazu entscheiden mit dem sozialen Netzwerk zusammenzuarbeiten.

  • ALGORITHMUS Artsy: Are Algorithms Conceptual Art’s Next Frontier?: Algorithmen sammeln Daten und sortieren diese nach relevanten Kriterien – und spielen in immer mehr Lebensbereichen eine Rolle: sie wählen Lieder oder Filme aus, die uns gefallen sollen; sie zeigen uns an, welche Nachrichten für uns relevant sein sollen; sie machen uns auf Produkte aufmerksam, die wir brauchen sollen. Nicholas O’Brien stellt sich deswegen die Frage, was ist, wenn das noch nicht das Ende ist. Was ist, wenn Algorithmen bestimmen, was Kunst ist? Was ist, wenn Algorithmen selbst zu Kunst werden?

  • SPOTIFY MIT Technology Review: Survival in the Age of Spotify: Wie kann man als Künstler ein lebenswertes Leben führen, nachdem der freie und digitale Zugang zu Musik die ganze Branche erschüttert hat? Diese Frage will Cory Doctorow in seinem Buch „Information Doesn’t Want to Be Free“ beantworten und sammelt dafür einige Vorschläge für die Betroffenen. Das Musiker-Duo The Both, bestehend aus Aimee Mann und Ted Leo, hat das Buch gelesen. Sie haben zwar einiges zu bemängeln, nehmen beim Lesen jedoch auch positive Dinge mit.

Die morgendlichen Lesetipps und weitere Linktipps am Tag können auch bequem via WhatsApp abonniert werden. Jeden Tag informiert dann Netzpiloten-Projektleiter Tobias Schwarz persönlich über die lesenswertesten Artikel des Tages. Um diesen Service zu abonnieren, schicke eine WhatsApp-Nachricht mit dem Inhalt arrival an die Nummer +4917622931261 (die Nummer bitte nicht verändern). Um die Nachrichten abzubestellen, einfach departure an die gleiche Nummer senden. Wir werden, neben dem Link zu unseren morgendlichen Lesetipps, nicht mehr als fünf weitere Lesetipps am Tag versenden.

Nutze Netzpiloten 1-Klick: Mit nur einem Klick werden dir bequem alle 40 Sekunden die hier besprochenen Seiten „vorgeblättert“ START.

Weiterlesen »

Algorithmus-Update: Facebook will mehr Twitter

Twitter Facebook miteinander (Bild: LoboStudioHamburg [CC0 1.0], via Pixabay)

Facebook schraubt erneut am Algorithmus – und macht ihn zeitabhängiger. // von Tobias Gillen

Twitter Facebook miteinander (Bild: LoboStudioHamburg [CC0 1.0], via Pixabay)

Wenn man an Social Media denkt, denkt man automatisch an Facebook und Twitter. Die einst so unterschiedlichen Kontrahenten nähern sich aktuell zunehmend an und versuchen einem vermeintlichen Social-Media-Ideal hinterherzueifern. Nun ist wieder Facebook am Zug und nähert sich mit einer klugen Algorithmus-Umstellung Twitter.

Weiterlesen »

Weiterlesen »