All posts under Machine Learning

Netzpiloten @Rise of AI

Egal ob Autonomes Fahren, Smart Home oder Journalismus – Künstliche Intelligenz wird immer mehr zu einer der beherrschenden Kräfte unseres Lebens. Seit fünf Jahren findet zu diesem Thema nun schon die Rise of AI-Konferenz statt. Am 15. und 16. Mai werden in Berlin wieder rund 800 Teilnehmer, 100 KI-Unternehmen, sowie 60 Speaker erwartet. Die Netzpiloten sind wieder als Medienpartner mit dabei, wenn sich zwei Tage lang alles um die Maschinenintelligenz dreht.

Welche Speaker werden da sein?

Die Eröffnungskeynote zum aktuellen Stand der künstlicher Intelligenz hält Fabian Westerheide von Asgard. Zu den mehr als 60 Speakern zählt auch Telekom CCO Manuela Mackert, die über den ethischen Rahmen für KI referiert. Einblicke aus dem Bundestag zur deutschen KI-Strategie gibt es von Andreas Steier (CDU). Prof. Dr. Moritz Helmstaedter stellt künstliche und natürliche Intelligenz gegenüber. Kann das Gehirn uns besseres Machine Learning beibringen? Und schließlich erklärt uns  Aleksandar Stojanovic wie er mit Deep Data die Welt sicherer machen will.

Welche Themen erwarten euch?

Auf vier Bühnen erwartet euch ein starkes Programm mit diesen Schwerpunkten:

  • Was ist KI und wie bringen wir ihr Moral und Ethik bei?
  • Sollten Regierungen Maschinenintelligenz regulieren?
  • Welchen Einfluss übt sie auf die Gesellschaft und unser Leben aus?
  • Wie schaut das Zusammenleben von Mensch und Maschine auf lange Sicht aus?
  • Finanzen, Versicherung und Banking
  • Fahrzeuge, Logistik und Fabrikation
  • Marketing, Verkauf und Telekommunikation

Und sonst noch?

Die AI World Exhibition, der Ausstellungs-Teil der Rise of AI, lädt zum Netzwerken ein. Mit der Networking App könnt ihr euch an einem der speziellen Meeting-Points treffen. Mehr als 20 Unternehmen warten auf euren Besuch an ihren Ständen. Wer die Rise of AI besuchen möchte, sollte sich schnell ein Ticket sichern. In den vergangenen Jahren waren die Tickets schnell ausverkauft. Ein begrenztes Kontingent vergünstigter Tickets gibt es für Studenten und Wissenschaftler. Wir wünschen euch viel Spaß!

Weiterlesen »

Netzpiloten @hallo.digital

Die Wirtschaft 4.0 fordert großes Umdenken von allen Unternehmern und Mitarbeitern. Digitale Transformation heißt die Herausforderung, mit der sich Unternehmen heutzutage beschäftigen müssen. Die hallo.digital macht Karlsruhe am 9. und 10. April zwei Tage lang zum Zentrum dieser Umwälzung. Wir freuen uns, erstmals als Partner mit dabei zu sein und sind gespannt, was die netzstrategen GmbH dieses Jahr auf die Beine gestellt hat.

Am ersten Tag erwarten euch auf drei Bühnen Vorträge zahlreicher Online-Experten zum Thema Digitale Transformation. Am zweiten Tag werden die Impulsvorträge schließlich fundiert um praxisnahe Workshops ergänzt. Außerdem bietet die hallo.digital den idealen Rahmen um bei einem guten Drink zu netzwerken. 

Welche Speaker werden da sein?

Zu den Referenten der hallo.digital gehören unter anderem unser Hamburger Freund Nico Lumma vom next media accelerator, sowie Luisa Dziki von der Seokratie GmbH. Mit Michael Döhler und Stephan Sperling sind außerdem auch Experten aus dem eCommerce auf der hallo.digital vertreten. Wir freuen uns auf Manuel Dietrich als Experte im Bereich KI und Machine Learning sowie auf die Woman.Digital-Gründerin Halide Ebcinoglu und Dr. Jürgen Rink, den Chefredakteur vom c’t Magazin.

Welche Themen erwarten euch?

  • SEO: Damit Produkte und Websites gefunden werden, müssen sie für die Suchmaschinen optimiert aufgebaut werden.
  • Social Media & Content-Marketing: Soziale Medien sind wichtiger Bestandteil der Marketings. Umso wichtiger ist der Kampf um mehr Reichweite.
  • KI / Machine Learning: Künstliche Intelligenz ist eine der wichtigsten Zukunftstechnologien, die unsere Arbeitsprozesse weitreichend verändern wird. 
  • eCommerce: Der stationäre Handel nimmt immer mehr ab. Es ist wichtiger denn je, sich online möglichst stark zu positionieren
  • Design / UX: Design und Bedienbarkeit kann den Unterschied machen, ob ein Kunde auf der Seite bleibt oder gleich wieder geht.
  • Data & Tracking: Nicht nur für KI, sondern auch für das Unternehmen selbst ist es wichtig, das Nutzerverhalten zu kennen.

Und sonst noch?

Tickets zur hallo.digital erhaltet ihr direkt über die Webseite der Veranstaltung. Solange der Vorrat reicht, gibt es noch das stark reduzierte Blind Bird Kombi-Ticket für 219 Euro, das unter anderem auch die After-Show-Party und einen 10 Prozent-Gutschein für den Workshop Day beinhaltet. Workshops sind entsprechend noch nicht in den Tickets enthalten. Für Studierende, Rentner und Menschen mit Behinderung, bietet die hallo.digital zudem ein preislich nochmal reduziertes Kombi-Ticket für 149 Euro an.

Wir freuen uns auf die hallo.digital und wünschen allen Teilnehmenden zwei bereichernde Tage. Vergesst nicht den Hashtag #HalloDigital, um die digitale Transformation auch ins Social Media zu tragen.

 

Weiterlesen »

Technik-Trends für das Jahr 2019

Es ist schon wieder soweit: Das Jahr 2018 neigt sich dem Ende zu und 2019 erscheint langsam am Horizont. In diesem Jahr gab es viele technische Neuerungen. Gerade die Weiterentwicklung von Künstlicher Intelligenz und die Verbesserung vieler Wearables-Produkte bestimmten die News aus der Technik-Branche. Doch was hält das neue Jahr bereit? Was sind die technischen Themen, die uns 2019 begleiten werden? Wir wagen einen Blick in die Zukunft.

„Alte“ Trends bleiben bestehen

Auch im neuen Jahr werden wir auf altbekannte Trends stoßen, die bereits 2018 für Aufsehen sorgten.

So wird zum Beispiel die Künstliche Intelligenz ein Forschungs- und Entwicklungsfeld mit hoher Relevanz bleiben. Ganz egal ob intelligente Service-Systeme oder Home-Assistants wie Google Home und Amazons Alexa. Auch in 2019 werden wir in diesem Feld einige Verbesserungen und Neuerungen sehen, die die Künstliche Intelligenz dem menschlichen Verstand noch näherbringen wird. Außerdem wird in diesem Zusammenhang das Machine Learning im Mittelpunkt stehen. So nennt sich das selbstständige Erlernen von neuen Fähigkeiten, ohne dass es von Menschenhand programmiert wurde. In 2019 werden Künstliche Intelligenzen fähig sein, Bilder und andere äußere Einflüsse besser zu analysieren und zu verarbeiten, um somit den eigenen „Horizont“ selbstständig zu erweitern.

Auch der Bereich Blockchain wird uns 2019 in der Technik weiter beschäftigen. Dass Blockchain noch viel mehr kann, als nur für die Verwaltung von Kryptowährungen herzuhalten, haben wir bereits in diesem Jahr gelernt. Wie diese Systeme verbessert und vor allem sicherer gemacht werden können, werden wir dann im neuen Jahr sehen. Das Forbes Magazine spricht in seinen Voraussagungen für das neue Jahr zum Beispiel von innovativen B2B2C-Beziehungen, also wirtschaftlichen Beziehungen zwischen mehreren Firmen und Endkunden, die durch das Einsetzen von Blockchain vereinfacht werden könnten. Des Weiteren wird die Verbesserung der derzeitigen Sicherheits-Mechanismen ein großes Thema im Blockchain sein.

The Internet of Things bleibt im Trend

Wer sich schon jetzt beschwert, dass das WLAN vom Toaster mal wieder nicht funktioniert, oder einen Kleinkrieg mit seinem Router-gebundenen Rauchmelder führt, den wird im Jahr 2019 mit dem Internet of Things noch mehr Spaß erwarten. Denn das Vernetzen und Verbinden von verschiedensten Haushalts- und Arbeitsgeräten wird im ausgehenden Jahrzehnt weiterhin eine große Rolle spielen. Auch hier ist zum Beispiel die Verwendung von sprachgesteuerten Assistenten ein großes Zukunftsfeld. Letztendlich geht der Trend des Internet of Things auch in 2019 zu einer angenehmeren User-Erfahrung. Hierbei bleibt das Ziel natürlich immer, Technik so nahtlos wie möglich in unseren Alltag zu integrieren und damit unser Leben zu erleichtern.

Neue spannende Technik-Bereicherungen in Sicht

Doch nun ist es an der Zeit sich den spannenden Trends zu widmen, die in 2018 zwar schon absehbar, aber noch nicht im Mainstream angekommen waren. Wie zum Beispiel der E-Sport. Wir haben schon öfters darüber berichtet, wie die Community rund um den elektronischen Sport wächst. Aber in 2019 werden noch einmal ganz neue Dimensionen in Punkto Wachstum angesteuert. Es wird davon ausgegangen, dass die E-Sport Szene im nächsten Jahr 1.1 Milliarde US-Dollar wert sein wird. Mit namenhaften Sponsoren wie Coca Cola, die schon jetzt diese besondere Industrie unterstützen. Außerdem wird beobachtet, wie immer mehr Sport-Clubs auf der Welt sich E-Sport Teams aufbauen, um an diesen noch relativ jungen Events teilzunehmen.

Währenddessen werden wir auch im Bereich Retail-Technologie große Fortschritte sehen. Denn wo Supermarktketten wie Famila mit Selbstbedienungskassen ansetzen, ist noch viel Luft nach oben. Kontaktloses Bezahlen, Essen vom Supermarkt nach Hause liefern lassen, oder benutzerdefinierte Angebote bekommen. Für den Bereich Einzelhandel haben derzeitig entwickelte Technologien bereits viel zu bieten. Infolgedessen wird uns in 2019 eine noch angenehmere Einkaufs-Erfahrung erwarten. Immer abgestimmt auf unsere Vorlieben und Bedürfnisse.

Zuletzt möchten wir auf einen Technik-Trend aufmerksam machen, der sich bisher noch im Hintergrund gehalten hat. Das sogenannte Quantum Computing. Der Begriff steht für den Versuch einen Computer zu bauen, der auf den Gesetzen der Quantenphysik beruht. Einfach gesagt ist damit das Verarbeiten und Kategorisieren, sowie Archivieren von großen Datensätzen deutlich leichter, als mit herkömmlichen PCs und Servern. Derzeit befinden sich diese auch als „Supercomputer“ bezeichnete Geräte noch in der Entwicklung. Aber das Rennen um das Erfinden des ersten effizienten Quantencomputers wird 2019 in seine heiße Phase gehen.

Hier einmal ein Video, welches die Quantencomputer-Experimente des Hardware-Herstellers IBM zeigt:

Die Zukunft wird noch interaktiver

Was ist also festzuhalten? Viele Technologien, die sich über die Jahre entwickelt haben, werden in 2019 einen Feinschliff erfahren. Der allgemeine Trend der Technik richtet sich immer stärker danach, die individuellen Bedürfnisse der Nutzer besser zu verstehen. Somit soll auch die Technik „sensibilisiert“ werden- frei nach dem Motto: Die Maschine dient dem Menschen, und nicht anders herum. Wir sind gespannt, was das nächste Jahr an Entwicklungen bereithält und werden für euch auch in 2019 Trends, Tipps und Geschichten aus der digitalen Welt aufbereiten.


Image by Cybrain/adobe.stock

Weiterlesen »

Instagram will Mobbing mit Machine Learning entgegenwirken

Instagram

Instagram führt pünktlich zum Mental Health Day neue Funktionen gegen Mobbing ein. Auf Instagram findet man neben den zahlreichen schönen Fotos und vielen Komplimenten leider immer häufiger auch beleidigende Kommentare und Beiträge. Mobbing ist in den sozialen Netzwerken keine Seltenheit mehr und auch sehr komplex.

Nicht in jedem Fall kann Mobbing über Bild- und Stichworterkennung erkannt und gelöscht werden. Rund 96 Prozent der Jugendlichen  und Erwachsenen im Alter von 14-24 Jahren hatten bereits Erfahrungen mit Hasskommentaren im Internet. Ein sehr erschreckendes Ergebnis und deswegen möchte Instagram etwas dagegen unternehmen und für mehr Freundlichkeit auf der Plattform sorgen. Machine Learning soll Mobbing nun endgültig einen Strich durch die Rechnung machen.

Das Team trifft die Entscheidungen

Instagram Chef Adam Mosseri erläutert, dass künftig ein Verfahren basierend auf Machine Learning dabei helfen soll, die Hasspostings zu ermitteln. Die KI soll in Fotos und den Bildunterschriften Mobbing erkennen. Die betroffenen Beiträge werden automatisch an das Community-Operations-Team weitergeleitet. Das Team trifft dann die endgültige Entscheidung über eine Lösung. Wenn der Beitrag gegen die Richtlinien verstößt, wird dieser direkt gelöscht. Ist das der Fall erhält der Nutzer eine Nachricht mit entsprechender Begründung.

Machine Learning als logischer Schritt

Viele der Mobbing-Opfer würden ihre Beiträge selbst nicht melden. Auch Außenstehende beobachten zwar die Hasskommentare und sehen die Beiträge, aber melden diese nicht. Aus diesen Gründen ist die Ermittlung mit Machine Learning ein logischer Schritt, sagt Adam Mosseri. Bereits vergangenes Jahr hat Instagram einen Filter integriert, mit dem beleidigende Kommentare erkannt und gelöscht werden. Jetzt erweitert sich die Funktion und der Mechanismus weitet sich auf Bilder und Live-Videos aus. Unter den Kommentareinstellungen könnt ihr den Filter aktivieren.

Instagram Machine Learning
Kommentareinstellungen, Screenshot by Lina Schilling

Neuer Facefilter gegen Mobbing

Um noch mehr Positivität und Freundlichkeit auf der Plattform zu verteilen, hat Instagram einen passenden Facefilter veröffentlicht. Zusammen mit Maddie Ziegler hat Instagram den Filter entwickelt. Das Model setzt sich für mehr Freundlichkeit im Umgang miteinander ein und spricht sich gegen Mobbing aus. Um den Filter nutzen zu können, müsst ihr Maddie auf Instagram folgen (@maddieziegler). Nun werdet ihr sehen, dass Herzen den Bildschirm füllen. Zusätzlich könnt ihr eure Freunde taggen. Sobald sie dann die Kamera öffnen, erscheinen Komplimente in verschiedenen Sprachen auf seinem Display. Fraglich bleibt, ob diese Methode wirklich eine Lösung ist, um Mobbing auf der Plattform entgegenzuwirken.


Image by Joshua Rawson Harris via unsplash.com

 

Weiterlesen »

Netzpiloten @Servus KI!

Warum der Zukunft nicht einfach mal ein zünftiges „Servus!“ entgegenrufen! Wir sind dabei wenn am 28. September im schönen Nürnberg das Servus KI! Festival steigt. Alles dreht sich um das Trendthema „Künstliche Intelligenz“ – stark bezogen auf die Region. Veranstaltet von Deutschlands erste Akademie für digitale Transformation sind wir schon mal sehr gespannt, welche Impulse von diesem Herbsttag ausgehen werden. 

Was gibt es auf der Servus KI! zu entdecken?

Die Teilnehmer erwartet neben aufschlussreichen Vorträgen von Wissenschaftlern, Strategen oder Gründern auch viel Interaktives mit Paneldiskussionen, Workshops und sogar einer Erlebnisfläche mit sechs Ausstellern. Alles steht unter dem Motto „Verbinden, erleben, inspirieren“. Freut euch zum Beispiel auf den Vortrag der Gründerin von datanizing, Stephanie Fischer, den Innovationsmanager Daniel Betsche (Fiducia & GAD IT AG) und auch auf Prof. Dr. Ulf Pillkahn von der FOM University for Economy and Business.

Welche Themen erwarten euch?

  • Machine Learnig
  • Industrie 4.0
  • AI in the wild
  • KI trifft auf Altbewährtes, wie könnte die Zukunft aussehen?
  • Gesundheitsanalyse per KI
  • Risiken und Chancen von KI
  • selbstfahrende Autos
  • digitale Sprachassistenten 
  • künstliche und organische Intelligenz

Das wars noch nicht!

Wir wären ja nicht im freundlichen Frankenland, wenn es sich hier nicht bei angenehmster Atmosphäre (und Bier und Brotzeiten) bestens vernetzen ließe. Sichert euch jetzt die Tickets. Wir sehen uns in Nürnberg!

Weiterlesen »

Netzpiloten @DIGILITY 2018

Partnergrafik_2018_D

Es wird wieder visionär, enthusiastisch und bahnbrechend bei der dritten DIGILITY 2018 Konferenz am 26. und 27. September in Köln! – Mit Hackathon, Ausstellern und spannenden Speakern. Wir Netzpiloten sind zum ersten Mal dabei, wenn es wieder heißt, mit hochkarätigen Digital Professionals aus aller Welt in der Koelnmesse zusammenzutreffen. Wir wünschen den Veranstaltern für die 3. Runde, dass sie an den Erfolg der letzten Jahre anknüpfen (1.400 Besucher, 65 Aussteller und 75 Experten)!

Welche Speaker werden auf der DIGILITY 2018 sein?

Zu den Vortragenden der Digility 2018 gehört unter anderem Christian Frahm, Digital Artist und Experte für Holistic User Experience Visualisation bei der Volkswagen AG und der Direktor des Center for Bioethics (NYU) Dr. S. Mathew Liao. Außerdem wird Eric Ma über Machine Learning referieren. Wir freuen uns auch auf den Auftritt der Künstlerin Lizzy Berlin!

Welche Themen erwarten euch?

  • Augmented Reality
  • Virtual Reality
  • Mixed Reality
  • 3D
  • CGI (Computer Genereated Imagery)
  • Machine Learning
  • Artificial Intelligence

Und sonst noch?

Die Digility bietet neben der Konferenz und vielen Workshops auch Raum für zahlreiche Aussteller, so dass sicherlich viele spannende Neuheiten der Industriepartner ausprobiert werden können. Das Selbstverständnis der Veranstalter ist es, eine Brückenfunktion zwischen etablierten und jungen Unternehmen zu ermöglichen. Für das innovative Element steht auch der Hackathon für Entwickler als Teil der Veranstaltung. Wir finden, es wird vieles geboten und sind gespannt auf die Impulse!

Unser Extratipp: Mit dem DIGILITY Ticket habt ihr übrigens auch freien Eintritt zur parallel stattfindenden Weltleitmesse für Imaging, der berühmten photokina!

Tickets für die Veranstaltung findet ihr hier.

Weiterlesen »

Wie war’s auf der IT Konferenz der Akademie der Deutschen Medien?

Künstliche Intelligenz, Machine Learning, Change und Agilität –  all diese Themen sind unter anderem ausschlaggebend für eine moderne IT-Landschaft. Wie können speziell Verlage den steigenden Anforderungen des Marktes und der Kunden gerecht werden?  Die IT Konferenz – veranstaltet von der Akademie der Deutschen Medien – hatte sich diese Fragen für eine spannende Veranstaltung vorgenommen. Die Teilnehmer wurden mit fachkundigen Vorträgen von namhaften Experten (u.a. Prof. Alois C. Knoll von der TU München und Georg Noll von Heise Medien) inspiriert und in anregende Diskussionen verwickelt.

Astrid Neumann war für die Netzpiloten bei der IT Konferenz vorort und hat sich für einen Destination Check bei den Veranstaltern, Speakern und Teilnehmern umgehört, wie sie jeweils die Konferenz erlebt haben.


Veranstalter: Tina Findeiß, Leiterin Programm und Inhouse, Akademie der Deutschen Medien


Image by Tina Findeiß

Tina ist in der Akademie der Deutschen Medien zuständig für das offene und das firmeninterne Seminarprogramm und koordiniert hier mit ihrem Team rund 450 Veranstaltungen und 500 Speaker zu allen Themen rund um Medien, Marketing und Digitalisierung.

Was ist dein Gesamteindruck?

Eine Konferenz während eines WM-Spiels von Deutschland zu veranstalten ist natürlich ein gewisses Wagnis. Aber offensichtlich hat die Qualität des Programms überzeugt, denn: Wir sind mit der Teilnehmerzahl in diesem Jahr sehr zufrieden (und hatten am Ende nur wenige Fußballfans unter den Teilnehmern an das Spiel verloren).

Haben die Redner und Teilnehmer deine Erwartungen erfüllt?

Ja, auf jeden Fall. Die Referentenriege ist – und ich bin sicher, dass mein Blick als Veranstalter hier nicht getrübt ist – wirklich hervorragend, eine gute Kombination aus wissenschaftlicher Fundierung (u. a. durch den Vortrag von Alois C. Knoll von der TU München zum Thema Künstliche Intelligenz) und praxisorientierten Fallbeispielen aus Unternehmen, wie etwa der Vortrag von Georg Nold und Christine Kreye von Heise Medien, der ein IT-Implementierungsprojekt von allen Seiten beleuchtet hat.

Was ist dein persönliches Highlight?

Es ist grundsätzlich schwer, einen visionären und zukunftsgewandten Vortrag wie den von Sascha Wolter  (siehe nächstes Statement) mit einem sehr konkreten Anwendungs-Case aus der Verlagsbranche miteinander zu vergleichen. Ich finde, zu einer gut gemachten Konferenz gehört beides. Daher gab es für mich mehrere spannende Präsentationen. Mich begeistert im Moment persönlich das Thema Künstliche Intelligenz. Deshalb hat mir die Keynote von Prof. Alois C. Knoll von der TU München gefallen, der aus Forschungsperspektive und trotzdem sehr pragmatisch die aktuellen Entwicklungen und Chancen rund um KI aufgezeigt hat.

Wie würdest du die Teilnehmer einordnen?

Unsere IT-Konferenz hat ja einen besonderen Zuschnitt und richtet sich schwerpunktmäßig an Mitarbeiter aus Verlags- und Medienhäusern. Das spiegelt sich natürlich auch in der Teilnehmerschaft wider – eine bunte Mischung aus Verlagsgeschäftsführern, IT-Verantwortlichen, E-Business- und Digitalentscheidern, die allesamt in ihrem Alltag mit IT-Themen zu tun haben. Die Diskussion zwischen Teilnehmern und Referenten war eigentlich während der gesamten Konferenz – nach den Vorträgen und in den Pausen – sehr rege und ich denke, die Teilnehmer konnten alle gute Impulse mit nach Hause nehmen.

Wem würdest du die IT Konferenz empfehlen?

Anders als andere Anbieter hat unsere IT-Konferenz einen klaren Medienfokus. Daher ist die Konferenz für alle interessant, die in der Medien- oder Verlagsbranche arbeiten und mit IT- und Technologie-Themen zu tun haben. Und das sind, in Zeiten der Digitalisierung, eigentlich alle Entscheider und Teamleiter aus den Bereichen IT, E-Business, Digital Media und natürlich der Geschäftsführung.


Speaker: Sascha Wolter, Senior UX Consultant and Principle Technology Evangelist bei Cognigy


Image by Sascha Wolter

Sascha ist Experte für Planung und Umsetzung von geräteübergreifenden Anwendungen. Als solcher begeistert er sich für das Benutzererlebnis und erkundet verbesserte multimodale Interaktionsformen zwischen Mensch und Maschine – u. a. in Form von Konversation über Text (Chatbots) und Sprache auch als Alexa bekannt.

Was ist dein Gesamteindruck von der Konferenz heute?

Auf der IT Konferenz wurde nicht nur der aktuelle Forschungsstand erläutert, sondern auch die praktische Anwendung gezeigt. Man sieht hier genau die spannenden Möglichkeiten was Künstliche Intelligenz bieten kann, speziell im Zusammenhang mit Medien und Fachverlagen. Dieses Thema ist eine große Chance aber auch eine Herausforderung.

Was ist deine persönliche Motivation hier zu sprechen?

Die Schnittstelle zwischen Mensch und Maschine begeistert mich. Denn ich möchte den Menschen die neuen Möglichkeiten näherbringen. Gleichzeitig versuche ich aber auch diese Technologien zu entmystifizieren. Es ist mir wichtig, aufzuzeigen wie alles funktioniert und auch welches Potenzial dahintersteckt! Ich stelle mir immer die Frage, was macht das, was man tut, irgendwie besser und warum sollte es irgendjemand in der Welt haben bzw. nutzen wollen. Ich sehe mich als jemand, der als Sprachrohr zwischen Unternehmen, Entwicklern und Anwendern fungiert und die Interessen, vor allem die der Anwender, wiederum zurück in das eigene Unternehmen trägt, um das Produkt besser zu machen.

Haben die Speaker und Teilnehmer deine Erwartungen erfüllt?

Ich bin begeistert von der überaus hohen Qualität der Vorträge – die trotzdem auch für Teilnehmer ohne tiefe IT Kenntnisse klar verständlich waren. An den Fragen der Teilnehmer konnte ich erkennen, dass alle sehr interessiert an den vorgetragenen Themen waren.

Würdest du wiederkommen und wem würdest du die Konferenz empfehlen?

Ja, ich kann die Konferenz sehr empfehlen und würde auch selber gerne wieder hier sprechen. Die Vorträge haben eine sehr hohe Qualität und die Zielgruppe ist nicht nur interessant, sondern auch interessiert. Die Medienwirtschaft ist extrem wichtig als Multiplikator, also als Menschen, die sich mit Inhalten aktiv auseinandersetzen.


Besucherin: Sarah Dambacher, Account – & Partnermanagement bei UNISERV


Image by Sarah Dambacher

Was ist dein Gesamteindruck?

Ich habe einen sehr guten Eindruck, speziell die Unternehmensvorträge haben mir gut gefallen. Mir hilft das, besser zu verstehen, was unsere Kunden antreibt und wo ihre Problempunkte liegen.

Haben Redner und Teilnehmer deine Erwartung erfüllt?

Ja, bis jetzt wurden alle meine Erwartungen erfüllt. Die Agenda war sehr spannend und die Teilnehmer machen auch einen interessanten Eindruck.

Was war dein persönliches Highlight?

Mich persönlich hat der Vortrag von Heise Medien sehr angesprochen. Zu sehen, wie die internen Prozesse ablaufen und was notwendig war, um bis zu diesem Punkt zu gelangen, fand ich extrem aufschlussreich. Diese praxisnahe Darstellung war sehr hilfreich.

Hast du heute was Neues gelernt?

Etwas ganz Neues habe ich heute nicht gelernt, viele der angesprochenen Themen beschäftigen UNISERV schon seit Jahren. Aber es ist interessant zu sehen, wie potenzielle Kunden auf diese Themen blicken.

Würdest du wiederkommen und wem würdest du die IT Konferenz empfehlen?

Ja, ich würde auf jeden Fall wiederkommen. Empfehlen würde ich die Veranstaltung im Speziellen Leuten, die in der Verlags- und Medienbranche arbeiten. Ich finde die Konferenz sehr informativ und komme selbst auch nicht aus dem Verlagswesen, sondern arbeite für ein Unternehmen, das sich mit Datensicherung beschäftigt.


Besucherin: Mandy Best, IT Leitung IMS, Internationaler Medien Service


Image by Mandy Best

Was ist dein Gesamteindruck?

Ich fand die Konferenz extrem spannend, weil hier einerseits in die Zukunft geblickt wurde, andererseits aber auch der aktuelle Entwicklungsstand hinterfragt wurde. Wir als Händler für Bücher, Zeitschriften und Fachliteratur beschäftigen uns aktuell sehr stark mit dem Thema digitale Transformation. Viele Unternehmen stellen ihre kompletten Einkaufsprozesse digital um und somit passen auch wir uns deren veränderten Prozessen und Bedürfnissen an.

Haben Redner und Teilnehmer deine Erwartung erfüllt?

Die Redner haben meine Erwartungen mehr als erfüllt. Ich finde es sehr spannend zu sehen, wo die Reise hingeht und was alles möglich ist. Dies haben die Redner wunderbar veranschaulicht. Besonders toll fand ich den Kontrast zwischen den Praxisberichten und der Theorie. Es konnte klar identifiziert werden, dass die meisten Probleme in den Prozessen und den Stammdaten liegen und nicht in der IT.

Was war dein persönliches Highlight?

Mein persönliches Highlight war Prof. Knoll vom Lehrstuhl für Robotik an der TU in München. Er ist offen in den Vortrag gegangen und hat jeden Teilnehmer dort abgeholt, wo er stand. Er hat das „wo stehen wir aktuell“ und „wie sind wir dahin gekommen“ wunderbar verständlich abgebildet. Spannend war auch zu hören, dass schon 1959 damit begonnen wurde mit Künstlicher Intelligenz zu arbeiten.

Hast du heute was Neues gelernt?

Ja, ich habe einiges Neues gelernt. Ich lese viele Bücher zum Thema KI. Da wird die Thematik oft tendenziell negativ beleuchtet. Nach dem Motto, Computer werden den Menschen komplett ersetzen. Auf der heutigen Konferenz fand ich die Darstellung hingegen sehr positiv. Ich habe verstanden, dass wir KI-mäßig lange noch nicht so weit sind, wie uns die Werbung oder das Fernsehen weismachen will.

Würdest du wiederkommen und wem würdest du die IT Konferenz empfehlen?

Ich würde auf alle Fälle wiederkommen, und ich finde, dass alle ITler und Nicht-ITler aus Verlagen und Medien hier mindestens einmal gewesen sein sollten, um zu sehen und zu verstehen, was möglich ist und was nicht.


Teaserimage by Akademie der Deutschen Medien

Weiterlesen »

Die Stereotype der KI: „Gaydar“ und die liberale Gesellschaft

Self-Portrait-photo-adapted-Image-by-Ian-Dooley-CC0-Public-Domain-via-Unsplash

Gemäß dem alten Sprichwort „Wissen ist Macht“ streben Unternehmen immer stärker danach, intime Detailinformationen ihrer Kunden zu sammeln, um einen Wettbewerbsvorteil gegenüber ihren Mitstreitern zu erhalten. Der Anstieg von künstlicher Intelligenz oder auch der KI – also Algorithmen, die von Maschinen dazu verwendet werden, riesige Datenmengen auszuwerten – stellt eine besonders verlockende Möglichkeit dazu dar. Genauer gesagt ist der enorme Fortschritt im Bereich der künstlichen Intelligenz, besonders in der Musterunterscheidung und Kategorisierung, ein führendes Forschungsobjekt, um die Fähigkeiten für zunehmend schwierigere Datengewinnungsaufgaben zu untersuchen.

Diese Technologie ist nicht mehr beschränkt auf die einfache Kategorisierung von direkt nachvollziehbaren Online-Verhaltensweisen wie beispielsweise das Liken von bestimmten Marken oder Bildobjekten. Künstliche Intelligenz wird auch dazu benutzt, intimere Charakteristika wie Persönlichkeit, Geschlecht und Alter durch Sprachgebrauch auf diversen sozialen Medien zu analysieren. Zusätzlich wird eine Gesichtsbildanalyse durchgeführt, um die Wahrscheinlichkeit zu bestimmen, ob jemand ein Verbrechen begehen wird oder ob er ein Terrorist oder pädophiler Verbrecher sein könnte. Erst neulich hat eine Gruppe von Forschern der Universität Stanford künstliche Intelligenz dazu benutzt, die sexuelle Orientierung durch Fotos von unterschiedlichen Gesichtern vorherzusagen. Natürlich hat die Entwicklung solcher Methoden, bei denen persönliche Informationen über die Probanden gewonnen wurden, enorme Auswirkungen für die Privatsphäre.

Noch problematischer wird es, wenn es um die algorithmenbasierte vereinfachte Kategorisierung von Personen geht. Um künstliche Intelligenz für die Kategorisierung von Menschen auszubilden, müssen einzelne, definierte Zielkategorien vorgegeben werden und große Mengen vorklassifizierter Daten. So wird der Mensch auf einzelne sozio-psychologische Klassen reduziert.

Der Maschinen-„Gaydar“

Die kürzlich erfolgte Untersuchung, die basierend auf einem Foto zu bestimmen versuchte, ob eine Person homosexuell oder heterosexuell ist, ist ein klares Beispiel dafür, wie die Wahl von vorklassifizierten Kategorien uns ein binäres Bild von Sexualität auferlegt. Der Zweck der Studie war es, zu zeigen, dass Gesichter subtile Informationen über unsere sexuelle Orientierung enthalten, die von tiefen neuralen Netzwerken – eine Klasse von künstlicher Intelligenz – wahrgenommen und interpretiert werden können.

Um eine ausreichend große Datenmenge für diesen Typ des maschinellen Lernens zu erhalten, sammelten sie 130.741 Portraits von öffentlichen Profilen auf amerikanischen Dating-Webseiten. Der Datensatz enthielt die gleiche Anzahl an Bildern von homosexuellen und heterosexuellen Personen. Die sexuelle Orientierung wurde je nach den Voreinstellungen, welches Geschlecht das Gegenüber haben sollte, das auf den Profilen eingesehen werden kann, bestimmt. 

Auch wenn Dating-Webseiten einen recht eindeutigen Indikator für das sexuelle Interesse einer Person darstellen mag, widerspricht der Einsatz dieser Daten zum Training einer binären Klassifizierung der Realität eines vielfältigeren Spektrums unseres Verständisses von sexuellen Ausrichtungen, die sich von Asexualität bis zu diversen Graden der Bisexualität erstrecken können.

Das Problem ist folgendes: Wenn ein automatisches System erst einmal in der Lage ist, eine solche heruntergebrochene Einteilung mit einem hohen Grad an Verlässlichkeit bereitzustellen, wird es zu einem Werkzeug, dass einfach als Maßstab herangezogen werden kann. Klassifizierungen, die auf diesen vereinfachten sozio-psychologischen Merkmalen basieren, werden zu einem interessanten neuen Wert, mit dem die Personalisierung von Diensten ergänzt werden können. Sollte sich eine solch vereinfachte Perspektive auf Menschen weiter etablieren, haben wir alle ein ernstzunehmendes Problem.

Der Diskussionsteil der Studie zur Kategorisierung von Gesichtern indiziert, dass die Forscher sich den weiteren Konsequenzen dieser Art von Studie bewusst sind. Sie gehen sogar so weit, zu sagen, dass es eine der treibenden Motivationen für diese Arbeit war, die „politischen Entscheidungsträger, die generelle Öffentlichkeit und homosexuelle Gemeinschaften auf das Risiko, dem sie bereits gegenüberstehen könnten, darauf aufmerksam zu machen“. Dies geschehe aufgrund von Tätigkeiten, die „wahrscheinlich hinter verschlossenen Türen in Unternehmen und Regierungsorganisationen durchgeführt werden“.

Feedback beschaffen

Unglücklicherweise folgte die eingesetzte Methode, trotz des sozialen Bewusstseins, der gängigen Praxis in diesem Forschungsbereich, wo alle öffentlich zugänglichen Daten als „Freiwild“ gelten – unabhängig davon, ob die Forschungsobjekte niemals beabsichtigten, diese Daten für Forschungszwecke bereitzustellen. Natürlich wäre es schwierig gewesen die Personen zu kontaktieren, deren Bilder genutzt wurden. Aber zumindest hätte man Vertreter von unterschiedlichen Gemeinschaften für die Rechte Homosexueller konsultieren sollen.

Um ihre Bedenken über den Einfluss dieser Art von Forschung auf die Rechte der Betroffenen auszudrücken, hätten die Forscher der betroffenen LGBT-Gemeinschaften die Möglichkeit geben sollen, ihre Sichtweise im Diskussionsteil der Arbeit preiszugeben. Dies hätte nicht nur deren eigene Reaktion verändert, sondern auch die Art der medialen Berichterstattung. Solch eine Einbeziehung der Interessensgruppen ist eines der Schlüsselprinzipien von verantwortlicher Forschung und Innovation, die Nachhaltigkeit, Zugänglichkeit und Erwünschtheit von Forschungsprozessen und Leistungen zu garantieren versucht.

Um also die Probleme von unkontrolliertem Gebrauch von künstlicher Intelligenz für unternehmerischen Zugewinn zu adressieren, ist es wichtig, eine Kultur zu schaffen, die die Einbeziehung von Interessensgruppen fördert. Sie sollte zudem auch ethische Fragen innerhalb der Bereiche der Forschung und Entwicklung von künstlicher Intelligenz beachten. Die gute Nachricht ist, dass dies bereits durch die Zunahme von ethischen Richtlinien, Initiativen und der Entwicklung von ethisch basierten Industriestandards in Angriff genommen wird. Sie sollen Möglichkeiten bereitstellen, um den ethischen Gebrauch von künstlicher Intelligenz sicherzustellen, ganz ähnlich denen der Lebensmittelsicherheitsstandards.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Self Portrait photo“ by Ian Dooley (CC0 Public Domain)


The Conversation

Weiterlesen »

Wenn Cortana Behördengänge macht: Künstliche Intelligenz in der öffentlichen Verwaltung

Thomas Langkabel bei Microsoft Explained über Künstliche Intelligenz in der öffentlichen Verwaltung

Auto ummelden, Pass verlängern oder Kindergeld beantragen: Behördengänge mag niemand. Denn persönliche Besuche beim Amt und Warteschlangen nerven genauso wie manche Angelegenheiten nur per Brief oder Fax erledigen zu können. Die Verwaltung zu digitalisieren, kommt hierzulande nur schleppend voran. Dabei ließe sich E-Government schneller umsetzen als viele glauben, davon ist Thomas Langkabel überzeugt. Der Technologie-Experte von Microsoft hat eine Vision: Bürger müssen sich nicht mit Ämtern rumärgern, sondern lassen dies Chatbots erledigen. Was Künstliche Intelligenz in der öffentlichen Verwaltung bewirken kann und warum ein Mentalitätswandel noch wichtiger ist als neue Technik, erklärte Thomas Langkabel im Netzpiloten-Interview am Rande der Digitalkonferenz Microsoft Explained in Berlin.

Netzpiloten: Was kann Künstliche Intelligenz in der öffentlichen Verwaltung mir persönlich als Bürger bringen?

Thomas Langkabel: Derzeit sind Behördengänge oft mühselig, weil Bürger sich viele Fragen stellen müssen: Welche Behörde ist zuständig? Auf welchem Weg muss ich sie kontaktieren? Welche Angaben und Dokumente muss ich bereithalten? Das ließe sich drastisch vereinfachen, wenn Cortana oder ein anderer intelligenter digitaler Assistent alles Nötige automatisch mit den zuständigen Behörden-Chatbot klärt.

Das klingt nach Science-Fiction. Wie soll sich das in naher Zukunft umsetzen lassen?

Die Idee ist nicht so weit hergeholt. Bund und Länder stellen derzeit die Weichen für einen Portalverbund im Internet. Damit wird es möglich sein, dass Bürger auf nur einer Webseite alle Behördenangelegenheiten erledigen, egal welche Anlaufstelle in welchem Ort zuständig ist. Zur Idee gehört auch, dass jeder Bürger einen Datensafe hat und entscheiden kann, ob und welcher Behörde er Zugriff darauf gibt. Denkt man das weiter, ist der Schritt nicht weit zu meinem persönlichen digitalen Assistenten, der Zugang zu meinem Datensafe und meinen Outlook-Kalender hat und für mich beim Behördenportal die Verlängerung meines Reisepasses erledigt.

Wie würde so ein Vorgang in der Praxis konkret ablaufen?

Denkbar ist, dass der intelligente Assistent weiß, dass ich bald ins Ausland verreise, dafür einen Reisepass benötige und dieser vorher abläuft. Der Assistent weißt mich darauf hin und fragt um Erlaubnis, ob er alles für die Verlängerung in die Wege leiten soll. Dann ermittelt er das zuständige Amt und „bespricht“ sich dort mit dem Chatbot. Der Bot „beschreibt“ Cortana den Prozess und teilt mit, dass ich einen persönlichen Termin und ein aktuelles Passbild brauche. Cortana wiederum weiß, wann ich Zeit habe und verhandelt mit dem Bot online eine Terminabsprache aus. Das alles könnte ich als Bürger erledigen, in dem ich mit nur einem Wort meiner Künstlichen Intelligenz erlaube, alles vorzubereiten. Wie schön und einfach wäre das bitte?!

Warum braucht es für solche Modernisierungsmaßnahmen eigentlich Künstliche Intelligenz, also selbstlernende Algorithmen, warum reicht nicht „normale“ Software?

Weil es das Ziel sein muss, dass ich die Wünsche mit natürlicher Sprache äußere und nicht formelhafte Kommandos auswendig lernen muss. Ich möchte sagen können: „Ich brauche eine Baumfällgenehmigung“ oder „Ich möchte einen Baum fällen“. Dann soll der intelligente Assistent wissen was zu tun ist, selbst wenn diese Erlaubnis einen ganz anderen amtlichen Namen hat.

Und Sie wollen darauf hinaus, dass Künstliche Intelligenz eben sehr gut beim Erkennen von Zusammenhängen sein kann?

Genau, die Software muss komplexe semantische Zusammenhänge entschlüsseln und wissen, was ich meine, auch wenn ich etwas Anderes sage. Das geht mit Künstlicher Intelligenz viel besser als mit herkömmlicher Software.

KI Verwaltung Cortana Microsoft Explained

Das Beispiel, das Sie schildern, beinhaltet noch viele Detailprobleme. Zum Beispiel müsste ich wirklich alles im Outlook-Kalender eintragen, sonst legt mir Cortana den Behördentermin vielleicht auf ein Zeitfenster, an dem ich mich mit meinem Freund Peter treffen möchte, ohne dass dies im Kalender steht.

Natürlich gibt es noch Herausforderungen. Ich skizziere letztlich eine Vision, keinen Plan, der fertig in der Schublade liegt. Aber in einer idealen Welt ist der intelligente Assistent so auf mich bzw. meine Lebensrealität trainiert, dass er auch dann meine Verhaltensweisen mit hoher Wahrscheinlichkeit vorausplant, ohne dass ich sie schriftlich festhalte. So eine enge Verzahnung von Alltag und Technologie mag zwar für manche erschreckend klingen. Aber wenn es mir persönlich hilft, halte ich so eine Entwicklung für legitim.

Dass Privatnutzer technologisch gewappnet sind, ist das eine. Damit ihre Vision real werden kann, müsste man auf der anderen Seite Künstliche Intelligenz in der öffentlichen Verwaltung flächendeckend einführen. Das geht doch nicht von heute auf morgen.

Ja, so eine Entwicklung geht nicht schlagartig. Aber sie ist auch keine Zukunftsmusik mehr. Es geht schon los! So testet die Stadt Bonn bereits den ‚Botty Bonn‘ als Chatbot, über den Bürger per Smartphone Auskünfte von der Verwaltung erhalten, andere Beispiele entstehen bereits in Krefeld oder dem Landkreis Lüneburg. Das sind alles bereits gute Ansätze, aber noch wichtiger als einfach nur Künstliche Intelligenz in der öffentlichen Verwaltung einzuführen, ist, dass sich auch strukturell etwas in der Verwaltung ändert.

Was meinen Sie damit?

Es geht mir um drei Aspekte. Erstens muss die Verwaltungsausbildung generell reformiert werden. Statt ausschließlich Verwaltungsjuristen, die sich im Paragraphendschungel perfekt auskennen, bräuchten wir auch Personal, das sich mit der Entwicklung von Verwaltungsstrukturen beschäftigt und Prozesse eigeninitiativ hinterfragt.

Zweitens muss die Innovationsfreude gestärkt werden. So wie in der der Wirtschaft der Wettbewerb die Entwicklung antreibt, könnte man in der öffentlichen Verwaltung die Zufriedenheit von Bürgern erheben, vergleichen und hinterfragen, warum sie hier besser ist als dort.

Und drittens müssen Verwaltungen dazu übergehen, Anreize für Verhaltungsänderungen von Bürgern zu setzen. Es reicht nicht einfach, digitale Angebote einzuführen, sie müssen auch beworben werden. Das Maß der Digitalisierung wird häufig nur am Vorhandensein einzelner Angebote gemessen, aber nicht an ihrer tatsächlichen Nutzung. Wir brauchen nicht nur Open Government Data, sondern Open Government Performance Data.

Das setzt einen Mentalitätswandel in der öffentlichen Verwaltung voraus, der häufig noch viel länger dauert als technologische Innovation. Wie lässt sich das erreichen?

Das ist eine Frage des politischen Willens. Sowas passiert nicht von selbst. Zwar glauben manche, dass man bloß warten muss, bis die Generation der Digital Natives im Verwaltungspersonal ausreichend vertreten ist. Aber das halte ich für zu kurz gedacht. Es gibt nämlich auch viele Skeptiker in dieser Alterskohorte. Daher ist es kein generationskulturelles Problem, sondern ein strukturelles Problem, dass nur durch neue Ausbildungsinhalte angegangen werden kann. Aber das System wird sich nicht von selbst reformieren. Daher muss die Politik ran.

Wie lange würde so eine Reform benötigen, bis sie greift?

Angenommen, wir fangen jetzt an, würde es mindestens drei bis vier Jahre dauern, bevor überhaupt eine Modernisierung jenseits von vereinzelnden und daher insgesamt wenig wirksamen Projekten zu spüren ist, weil solange eben die Verwaltungsausbildung dauert. Ein flächendeckender Impact durch einen Mentalitätswandel kann sogar zehn bis 15 Jahre erfolgt sein – sofern wir jetzt anfangen.

Und wann könnte Cortana für mich Termine vereinbaren?

Wenn alle Beteiligten das wollten, ließe sich Künstliche Intelligenz in der öffentlichen Verwaltung innerhalb von drei bis vier Monaten einführen. Die technische Infrastruktur ist nämlich gar nicht das Problem, weil die meiste Rechenleistung in der Cloud liegt. Man bräuchte also keine neue Hardware, sondern nur harten Willen dafür.

Vielen Dank für das Gespräch. 

Über Thomas Langkabel, National Technology Officer bei Microsoft Deutschland

Thomas Langkabel verantwortet seit 2011 die Technologie-Entwicklung und -Strategie bei Microsoft Deutschland. Cloud Computing, Digitale Transformation und E-Government gehören zu seinen Schwerpunktthemen. In diesem Zusammenhang spricht er auch über Künstliche Intelligenz in der öffentlichen Verwaltung. Thomas Langkabel arbeitet in seiner Rolle auch in verschiedenen Gremien in Verbänden und Institutionen, wie etwa dem Arbeitskreis „Digitale Verwaltung“ des BITKOM oder den Arbeitsgruppen „Innovativer Staat“ und „Ethik“ der Initiative D21. Der diplomierte Ingenieur der Luft- und Raumfahrttechnik diente vor seinem Wechsel in die IT-Beratung als technischer Offizier der Luftwaffe.

Dieses Interview entstand in Zusammenarbeit mit Microsoft.


Images by Berti Kolbow-Lehradt


Weiterlesen »

Die Netzpiloten sind Partner der Big Data Minds 2017

Partnergrafik_Bid_Data_minds

In Berlin findet am 18. und 19. September die Big Data Minds 2017 statt. Hier dreht sich alles um große Datenmengen. Das Motto lautet dieses Jahr „Von Big zu Smart Data“. Die Big Data Minds ist das größte Event seiner Art in Deutschland, Österreich und der Schweiz. Über 150 CIOs, CTOs, Data Warehouse Experten, Data Scientists und BI Spezialisten aller datenintensiven Branchen werden vor Ort sein.

Bei der Big Data Minds, die schon zum fünften Mal stattfindet, handelt es sich um ein anwenderzentriertes Event, auf dem Konzepte, Lösungen und Architekturen zur Speicherung und effizienten Verarbeitung großer Datenmengen präsentiert werden. Es wird einen Stream zum Thema Data Lake Implementation und einen zum Thema Machine Learning geben. 6 World Cafés, 4 Icebreaker Sessions, 6 Round Table Diskussionen und mehr als 20 konkrete Business Cases warten auf euch, bei denen ihr die Möglichkeit habt, neue Inspiration für den strategischen und praktischen Umgang mit Big Data zu sammeln.

Interessante Speaker und spannende Themen

Zu den Speakern, auf die ihr euch bei der Big Data Minds 2017 freuen könnt, gehören:

Die Location ist das Maritim proArte Hotel in Berlin. Hier könnt ihr eure Tickets buchen.

Weiterlesen »

FollowUs – Die Netzpiloten-Tipps aus Blogs & Mags

Follow me
  • ALGORITHMEN zeit: Maas schlägt digitales Antidiskriminierungsgesetz vor: Digital automatisierte Entscheidungsfindungen, beispielsweise Handydaten, die beeinflussen, dass jemand einen Kleinkredit bekommt, sind oft nicht sonderlich transparent. Justiz- und Verbraucherschutzminister Heiko Maas (SPD) möchte das jetzt ändern und plädierte dafür am Montag für ein staatliches Eingreifen. Das sogenannte „digitale Antidirskirminierungsgesetz“ soll dafür sorgen, dass Teile der Bevölkerung durch Softwareentscheidungen benachteiligt werden und dass außerdem mehr Transparenz bei Entwicklern zu ihren Algorithmen herrscht.

  • KÜNSTLICHE INTELLIGENZ heise: Microsoft veröffentlicht KI-Bibliothek für Minicomputer: Microsoft veröffentlicht die Embedded Learning Library (ELL) um Machine Learning auf Mini-Computer zu bringen. Systeme wie der Raspberry Pi oder die Arduino-Plattform sollen so ML-Prozesse auch ohne Cloud-Anbindung bearbeiten können. Noch ist die ELL in einem sehr frühen Entwicklungsstadium, generell soll mit ihr aber ein weiterer Schritt Richtung „Demokratisierung von KI“ gehen, sagt Saleema Amershi, Human-Computer-Interaktionsforscherin bei Microsoft.

  • CROWDFUNDING sueddeutsche: Letzte Hoffnung Crowdfunding: Wenn eine Crowdfunding Kampagne die letzte Hoffnung für die Gesundheit ist und im US-Gesundheitssystem schon eine feste Größe ist. Viele US-Amerikaner haben keine Krankenversicherung, aber können teilweise auch trotz Obamacare ihre Arztrechnungen bezahlen. Weil sich oftmals nicht anders zu helfen gewusst wird, vertrauen viele auf Crowdfunding-Plattformen, wie Gofundme, um die teilweise astronomischen Arztrechungen zu bewältigen. Wie gut funktioniert das und was passiert zur geplanten Trumpcare?

  • G20 netzpolitik: Gegen Überwachung demonstrieren auf der G20-Großdemo in Hamburg: Der G20-Gipfel in Hamburg, bei dem sich die Regierungsverteter der 20 größten Industrie- und Schwellenländern versammeln werden, steht kurz bevor. Die Demonstrationen und Proteste dazu sind ebenfalls schon in vollem Gang. Das Bündnis gegen Überwachung fordert beispielsweise den vollständigen Rückzug der Geheimdienste aus der Zivilgesellschaft. Der G20-Gipfel wird eine Herausforderung für die Infrastruktur der Stadt, aber durch Massenüberwachung auch für den Datenschutz.

  • TECH wired: Kängurus überfordern selbstfahrende Volvos: Die Technologie bei autonomen Fahrzeugen ist schon relativ fortgeschritten, die autonohm fahrenden Testfahrzeuge von Volvo in Australien haben jetzt aber ein ganz bestimmtes Problem: Kängurus! Laut einem Bericht von ABC News bringen hüpfende Kängurus das sogenannte „Large Animal Detection System“ von Volvo durcheinander. Australien ist für Volvo und andere Entwickler von autonomen Fahrzeugen ein anspruchsvolles Testgebiet. LKW mit Gesamtlängen von über 50 Metern, unzureichende Straßenmarkierungen und die anspruchsvolle Topografie fordern die Software der Autos heraus.

Weiterlesen »

FotoOto vs. Aipoly Vision: Zwei Apps helfen Blinden in der Welt der Sehenden

FotoOto_Bild_05_96dpi_1920x1080-adapted-Image-by-Publicis-Pixelpark

Die Apps FotoOto und Aipoly Vision unterstützen sehbehinderte Menschen dabei, zu erkennen, was Fotos zeigen und diese zu versenden. Highlight von FotoOto ist, dass sie Farben in Töne verwandeln kann und so Bilder akustisch erlebbar machen soll. Die von Publicis Pixelpark entwickelte App FotoOto ist kostenlos im App Store erhältlich. Eine Alternative dazu ist die App Aipoly Vision, die ihr ebenfalls kostenlos im App Store bekommt. Im Gegensatz zu FotoOto dient Aipoly Vision nicht dazu, um Fotos von seiner Umgebung zu machen und diese zu analysieren. Stattdessen funktioniert sie als Scanner, mit dem man seine Umgebung in Echtzeit untersuchen kann.

Mit den Ohren sehen

Die Apps greifen auf ein bekanntes Prinzip zurück. Unser Gehirn ist dazu in der Lage, akustische Informationen zu interpretieren und sie in visuelle zu verwandeln. Bisher war dafür aber sehr aufwendige Technik nötig. So erzeugte etwa der Wissenschaftler Guillermo Peris für eine Studie (mehr dazu hier beim Deutschlandfunk) mit Infrarot-Lasern und Stereo-Kameras ein komplexes, dreidimensionales Klangbild einer Umgebung, durch sich ein blinder Proband mühelos bewegen konnte. In Zeiten, wo es sprichwörtlich für alles eine App gibt, stellt sich die Frage, ob das nicht auch mit einem simpleren Setup funktioniert.

FotoOto: Nicht für 4-Zoll-Displays optimiert

Als ich FotoOto zum ersten Mal öffne, erwartet mich ein Tutorial zur App. Leider fangen schon hier Schwierigkeiten an. Die Schriftgröße des Textes ist außergewöhnlich groß, so groß nämlich, dass er gar nicht auf den 4 Zoll großen Bildschirm meines iPod touch passt. Hier muss ich scrollen, um alles lesen zu können, was mal mehr, mal weniger klappt.

Im Test hat sich gezeigt, dass die App besser funktioniert, wenn man sie bei eingeschaltetem VoiceOver bedient. Das ist natürlich gewöhnungsbedürftig, dadurch erklären sich aber auch einige nicht beschriftete Schaltflächen. VoiceOver ist eine iOS-interne Bedienungshilfe für Sehbehinderte.

FotoOto verwandelt Bilder in Klänge

IMG_2144
Es fängt gut an: FotoOto erkennt den Kaffeebecher auf meinem Schreibtisch. Screenshot by Niklas Hamburg.

Die Innovation, die FotoOto so besonders macht, ist die Funktion, Bilder in Klänge zu verwandeln. Jede Farbe ist dabei einem speziellen Klang zugeordnet. Die Zuordnung wird im Tutorial vorgestellt und kann auch hinterher – wie auch das ganze Tutorial – erneut aufgerufen werden.

Problematisch ist hierbei, dass die Klänge alle sehr weich und undefiniert sind. Das Bild eines Kissens klingt in etwa wie der Klangteppich, der einem entgegen kommt, wenn man eine CD mit Entspannungsmusik einlegt: Klangschalen, Regenmacher und ruhige Streicher.

Diese Geräuschkulisse in seine Einzelteile zu zerlegen und zu analysieren, welche Farben bzw. Klänge das Bild ausmachen, ist kaum möglich – zumindest für mich als Sehenden. Selbst, wenn ich mir die Zeit nehmen würde, um die ganze Farb-Klang-Zuordnung auswendig zu lernen, erschließt sich mir der praktische Nutzen im Alltag nicht.

Als Information steht einem sehbehinterten Nutzer letztlich nur zur Verfügung, was der Algorithmus auf dem Foto zu erkennen glaubt und welche Farben das Bild enthält, nicht aber, welche Konturen es gibt. Somit taugt der Klangteppich von FotoOto allerhöchstens zur Unterhaltung.

Vieles wird nicht richtig erkannt

IMG_2143
Nicht korrekt übersetzt, aber fast richtig erkannt: die Katze in ihrem Häuschen. Screenshot by Niklas Hamburg

A propos Algorithmus: Leider erkennt die App vieles, das ich im Haushalt so fotografieren könnte, nicht richtig. Überrascht hat mich, dass ein Bild mit komplexem Inhalt, wie eine Katze in einem Katzenhäuschen, fast richtig erkannt wurde. Denn das Bild ist schlecht ausgeleuchtet, was Kameras oft Probleme bereitet. Außerdem es gibt viele weiche Formen und verschiedene Ebenen.

Im Gegensatz dazu wird ein Bild mit geraden Konturen und wenigen Ebenen, wie beipielsweise mein Smartphone, nicht richtig erkannt. Das ist schade, denn möchte ich jemandem ein Bild meines neuen Smartphones zeigen, hat dieser dann nur als Information zur Verfügung, dass das Bild einen Holztisch zeigt und dass die dominierenden Farben Braun und Schwarz sind.

Zwar gibt es noch die Möglichkeit, dem Bild eine Sprachaufnahme hinzuzufügen. Ich kann zum Beispiel erklären, was auf dem Bild zu sehen ist oder einfach die Atmosphäre des fotografierten Ortes einfangen und mit übermitteln. Aber im Test funktionierte das nicht. Außerdem gibt es keine Möglichkeit, die Sprachaufnahme zu beenden, ohne sie gänzlich zu löschen. Des Weiteren konnte der Empfänger, dem ich die Datei im Test geschickt habe, nicht öffnen.

Die Kamerafunktion ist mangelhaft

IMG_2145
Ob hier nicht ein wichtiges Detail vergessen wurde? Screenshot by Niklas Hamburg

Für jemanden, der nicht sehen kann – für den es also reicht, wenn das fotografierte Objekt auf dem Bild zu erkennen ist – mag die Qualität der Kamera ausreichend sein. Jemand, der sehen kann, wird aber mehr als das erwarten. Mir geht es dabei weniger um die Leistung der integrierten Kamera meines iPod touch.

Viel eher stört mich die technische Umsetzung der Integration einer Kamerafunktion in die App. Natürlich ist es praktisch, nicht extra FotoOto verlassen zu müssen, um mit der Apple-eigenen Kamera-App ein Foto zu machen, dann wieder zu FotoOto zurück zu wechseln, dann das Bild aus der Galerie zu importieren, um dann zu erfahren, was sich auf dem Bild befindet.

Leider wurde bei der Integration der Kamerafunktion in die App vieles weggelassen. Der Blitz ist automatisch aktiviert und lässt sich auch nicht ausschalten. Darüber hinaus sind Aufnahmen nur im Hochformat möglich, da die App nicht ins Querformat wechselt, wenn das Gerät gekippt wird. Allerdings funktioniert die Erkennung auch, wenn man das Gerät während der Aufnahme kippt.

Alternative: Aipoly Vision

IMG_2152
Screenshot by Niklas Hamburg

Besser als FotoOto schlägt sich die App Aipoly Vision. Die App kostet nichts, wenn ihr sie herunterladet. Doch um Zugang zu vielen nützliche Features zu erhalten, müsst ihr einen Aufpreis bezahlen.

Die Anwendung setzt auf eine Form der künstlichen Intelligenz. Das Prinzip, dessen sich die Entwickler von Aipoly Vision bedient haben, nennt sich Convolutional Neural Network, kurz CNN. Es bezeichnet eine Art des Machine Learnings, das von biologischen Prozessen inspiriert wurde und vor allem zum Einsatz kommt, wenn Bild- und Audiodaten verarbeitet werden sollen.

Die Scanner-artige App funktioniert so: Wenn Aipoly Vision etwas erkannt hat, erscheint der Name des erkannten Gegenstanden auf dem Bildschirm und wird außerdem vorgelesen. Das ist etwas unangenehm, wenn ich nicht damit rechne. Erst recht, wenn ich mich in der Öffentlichkeit befinde. Doch dafür kann ich schließlich Kopfhörer benutzen.

Anschließend habe ich die Möglichkeit, verschiedene Filter zu benutzen. Der erste Filter scannt wie oben beschrieben die Umgebung und benennt erkannte Objekte. Der nächste Filter analysiert, welche Farbe der gescannte Gegenstand hat. Die Benennung der Farben ist dabei sehr präzise. Es werden alle nur denkbaren Abstufungen von Farben genannt, mitunter leider nicht korrekt aus dem Englischen übersetzt.

Farberkennung beeinträchtigt das Ergebnis

IMG_2148
Ich sollte vielleicht kein Handmodel werden. Aber das hier nicht mein Fuß zu sehen ist, erkennt man doch, oder? Screenshot by Niklas Hamburg

Mich störte außerdem, dass die Farberkennung sehr instabil verläuft. Schon mikroskopisch kleine Ausschläge verändern die erkannte Farbe. Nun bin ich aber des Sehens mächtig und kann das Gerät einigermaßen stabil halten, wohingegen man dies von einem Sehbehinderten nicht erwarten kann. Die Unsicherheit des Filters resultiert in einer nicht abreißenden Aneinanderreihung von Farbtönen: „Rotguss Holzkohle Blaugrau Beige (sprich „bei-ge“) Saphir cool grey“.

Mitunter werden die Farbtöne auch nicht richtig analysiert, wenn Lichtverhältnisse oder der automatisch ein- und ausgeschaltete Blitz die Farbwahrnehmung der Kamera ungünstig beeinflussen. Der letzte frei verfügbare Filter ordnet ein, in welcher Umgebung man sich in etwa befindet, zum Beispiel Schlafzimmer, Fenster oder Computerarbeitsplatz.

Die anderen Filter sind nur in der kostenpflichtigen Version enthalten. Diese liefert Antworten auf Fragen wie: Was ist da auf meinem Teller? Was blüht da auf meiner Fensterbank? Und was steht auf diesem Zettel? Aipoly Vision kann Gerichte, Tiere, Pflanzen und Blumen sowie Text in sieben Sprachen erkennen. Das Abonnement kostet, im Anschluss an eine kostenlose Probephase, 5,99 Euro im Monat.

Fazit: Das darf noch besser werden

Beide Apps haben Stärken und Schwächen. Die Erkennungsleistung schwankt stark. Bei manchen Motiven ist die eine App, bei manchen die andere besser. Insgesamt haben beide Apps Verbesserungsbedarf. Die Idee, eine App zu entwickeln, mit der Sehbehinderte Bilder erkennen und akustisch erfahren können, finde ich klasse. Leider ist die Umsetzung insbesondere bei FotoOto fehlgeschlagen, sodass die App ihren Zweck nicht erfüllt. Nicht einmal zu Unterhaltungszwecken lohnt es sich, FotoOto auszuprobieren.

Auch, wenn Aipoly Vision mit einem begrenzten Funktionsumfang kommt, gefällt mir die Qualität und der Funktionsumfang hier deutlich besser als bei FotoOto. Die Integration einer Aufnahmefunktion in die App wäre wünschenswert, ist aber nicht erforderlich. Überflüssige Features wie die (nicht funktionierende) Sprachaufnahme und die unverständliche Übersetzung in einen Klangteppich wurden weggelassen und ich habe sie auch nicht vermisst. Sechs Euro im Monat sind für eine App zwar verhältnismäßig viel, wer jedoch wirklich unter einer Sehbehinderung leidet, wird sich freuen, dass es derartige Technologie inzwischen zu erschwinglichen Preisen im App Store gibt.

Vergleich
Die beiden Kontrahenten im direkten Vergleich, links FotoOto, rechts Aipoly Vision. In diesem Fall macht FotoOto das Rennen, auch wenn auf der Maus nicht „II“ steht. Screenshots by Niklas Hamburg

Dieser Artikel erschien zuerst auf Applepiloten.


Teaser Image by Publicis Pixelpark; Screenshots by Niklas Hamburg


Weiterlesen »

Mehr als nur iPhone: Apples 4 wichtigste Zukunftsthemen der WWDC 2017

wwdc_sj_keynote_tim-cook

Eingelullt vom anhaltenden Verkaufserfolg des iPhones hat sich Apple schon seit einer Weile bequem zurückgelehnt. Bei den großen Tech-Trends gaben zuletzt Google, Facebook, Amazon und Microsoft den Takt vor. Nun ist Apple offenbar aus seiner Duldungsstarre hochgeschreckt. Auf der viel beachteten Entwicklerkonferenz WWDC 2017 hat der Konzern jede Menge Neuerungen in Sachen Künstliche Intelligenz (KI), Virtual Reality (VR) und Augmented Reality (AR), Mobile Computing sowie Heimvernetzung vorgestellt.

Apple erscheint damit spät zur Party und sieht sich dem Vorwurf ausgesetzt, in blindem Aktionismus lauter „Me too“-Produkte rauszufeuern. Doch die Neuerungen sind für meinen Geschmack klug und gezielt gewählt. Und angesichts der Sogwirkung von Apples Ökosystem und den Finanzreserven des Unternehmens könnte es Apple abermals gelingen, zum richtigen Zeitpunkt diffuse Trends reif für den Massenmarkt zu machen. Meine Einschätzung zu den Neuerungen der WWDC 2017.

Zukunftsthema 1 – HomePod und Siri: Künstliche Intelligenz, die gut klingt

Wie von der Gerüchteküche vor der WWDC 2017 erwartet, betritt jetzt auch Apple die Bühne der vernetzten Lautsprecher. Mit dem HomePod erscheint zum Jahresende ein Soundsystem, dass nicht nur auf Sprachbefehle reagiert, sondern auch gut klingen soll. Dabei legt Apple viel Wert auf hochwertigen Sound, der sich wie bei den populären Sonos-Lautsprechern auch noch automatisch an die Raumverhältnisse anpasst. Ganz im Gegensatz zu Amazon, dessen Echo-Lautsprecher Musikliebhaber bisher nicht überzeugt.

wwdc_sj_keynote_homepod_hoa
Image by Apple

Gleichzeitig soll der HomePod nicht weniger smart als die Konkurrenz sein. In Verbindung mit Apples Sprachassistent Siri sowie einem Abo bei Apple Music können Nutzer dem Lautsprecher ihren Musikgeschmack beibringen, News und Sportergebnisse abfragen sowie vernetzte Heim- und Haushaltsgeräte steuern.

Mit 350 US-Dollar ruft Apple einen deutlich höheren Preis als die smarten Lautsprecher-Wettbewerber auf. Wenn der HomePod so gut klingt und so intelligent funktioniert, wie Apple verspricht, dürfte er jedoch eine Marktlücke schließen und viele Käufer finden. Während Amazon mit seiner KI namens Alexa durch Lizenzpartner auf Breitenwirkung setzt, könnte ein Verkaufserfolg von Apples Siri-Lautsprecher HomePod hingegen den Qualitätswettbewerb bei smarten Lautsprechern vorantreiben.

Siri lernt und lernt

Um von Apples Fortschritten bei Künstlicher Intelligenz zu profitieren, müssen viele Nutzer von Apple-Geräten keinen Eurocent ausgeben. Wenn im Herbst die neue Version von Apples mobilen Betriebssystem iOS 11 als kostenloses Update erscheint, sind auch diverse neue Fähigkeiten von Siri an Board. So soll Apples KI dank maschinellen Lernverfahren die Interessen der Nutzer automatisch immer besser verstehen und die Bedienung zum Beispiel in den Apple eigenen Programmen Safari, Mail und Nachrichten durch passende Vorschläge beschleunigen.

Insofern verfolgt Apple einen breiteren Ansatz als etwa Google, das KI-Technologie bisher vor allem im Foto-Bereich anwendet. Angesichts der großen Nutzerbasis von iOS dürfte Apples Vorstoß den Einsatz von Künstlicher Intelligenz stärker im Alltag einer breiten Masse verankern. Bewusst wahrnehmen wird diese das jedoch vermutlich nicht. Ob nun KI-Algorithmen oder andere Rechenoperationen zum gewünschten Ergebnis führen, dürfte den Nutzer herzlich egal sein.

Zukunftsthema 2 – Augmented oder Virtual Reality? Apple macht einfach beides

Mit dem Erfolg von Pokémon Go ist Augmented Reality schlagartig zu einem Hype-Thema geworden. Trotzdem ist die durch computergenierte Objekte erweiterte Realität bisher ein Nischenthema geblieben. Es gibt viel zu wenige AR-Apps und eine große, einheitliche Technologie-Plattform, die App-Entwicklern das Thema schmackhaft macht, fehlte bislang ebenfalls. Aus dem Nichts könnte Apple AR-Anwendungen nun massentauglich machen.

Mit der Entwicklersoftware namens ARKit sollen es Programmierer nun einfacher haben, AR-Apps fürs iPhone und iPad zu entwickeln. Den Präsentationen auf der WWDC 2017 nach zu urteilen, wird es dabei weiterhin vorrangig um Spiele und Möbel-Apps gehen.

wwdc_sj_keynote_hoa_crowd_ipads
Image by Apple

Was die Art der Inhalte angeht, sind von Apple keine unwiderstehlich neuartigen Inspirationen zu erwarten. Der Zauber liegt vielmehr abermals in der großen Nutzerbasis von iOS. Das bestehende iPhone oder iPad ließe sich ganz einfach weiterhin nutzen, neue Hardware müsste niemand kaufen. Zumal bisher weit und breit keine sozial akzeptablen AR-Brillen verfügbar sind. Wer will schon den ganzen Tag mit einer Microsoft HoloLens herumlaufen. Und anders als bei Googles Project Tango müssten iOS-Entwickler ihre Apps auch nicht für dutzende verschiedene Smartphone-Modelle anpassen. Die Chancen für eine weitere Verbreitung von AR-Anwendungen auf iPhone und iPad stehen daher gut.

Virtual Reality kommt auf den Mac

Alles spricht dafür, dass Apple in Augmented Reality größeres Potenzial sieht als in Virtual Reality. Trotzdem setzt das Unternehmen nicht alles auf eine Karte. Während VR-Brillen bisher nur mit Windows-Rechnern und Spielekonsolen kompatibel waren, arbeitet das neue Mac-Betriebssystem macOS High Sierra ab Herbst mindestens auch mit einer HTC Vive zusammen. Zudem sollen überarbeitete Grafikschnittstellen und bessere Mac-Hardware die Programmierung von VR-Anwendungen erleichtern.

wwdc_sj_keynote_john_knoll_demo_vr
Image by Apple

Apples später VR-Vorstoß ist ein Schritt in die richtige Richtung und stärkt die generelle Bedeutung des Mac als Anwendungsplattform. Dennoch scheint mir die Prognose hier nicht so günstig wie bei AR. Die Anschaffungskosten für VR-fähige Macs und -Brillen bleiben hoch. Und viele Nutzer tauschen die langlebigen Mac-Rechner nur in größeren Intervallen aus. Den Mac als VR-Spielwiese mit großem App-Angebot kann ich mir daher frühestens mittelfristig vorstellen. Hier dürften Windows, Xbox und PlayStation weiterhin die Nase vorn behalten.

Zukunftsthema 3 – Das iPad Pro wird ein immer besserer mobiler Computer

Mit den Surface-Geräten hat Microsoft klug auf den „New Work“-Trend hin zu ortsunabhängigen Arbeiten und zur Vermischung von Arbeit und Freizeit aufgesattelt. Wie Microsoft mit Windows 10 ein Desktop-Betriebssystem in einen Tablet-Formfaktor integriert hat, ist schon clever. So lassen sich im Windows-Lager praktische 2-in-1 Geräte konzipieren, während Apple weiterhin noch zwischen MacBook und iPad trennt.

Das rechenstarke iPad Pro mit passendem Digitalstift Apple Pencil war eine sinnvolle Annäherung an aktuelle Nutzungsszenarien. Aber einen Desktop-Computer kann das Apple-Tablet trotz aller PR-Prosa nicht ersetzen. Das lag vor allem am mobilen Betriebssystem iOS, das seine Wurzeln in der minimalistischen Touch-Bedienung hat. Unter Windows alltägliche Arbeitsfunktionen gingen lange Zeit einfach nicht. Bisher. Mit iOS 11 reicht Apple diese Features endlich nach.

ipad-pro-retina-thin
Image by Apple

Drag-and-Drop, ein Dateibrowser, ein individualisierbares App-Dock für häufig genutzte Apps – das sind für sich genommen sehr subtile Neuerungen, die das iPad Pro (nicht nur das neue mit 10,5-Zoll-Diagonale) zu einem einfach zu bedienenden Arbeits- und Kreativrechner machen. Diese Verbesserungen halte ich für bedeutender als die aufgebohrte Hardware, die Apple ebenfalls dem iPad Pro spendiert.

Wie sehr die speziellen Arbeitsfeatures in iOS 11 auf dem iPad Pro die eigene Produktivität in der Praxis wirklich steigern, wird ein Test zeigen müssen. Zumindest auf dem Papier ist die Entscheidung zwischen einem iPad Pro und einem Surface Pro wieder ein Stück ausgeglichener und damit schwieriger geworden.

Zukunftsthema 4 – Wieder ein wenig mehr Liebe für die Profis

Nicht alles, wo Pro draufsteht, macht einen Profi richtig glücklich. Der Ärger der Community über das leistungsmäßig nicht sehr imposante MacBook Pro 2016 war groß. Entwickler und Filmemacher mit sehr großem Hardware-Hunger stört auch, dass das Mac Pro seit 2013 nicht erneuert wurde. Endlich scheint Apple diese Kundengruppe erhört zu haben. Mit dem ab Jahresende erhältlichen iMac Pro präsentiert Apple einen sehr leistungsstarken und ausbaufähigen Rechner für High-End-Ansprüche, für den rund 5.000 US-Dollar fällig werden. Auch die iMacs ohne „Pro“-Namenszusatz werden gehörig aufgebohrt.

new_2017_imac_pro_editing
Image by Apple

Dass Apple sich endlich wieder nicht nur mehr auf die lukrative Mobil-Sparte konzentriert, betrachte ich als ein vielversprechendes Signal. Nach wie vor schätzen viele Anwender den Mac in erster Linie als stabile und verlässliche Plattform für produktives und kreatives Arbeiten. Würden diese enttäuscht zu Windows wechseln, könnte darunter die Beliebtheit der gesamten Apple Produktpalette leiden. Schließlich sind Macs eine starke Säule in Apples Ökosystem. Fällt diese weg, würde auch die Nutzung von iPhones und iPads weniger Mehrwert bieten. Schließlich ist die gute Verzahnung doch ein wichtiger Vorteil gegenüber anderen Betriebssystemen.

Fazit WWDC 2017: Apples Zukunft ist vernetzt, virtuell und künstlich intelligent

Auf der WWDC 2017 hat Apple richtig abgeliefert. In der inhaltlich vollgepackten Keynote hat das Unternehmen bewiesen, dass es doch noch kluge Ideen hat, wenn es einmal nicht um den größten Umsatzbringer, das iPhone geht.

Ein Konzept, wie Apple auf AR und VR zu setzen plant, war überfällig. Insbesondere die AR-Plattform ARKit könnte sich als Coup erweisen. Der vernetzte Lautsprecher HomePod klingt auf dem Papier unverschämt teuer, aber auch richtig vielversprechend. Die neuen KI-Funktionen wirken deutlich praxisrelevanter als das, was viele andere Software-Entwickler derzeit mit dem Buzzword KI verknüpfen. Dass Apple professionelle Kreativanwender nicht nur mit Tablets, sondern auch wieder mit hochgerüsteten iMacs ansprechen möchte, ist ebenfalls begrüßenswert. Mit den Neuerungen in iOS 11 und dem überarbeiteten iPad Pro scheint Apple auch im Bereich Mobile Computing sehr gut aufgestellt.

Keine einzelne Neuerung auf der WWDC 2017 ist im engeren Sinn revolutionär. Apple knüpft an Trends an, die andere aufgestellt haben. Verwerflich finde ich das nicht. Ein wesentlicher Faktor für Apples Beliebtheit, ist die Fähigkeit, ausgereifte und stabile Produkte zu liefern. Behutsame Produktpflege (über viele praktische Detailneuerungen bei macOS und iOS habe ich hier noch gar nicht geschrieben) ist vor diesem Hintergrund viel wichtiger als hastig aufgegriffene Hypes. Sinnvoll ins Ökosystem integriert, könnten gerade Augmented Reality und der HomePod echte Knaller werden. Dass Apple spät auf der Party erscheint, ist nicht schlimm. Hauptsache, es ist endlich von seinem iPhone-Rausch aufgewacht.

Dieser Artikel erschien zuerst auf Applepiloten.


Images by Apple


Weiterlesen »

Leben wir in der Matrix? Was Elon Musk glaubt – und was wirklich dran sein könnte

In einem Interview im vergangenen Jahr hat der Technikunternehmer Elon Musk darauf hingewiesen, dass wir inmitten einer Computersimulation leben. Hört man das zum ersten Mal, scheint diese Behauptung weit hergeholt. Als Gründer von mehreren namhaften Unternehmen wie Tesla und Space X liegen die Interessen von Musks Geschäft eindeutig in führenden Technologien.

Der Schlüssel zu seiner Behauptung ist, dass sich Computerspiele in den letzten 40 Jahren rapide bis zu dem Punkt weiterentwickelt haben, dass sie innerhalb der nächsten paar Jahre so gestaltet sein werden, dass man vollkommen in ihnen verloren gehen kann. Dies geschieht mittels einer computergenerierten und kontrollierten Welt, die nahtlos mit der physischen Welt verschmolzen sein wird. Anders gesagt, wir sind kurz davor, eine Art erweiterte Realität (AR) zu erleben, die mit künstlicher Intelligenz einhergeht. Letztlich könnten die realen Erlebnisse und die Simulationen voneinander nicht mehr zu unterscheiden sein.

Musk sagt dazu folgendes: „Wenn Sie ein beliebiges Maß an Veränderung annehmen, werden die Spiele von der Realität nicht mehr zu unterscheiden sein. Das kann sogar dann passieren, wenn dieses Maß an Fortschritt im Vergleich zu dem jetzigen Standpunkt massiv abfallen würde. Dann sagen Sie einfach, okay, stellen wir uns vor, es sind 10.000 Jahre in der Zukunft. Auf der Evolutionsskala ist das noch gar nichts.

Also angenommen, wir bewegen uns dorthin, wo Spiele von der Realität nicht mehr unterscheidbar sind und diese Spiele könnten auf jedem digitalen Gerät oder einem PC oder wo auch immer gespielt werden und da wären vermutlich Billionen von diesen Computern und digitalen Geräten, dann wäre die logische Konsequenz, dass die Chance dafür, dass wir uns in der Basisrealität befinden, etwa eins zu einer Milliarde.“

Die Idee, dass Menschen in einer Realität leben, die von außenstehenden Institutionen wie Computern oder anderen Entitäten kontrolliert werden, geht schon seit einer Weile um. Dies ist eine Frage, die Philosophen und sogar Physikern über die Jahrhunderte hinweg erforscht haben. Der Philosoph Nick Bostrom kam schon 2003 zum gleichen Entschluss.

Die Ähnlichkeiten zwischen den Argumenten, die von Musk und Bostrom hervorgebracht wurden, gehen allerdings weiter als nur anzunehmen, dass wir ein Teil einer größeren Computersimulation sind. Beide betrachten die Entwicklung der künstlichen Intelligenz (KI) als einen gefährlichen Technikbereich. Laut Musk wird das Ergebnis des Fortschritts der KI-Forschung und ihrer Entwicklung das Ende der Zivilisation darstellen. Bostrom vertritt einen ähnlichen Standpunkt, sollte eine angemessene Risiko-Beurteilung während den Entwicklungsprojekten nicht durchgeführt werden.

Fakt oder Fiktion?

Aber ist das nur Paranoia? Die Behauptungen beinhalten mehr als seine bestehende Ähnlichkeit zu Science-Fiction-Filmen, wie Matrix und Odyssee im Weltraum, aber sind die von Musk und Bostrom geäußerten Ansichten wirklich Grund zur Sorge?

Die Möglichkeit, dass wir nicht in einer Simulation leben, wird stark durch wissenschaftliche Argumente unterstützt. Man bedenke die unglaubliche Rechenkraft der Computer, die benötigt würde, um eine solche Simulation zu erstellen. Ein Simulationssystem müsste all die Einheiten der Welt und deren Interaktionen managen. Dies würde eine riesige Menge an Verarbeitung erfordern. Weitere Unterstützung kann in Argumenten hinsichtlich der Quantenmechanik gefunden werden – eine wahrhafte lebensechte Simulation einer Stadt zu betreiben, mit all ihren Milliarden an Interaktionsbeispielen, würde einen Rechner erfordern, der ebenso groß wie eine Stadt ist. Das macht die Möglichkeit, dass wir in einer Simulation leben, höchst unwahrscheinlich.

Gesetzt dem Fall, eine Maschine würde existieren, die unsere Existenz simulieren könnte, wäre die Wahrscheinlichkeit recht hoch, dass wir sogenannte “Realitätsmängel“ erleben würden. Diese Fehler in der Simulation würden durch Pannen im Modell gesehen oder gehört werden.  Beispielsweise würden Sterne entweder existieren oder nicht, wenn sie durch Teleskope verschiedener Größen betrachtet werden. Solche Fehler wären in einer Simulation von diesem Ausmaß unausweichlich, aber bisher hat kein Mensch solcherlei Fehler bemerken können.

Maschinen, die mittels Selbstlernfunktion arbeiten oder eine Art superintelligenter Softwares sind immer noch sehr weit entfernt von dem momentanen Entwicklungsstand entfernt, außerdem können Systeme, die KI nutzen, diese nur in sehr eingeschränkt definierten Bereichen verwenden. Gegenwärtige Systeme lernen es, ihre Leistung in spezifischen Arbeitsbereichen zu optimieren – und gerade nicht die Welt zu übernehmen.

Neuronale Netzwerke, die manchmal auch als elektronisches Modell des Gehirns betrachtet werden, werden beispielsweise verwendet, um Veränderungen in Aktienmärkten vorauszusagen. Mithilfe der Nutzung von vorhandenen Aktiendaten können diese Systeme darauf trainiert werden, Gewohnheiten in Live-Datenübertragungen zu identifizieren, die darauf hinweisen könnten, dass etwas passieren wird. So können Händler rechtzeitig etwas tun, um negative Auswirkungen abzuschwächen.

Zudem gibt es Systeme, die eigens entwickelt wurden, um KI-Technik zu verwenden. Sie sollen die Arbeitsbelastung abmildern, indem sie voreingestellte Regeln und Fakten anwenden. Diese kennt man als wissensbasierte Systeme. Während die menschlichen Nutzer dieser Systeme nicht mitbekommen, dass sie mit einer Maschine interagieren – so wie Jill, der KI-Online-Tutor, der in einem KI-Kurs Fragen von Studenten beantwortet und ihnen Feedback gibt, sind sie auch entwickelt worden, um an oder mit klar definierten Problemen oder Bereichen zu arbeiten. 

Nimmt man die eingeschränkten Bereiche, in denen KI-Systeme entwickelte werden, erscheint die Gefahr, dass es zu einem Ende der Zivilisation durch die Erschaffung einer KI kommt, sehr gering. Tatsächlich wird die KI hauptsächlich dazu verwendet, um menschliche Entscheidungen und Handlungen zu unterstützen, statt sie zu ersetzen.

Alternative Realität

Allerdings scheint Musk in einem gewissen Teil seiner Theorie davon auszugehen, dass bestimmte Dinge in der nahen Zukunft auftreten werden. Eines davon ist die Entwicklung von Technologien, die die Schnittstelle zwischen Mensch und Maschine unterstützen sollen. Während wir im Alltag immer abhängiger von technischen Geräten werden, verändert sich die Art und Weise, wie wir sie nutzen, permanent. Unser Verlangen, auf Daten zuzugreifen und zu kommunizieren, hat zu einer Weiterentwicklung im Bereich der Wearables geführt. 

Musk behauptet, dass wir für die KI zu einer Art Haustier werden, sollten wir keine effektive Schnittstellen zwischen Hirn und Maschine entwickeln. Allerdings setzt sich Steve Mann, der Begründer der Wearables und der erweiterten Realität, dafür ein, beide Technologien zu kombinieren, damit die Gesellschaft davon profitiert. Diese Idee hat Hand und Fuß, da viel Arbeit auf unterstützende medizinische Systeme ausgelegt ist. Forscher entwickeln beispielsweise Hirnimplantate, um elektronische Signale im Gehirn zu nutzen und die Bewegung von beeinträchtigten Gliedmaßen zu stimulieren.

Es ist anzunehmen, dass wir eher nicht in einer Computersimulation leben und die Behauptungen von Musk haarsträubend sind. Dennoch denkt er in die richtige Richtung, denn wir werden in Zukunft noch viel mehr technische Entwicklungen erleben.

Künftige Entwicklungen innerhalb der AR und mit ihr verwandte Technologien werden uns in einer Welt leben lassen, die zunehmend miteinander verbunden ist. In diesen erweiterten Realitäten werden wir nahtlosen Zugang zu Daten und digitalen Darstellungen haben, die in die physische Welt projiziert werden. KI-Technik hilft uns dabei, die Daten zu verstehen und Entscheidungen zu treffen, die von Computern aufgestellt worden sind. Aber auch wenn sie in ihren Funktionen erweitert sind, werden diese Realitäten immer noch auf und in der echten Welt geschaffen sein.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „sea-landscape-nature-sky“ by Bradley Hook (CC0 Public Domain)


The Conversation

Weiterlesen »

Künstliche Intelligenz: Verstehen, wie Maschinen lernen

Roboter (adapted) (Image by jens kuu [CC BY 2.0] via flickr)

Von „Jeopardy“-Gewinnern und „Go“-Meistern zur berüchtigten werbebezogenen Rassenprofilierung scheint es, dass wir in eine Ära eingetreten sind, in der sich die Entwicklung von künstlicher Intelligenz rasend beschleunigt. Aber ein vollkommen empfindungsfähiges Wesen, dessen elektronisches „Gehirn“ sich komplett mit komplexen kognitiven Aufgaben beschäftigen kann und dabei faire, moralische Beurteilungen aufrechterhält, ist jetzt noch schwer vorstellbar.

Leider rufen jetzige Entwicklungen eine generelle Angst hervor, wie künstliche Intelligenz in der Zukunft werden könnte. Die Repräsentation künstlicher Intelligenz in der jüngsten Popkultur zeigt, wie vorsichtig – und pessimistisch – wir sind, wenn es um Technologie geht. Das Problem mit Angst ist, dass sie lähmen und Ignoranz fördern kann. Zu lernen, wie künstliche Intelligenz im Inneren funktioniert, kann diese Bedenken lindern und eine verantwortliche und sorgenfreie Beschäftigung ermöglichen.

Künstliche Intelligenz basiert auf Machine Learning als elegantes und leicht zugängliches Werkzeug. Aber um zu verstehen, was Machine Learning bedeutet, müssen wir zunächst untersuchen, wie die positiven Aspekte des Potentials die negativen Aspekte wettmachen.

Daten sind der Schlüssel

Einfach gesagt, bezieht sich Machine Learning darauf, dass Computern beigebracht wird, wie Daten analysiert werden, wie man zum Beispiel einzelne Aufgaben mittels eines Algorithmus‘ löst. So werden für die Handschrifterkennung beispielsweise Algorithmen benutzt, um Buchstaben zu unterscheiden, die auf einer menschlichen Handschrift basieren. Die Datenspeicherungszentren nutzen Regressionsalgorithmen, um in einer quantifizierbaren Weise den Verkaufspreis eines gegebenen Vermögens zu schätzen.

Machine Learning beschäftigt sich letzten Endes mit Daten. Fast jede Gesellschaft generiert Daten so oder so, man denke an Marktforschung, soziale Medien, Schulfragebögen oder automatische Systeme. Die Anwendungen von Machine Learning versuchen, versteckte Muster oder Korrelationen in dem Chaos der großen Datenmengen zu finden, um Modelle zu entwickeln, die Verhalten voraussagen.

Daten haben zwei Kernelemente – Stichproben und Kenndaten. Ersteres repräsentiert individuelle Elemente in einer Gruppe, das zweite die Anzahl der Eigenschaften, die sie teilen. Schauen wir uns zum Beispiel soziale Medien an: Die Nutzer sind Stichproben und ihre Nutzung kann in Kenndaten übersetzt werden. Facebook zum Beispiel gebraucht unterschiedliche Aspekte des „Gefallens“ von Aktivitäten, die sich von Nutzer zu Nutzer ändern kann, als wichtige Kenndaten für nutzerdifferenzierte Werbung.

Facebook-Freunde können ebenfalls als Stichproben verwendet werden, während ihre Verbindung zu anderen Menschen als Kenndaten verstanden werden. So wird ein Netzwerk etabliert, in dem Informationsverbreitung erforscht werden kann. Außerhalb von sozialen Medien nutzen automatisierte Systeme, die in industriellen Prozessen als Überwachungswerkzeug verwendet werden, Momentaufnahmen des gesamten Prozesses als Stichprobe und nehmen Ausmessungen zur gleichen Zeit als Kenndaten auf. Dies erlaubt dem System, Anomalien im Prozess in Echtzeit festzustellen. All diese unterschiedlichen Lösungen basieren darauf, dass Maschinen mit Daten gefüttert werden müssen und auf der Lehre, dass sie ihre eigenen Prognosen feststellen können, wenn sie erst einmal strategisch die gegebenen Informationen beurteilt haben. Und das ist Machine Learning.

Die menschliche Intelligenz als Anfangspunkt

Jegliche Daten können in simple Konzepte übersetzt werden und jede Anwendung von Machine Learning, künstliche Intelligenz eingeschlossen, benutzt diese Konzepte als Basiskomponenten. Wenn Daten erstmal verstanden wurden, ist es Zeit, zu entscheiden, was mit den Informationen geschehen soll. Eine der bekanntesten und intuitivsten Anwendungen von Machine Learning ist die Klassifikation. Das System lernt, wie es Daten in verschiedene Gruppen aufteilt, basierend auf einem Referenzdatensatz.

Dies ist direkt verbunden mit den Arten von Entscheidungen, die wir tagtäglich treffen, wenn es um die Gruppierung von ähnlichen Produkten geht, beispielsweise bei Küchenutensilien, Schönheitsprodukten oder bei der Auswahl von guten Filmen, basierend auf den früheren Erfahrungen. Während diese zwei Beispiel komplett unabhängig voneinander zu sein scheinen, basieren sie auf einer essentiellen Annahme von Klassifikation von Prognosen, durch die sie als gut etablierte Kategorien definiert werden.

Wenn man zum Beispiel ein Tiegel mit Feuchtigkeitscreme nimmt, nutzen wir eine spezielle Liste von Kerndaten – die Form der Verpackung oder der Geruch des Produkts, um korrekt vorherzusagen, dass dies ein Schönheitsprodukt ist. Eine ähnliche Strategie nutzt man, wenn man einen Film auswählt, indem man auf die Kerndatenliste zugreift – beispielsweise der Regisseur oder ein bestimmter Schauspieler – um vorherzusagen, ob dieser Film in eine der beiden Kategorien gehört: Gut oder schlecht.

Indem man die unterschiedlichen Beziehungen zwischen Kerndaten, verbunden mit einer Menge an von Stichproben, festhält, können wir vorhersagen, ob der Film es wert ist, geschaut zu werden, oder besser gesagt, wir können uns ein Programm erstellen, welches dies für uns tut.

Um aber in der Lage zu sein, diese Informationen zu manipulieren, müssten wir schon ein Datenwissenschaftler sein, also erfahren in Mathematik und Statistik und mit einer ausreichenden Programmierfähigkeit, um Alan Turing und Margaret Hamilton stolz zu machen, nicht wahr? Nun ja, nicht ganz.

Wir alle wissen genug über unsere Muttersprache, um im täglichen Leben zurecht zu kommen, selbst wenn sich nur einige Wenige unter uns auf die Felder der Linguistik und der Literatur hinausbegeben. Bei der Mathematik ist es ähnlich: Sie befindet sich immer um uns herum, so dass wir beim Errechnen von Wechselgeld oder beim Abmessen von Zutaten für ein Rezept keine größeren Probleme haben. Ebenso ist für den bewussten und effizienten Umgang kein größeres Wissen in Machine Learning Voraussetzung.

Irgendwo dort draußen befinden sich sehr wahrscheinlich extreme gut qualifizierte und professionelle Datenwissenschaftler – mit ein wenig Anstrengung kann aber auch jeder von uns die Grundlagen erlernen und die Art und Weise, wie sie Vorteile von Informationen sehen und ergreifen, verbessern.

Algorithme dir deinen Weg

Schauen wir uns noch einmal unseren Klassifikationsalgorithmus an und denken wir über eine Möglichkeit nach, mit der die Art und Weise imitiert wird, wie wir Entscheidungen treffen. Wir sind soziale Wesen, wie ist es also um unsere sozialen Interaktionen bestellt? Die ersten Eindrücke sind wichtig und wir haben alle ein internalisiertes Modell, dass innerhalb der ersten paar Minuten, in denen wir jemanden kennen lernen, evaluiert, ob wir ihn mögen oder nicht.

Zwei Folgen sind möglich: ein guter oder ein schlechter Eindruck. Für jede Person sind unterschiedliche Eigenschaften – Kenndaten – wichtig – auch unbewusst – die auf etlichen Begegnungen in der Vergangenheit basieren – Stichproben. Diese könnten alles sein, vom Ton der Stimme zu Extraversion und vor allem die Einstellung zu Höflichkeit. Für jede neue Person, die wir treffen, registriert ein Modell in unserem Kopf diese Eindrücke und erstellt eine Prognose. Wir können dieses Modell zu ein paar wichtigen Sätzen von Eindrücken herunterbrechen, gewichtet nach ihrer Relevanz.

Für einige Menschen ist vielleicht Attraktivität sehr wichtig, wohingegen für andere einen guten Sinn für Humor oder die Tatsache, dass derjenige Hunde mögen sollte, ausschlaggebend ist. Jede Person wird ihr eigenes Modell entwickeln, das komplett auf den Erfahrungen basiert. Unterschiedliche Daten resultieren in unterschiedlichen Modellen, die mit unterschiedlichen Folgen eingeübt werden. Unser Gehirn entwickelt Mechanismen, die, während sie uns nicht ganz klar sind, festschreiben, wie diese Faktoren gewichtet werden.

Was Machine Learning macht, ist folgendes: Sie entwickelt präzise, mathematische Möglichkeiten für Maschinen, um diese Folgen zu errechnen – besonders in Fällen, in denen wir die Masse an Daten nicht einfach handhaben können. Jetzt gerade, und vielleicht mehr denn je, sind Daten riesig und langlebig. Zugang zu einem Werkzeug zu haben, dass aktiv Daten nutzt, um ein besonderes Problem zu lösen, so wie künstliche Intelligenz, meint auch, dass jeder diese erleben und ausnutzen sollte und kann. Wir sollten das nicht nur deshalb tun, damit wir nützliche Anwendungen herstellen, sondern auch, um Machine Learning und künstliche Intelligenz in ein besseres und nicht so negatives Licht zu rücken.

Es gibt noch etliche Ressourcen für Machine Learning, auch wenn sie einiges an Programmierfähigkeit voraussetzen. Einige bekannte Sprachen, die für Machine Learning maßgeschneidert sind, sind schon zugänglich – von Grundlagenkursen bis hin zu vollständigen Lehrgängen. Meist braucht man nicht länger als einen Nachmittag, um einzutauchen und brauchbare Resultate zu erhalten.

All dies bedeutet nicht, dass uns das Konzept von Maschinen mit menschlicher Denkweise nicht beschäftigen sollte. Mehr darüber zu erfahren, wie diese Denkweise funktioniert, wird uns die Macht geben, Vertreter einer positiven Veränderung zu sein – und zwar so, dass wir die Kontrolle über künstliche Intelligenz behalten, und nicht anders herum.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Roboter“ by jens kuu (CC BY 2.0)


The Conversation

Weiterlesen »

Destination Check: Das war die Data Natives 2016

partnergrafik-datanatives

Die Data Natives-Konferenz war vom 26. bis zum 28. Oktober 2016 in Berlin zu Gast. An zwei Standorten konnten sich Interessierte über Big Data, Machine Learning, Artificial Intelligence und dem Internet of Things informieren und vernetzen.

Der Konferenzauftakt fand mit drei Workshops im Coworking Space Ahoy Berlin zu Themen wie Python und Data-as-Service-Produkten statt. Am zweiten und dritten Tag gaben sich dann Speaker wie Alexandra Deschamps-Sonsino, Director bei Designswarm, Philipp Krenn, Developer Advocate bei Elastic oder Anish Mohammed die Klinke oder viel mehr das Mikro in die Hand. Die Bolle-Festsäle in Berlin waren an beiden Konferenztagen gut gefüllt. Die Netzpiloten waren als Partner dabei und haben sich unter das Volk gemischt, um ein paar Eindrücke zu sammeln.


Besucherin: Indre J. – Studentin, Data Analyst bei Webtrekk


indre-juosenas-image-by-indre-juosenas-via-linkedin
Image by Indre

Indre studiert Statistik an der Otto-von-Guericke-Universität in Magdeburg und arbeitet in der Datenanalyse bei Webtrekk. Sie sucht nach Trends, Themen und Jobmöglichkeiten für die Zeit nach der Uni.

Was ist dein Gesamteindruck?

Mir gefällt es sehr gut, ich war sehr positiv überrascht. Ich hatte ein bisschen die Befürchtung, weil ich schon bei anderen Veranstaltungen war, dass die Speaker eher Produktpräsentationen machen, statt über die Methoden, die sie implementieren wollen, zu reden. Aber hier war das zum Glück ganz anders. Außerdem habe ich Glück gehabt und die Tickets gewonnen, weil ich für den Newsletter angemeldet war.

Haben Redner und Teilnehmer deine Erwartung erfüllt?

Ich habe nichts Spezielles erwartet und habe mir viel angehört. Ich finde, man kann hier gut mitkriegen, wie der Business-Alltag funktioniert. Leider suchen die Firmen eher nach Programmierern als nach Statistikern, aber man bekommt ein Gefühl für das Berufsfeld.

Was war dein persönliches Highlight?

Ich fand die Panel-Debatte zur Zukunft des Grundeinkommens ziemlich toll, das war ein wichtiges Thema.

Würdest du wiederkommen? Wem würdest du die Data Natives empfehlen?

Ich würde die Data Natives natürlich Programmierern empfehlen, aber auch für mich als Studentin war es sehr interessant. Leider ist der Eintritt nicht unbedingt etwas für ein Studentenbudget, vielleicht könnte man da noch mehr Möglichkeiten schaffen.


Besucher: Henrik Laurentz, Consultant bei Findwise


henrik_laurentz_web_0
Image by Henrik Laurentz via Findwise

Hendrik entwickelt Lösungen für Suchmaschinen und Datenanalyse. Auf der Data Natives wollte er mehr über den Stand der Dinge herausfinden und welche Ideen er für Findwise integrieren kann.

Was ist dein Gesamteindruck?

Ich habe zwar die Workshops verpasst, aber die Konferenz gefiel mir sehr gut. Die Talks waren sehr unterschiedlich, das mochte ich auch, viele waren auf einem Einsteigerlevel gehalten, für einige musste man auch technisch mehr im Thema sein – da gab es ja alles; angefangen damit, wie man Data Scientist wird bis hin zu neuralen Netzwerken. Es gab sogar einen Vortrag darüber, wie Machinelearning-Apps gebaut werden.

Haben Redner und Teilnehmer deine Erwartung erfüllt?

Ich hatte ein bißchen erwartet, dass die Konferenz akademischer angehaucht sein würde, ich bin aber nicht enttäuscht, dass es nicht ganz so war. Ich fand die meisten Speaker gut, vielleicht hätten einige von ihnen sich noch etwas besser vorbereiten und das Publikum mehr einbinden können. Vielleicht ist das aber auch nicht so einfach, wenn das Publikum aus allen möglichen Bereichen kommt.

Was war dein persönliches Highlight?

Das war eigentlich der erste Speaker, Daniel Molnar, mit den wichtigsten Grundlagen zu Data Science und Datenanalyse. Er hat ein paar Hinweise dazu gegeben, was gut oder besonders schlecht funktioniert und auf was man achten muss, wenn man mit Data Science arbeitet. Das fand ich sehr interessant.

Würdest du wiederkommen? Wem würdest du die Data Natives empfehlen?

Ich denke schon, dass ich wiederkommen werde. Ich mag Berlin sowieso, es war eine gute Wahl, herzukommen. Die Data Natives ist für Datenspezialisten auf jeden Fall gut geeignet, das Niveau ist schon eher anspruchsvoll. Es gibt hier aber auch viele Manager und Leute mit geschäftlichem Hintergrund. Das ist aber nicht schlecht, es ist nur etwas anders.

Mit welcher Motivation bist du hergekommen?

Meine Firma hat mich spontan als Besucher hergeschickt und weil alle meine Kollegen unterwegs waren, bin ich allein hergekommen.

 


Speaker: Iwan Lappo-Danilewsk, Technik und Betrieb bei aaron.ai


rpkgqnsg_400x400
Image by Iwan Lappo-Danilewsk

Iwan arbeitet als CTO bei aaron.ai und nahm am Startup-Battle teil, der am letzten Konferenztag angesetzt wurde und bei dem man seine Firma ins Gespräch bringen konnte. Er überzeugte schließlich nicht nur das Publikum, sondern auch die Jury der Data Natives.

Was ist dein Gesamteindruck?

Ich war bei den Workshops nicht dabei, aber am zweiten und dritten Tag fand ich es klasse. Ich habe Sachen gesehen, von denen ich mir gut vorstellen kann, sie bei uns einzubauen. Ich konnte ein bißchen über den Tellerrand hinausblicken und mehr darüber erfahren, mit wem man sich vernetzen kann.

Haben Redner und Teilnehmer deine Erwartung erfüllt?

Ich hatte ein bisschen erwartet, dass die Leute von der Größe des Events und der Bühnen eingeschüchtert sein würden, das war zum Glück nicht der Fall. Ein Speaker wollte ein bisschen zu sehr fachsimpeln, das hat nicht so funktioniert, dazu ist es dann doch nicht technisch genug. Aber insgesamt habe ich das Gefühl, dass man hier auf gebildetes, passendes Publikum trifft und dass auch die Nachfragen sehr fair sind, vor allem bei dem Startup-Battle.

Was war dein persönliches Highlight?

Mein Highlight war der Vortrag von Francisco Webber von Cortical.io Die haben eine Technologie, mit der man ein neuronales Hirn nachbilden kann, das um das Zehnfache schneller ist als andere das darstellen können. Wie sie das genau machen, finde ich gar nicht so wichtig, aber dass man jetzt Sachen machen kann, die vorher gar nicht möglich waren, das finde ich sehr spannend. Vorhin gab es auch noch einen sehr guten Talk von Steven Lemm von Outfittery über Produktentwicklung und Data Science, den fand ich auch sehr interessant.

Würdest du wiederkommen? Wem würdest du die Data Natvies empfehlen?

Ich würde auf jeden Fall wiederkommen. Generell sollten alle aus meiner Zielgruppe, IT-Manager und verantwortliche Technische Entwickler, also alle, die generell in einem Unternehmen arbeiten, hier herkommen. Ich glaube auch, dass hier alle gut hinpassen, die sich generell für technische Entwicklung interessieren. Egal, ob sie selber so etwas machen wollen oder sich nur in dem Bereich umschauen wollen. Solche Konferenzen können Augenöffner sein.

Mit welcher Motivation bist du hergekommen?

Ich wollte über meinen Tellerrand schauen und neue Leute kennenlernen, die in einem ähnlichen Feld unterwegs sind. Bei dem Battle habe ich mitgemacht, weil wir dazu eingeladen wurden und ich die Möglichkeit nutzen wollte, um das Projekt bekannter zu machen und uns zu vernetzen. Außerdem wollte ich ein bisschen Erfahrung sammeln, wie das ist, wenn man auf so eine große Bühne geht.

 

Weiterlesen »

Netzpiloten sind Partner von Data Natives + Ticketverlosung

partnergrafik-datanatives

Daten-Enthusiasten aufgepasst: Die Data Natives-Konferenz ist wieder mal in Berlin zu Gast, um euch über Big Data, Machine Learning, Artificial Intelligence und dem Internet of Things auf den neuesten Stand zu bringen!
Vom 26. bis zum 28. Oktober 2016 erwarten euch spannende Vorträge und Workshops an verschiedenen Standorten in Berlin.

Ihr könnt gleich zum Aufwärmen an spannenden Workshops teilnehmen. Außerdem habt ihr hier die einzigartige Möglichkeit, mit Datenspezialisten und Business-Experten zu Themen und Trends wie Big Data, FinTech oder den neuesten Entwicklungen in der computergestützten Gesundheitsindustrie zu diskutieren und eure Fragen loszuwerden. Die Workshops werden am 26. Oktober im Ahoy Berlin, dem Coworking Space mit nautischem Motto, abgehalten.

Die Vortragsreihe findet im Anschluss vom 27. bis zum 28. Oktober in den Bolle-Festsälen statt. Mit über 70 Speakern ist hier die Expertise zu Datensicherheit, Machine Learning und der Gründerszene versammelt. Unter ihnen sind Expertinnen und Experten wie Andrew Clegg, Data Scientist bei Etsy, Julia Kloiber, Project Lead bei der Open Knowledge Foundation Germany und Elizabeth Press, Co-Founder von D3M Labs.

Wer sich also zum Teil der Netzgeneration zählt, zu den aktuellen Themen informieren von den Machern und Experten inspirieren lassen will, sollte die Data Natives nicht verpassen!

+++ Gewinnspiel +++

Wer jetzt Lust bekommen hat, in Berlin bei diesem spannenden Event dabeizusein, sollte nicht länger zögern! Schreibt einfach eine Mail mit dem Betreff „Data Natives 2016“ an gewinn@netzpiloten.de und gewinnt ein 3-Tages-Ticket für die Veranstaltung. Ihr habt Zeit bis zum 07. Oktober um 16 Uhr. Viel Glück!


Image by Data Natives


Weiterlesen »

Wie Big Data vor Kreditkartenbetrug schützt

Kreditkarte (Image by jarmoluk [CC0 Public Domain], via Pixabay)

Machine Learning und Big Data wissen, dass du es nicht warst, der gerade deine Kreditkarte benutzt hat. Dies könnte Verbrauchern bald sehr viel nützen. Während du gerade zu Hause sitzt und dich um dein Zeug kümmerst, erhältst du einen Anruf der Abteilung für Betrugsermittlung deines Kreditkartenunternehmens, die dich fragt, ob du gerade in einem Kaufhaus in deiner Stadt etwas erworben hast. Du warst es jedenfalls nicht, der mit der Kreditkarte die teuren Elektrogeräte gekauft hat – die war nämlich den ganzen Nachmittag in deiner Tasche. Wie also konnte die Bank den Kauf als betrügerischen Akt identifizieren?

Kreditkartenunternehmen haben ein starkes Eigeninteresse daran, finanzielle Transaktionen zu identifizieren, die unautorisierter und krimineller Natur sind. Der Einsatz ist hoch. Der US-amerikanischen Studie zu Stornierungszahlen zufolge haben US-Amerikaner im Jahr 2012 insgesamt 26,2 Milliarden Transaktionen per Kreditkarte bezahlt. Der geschätzte Verlust durch illegale Buchungen betrug in jenem Jahr 6,1 Milliarden US-Dollar. Der staatliche Fair Credit Billing Act limitiert die Haftbarkeit der Eigentümer auf 50 US-Dollar bei unautorisierten Transaktionen, was dazu führt, dass Kreditkartenunternehmen die Verantwortung übernehmen müssen. Es ist offensichtlich, dass betrügerische Zahlungen große Auswirkungen auf die Bilanzen der Unternehmen haben können. Die Branche fordert von jedem Anbieter, der Kreditkarten vertreibt, eine jährliche Sicherheitsprüfung. Doch diese Maßnahme kann nicht jeden Betrug verhindern.

In der Bankenbranche sind Messrisiken eine gefährliche Angelegenheit. Das Hauptziel ist es, betrügerische Akten zu identifizieren, bevor ein zu großer finanzieller Schaden angerichtet wird. Aber wie funktioniert das? Und wer gewinnt das Wettrüsten zwischen den Dieben und den Finanzinstitutionen?

Die Truppen versammeln

Aus Verbraucherperspektive sieht die Aufdeckung von Betrugsfällen manchmal aus wie Zauberei. Der Prozess geschieht automatisch, ohne sichtbare Einwirkung eines Menschen. In das offenbar nahtlose und unverzügliche Vorgehen sind eine Reihe von ausgeklügelten Technologien verwickelt, die sich vom Finanzsektor über die Wirtschaft bis in den Rechts- und Informatikbereich ausweiten.

Natürlich gibt es einige recht einfache und direkte Feststellungsmechanismen, die keine umfassende Erklärung benötigen. Zum Beispiel kann das Unvermögen, die korrekte Postleitzahl anzugeben, die mit der Kreditkarte verbunden ist, wenn sie an einem ungewöhnlichen Ort eingesetzt wird, ein guter Indikator für einen Betrug sein. Aber Betrüger umgehen diesen Routinecheck geschickt – im Grunde ist das Auffinden der Postleitzahl des Opfers so einfach wie das Benutzen der Suchfunktion von Google.

Üblicherweise war die Betrugsauffindung auf Techniken der Datenanalyse angewiesen, die einen großen menschlichen Einsatz abverlangte. Ein Algorithmus entdeckte verdächtige Fälle, die letztendlich von menschlichen Prüfern bewertet werden mussten, die vielleicht auch die betroffenen Kartenbesitzer anriefen, um sie zu fragen, ob sie tatsächlich die Karten belastet hatten. Heutzutage stehen die Firmen einer konstanten Flut von so vielen Transaktionen gegenüber, dass sie auf Big-Data-Analysen als Hilfe angewiesen sind. Neu entstehende Technologien wie Machine Learning und das Cloud Computing tauchen im Feld der Betrugsaufdeckung auf.

Es gilt zu lernen, was echt und was fragwürdig ist

Einfach gesagt, bezieht sich das maschinelle Dazulernen auf sich selbst verbessernde Algorithmen, also vordefinierte Prozesse, die spezifischen Regeln folgen und von einem Computer ausgeführt werden. Ein Computer fängt mit einem Modell an und trainiert ihn dann mittels dem Trial- und Errorverfahren. So kann er dann Vorhersagen abgeben, beispielsweise zu dem Risiko, das mit einer finanziellen Transaktion verbunden ist.

Ein maschinell dazulernender Algorithmus muss jedoch erst trainiert werden, indem man ihm erst einmal Transaktionsdaten von eine sehr hohen Anzahl von Kartenbesitzern einführt. Die Abfolge von Transaktionen ist ein Beispiel dieser Art der Trainingsdaten. Beispielsweise tankt eine Person einmal pro Woche, sie kauft alle zwei Wochen Lebensmittel ein und so weiter. Der Algorithmus lernt, dass dies ein normaler Transaktionsablauf ist.

Nach der Durchführung dieser genauen Abstimmung werden Kreditkartentransaktionen möglichst in Echtzeit durch den Algorithmus geprüft. Dieser spuckt dann eine Einschätzung heraus, die die Wahrscheinlichkeit angibt, dass eine Transaktion betrügerisch war (beispielsweise hier: 97 Prozent). Angenommen, das Betrugsauffindungssystem ist so konfiguriert, dass es jede Transaktion blockiert, die eine Wahrscheinlichkeit von über 95 Prozent aufweist, könnte diese Beurteilung sofort eine Abweisung der Karte an dem jeweiligen Verkaufspunkt auslösen.

Der Algorithmus bezieht viele Faktoren ein, um eine Transaktion als betrügerisch einzuordnen: die Vertrauenswürdigkeit des Verkäufers, das Kaufverhalten des Karteninhaber bezogen auf Zeit und Ort, die IP-Adresse, und so weiter. Je mehr Anhaltspunkte es gibt, desto präziser ist die Entscheidung.

Dieser Prozess macht eine rechtzeitige – beziehungsweise eine Echtzeitaufdeckung von Betrug möglich. Kein Mensch kann tausende Daten simultan auswerten oder eine Entscheidung in einem Bruchteil einer Sekunde treffen.

Hier ist ein typisches Szenario. Wenn du zum Kassierer gehst, um im Supermarkt zu zahlen, ziehst du deine Karte durch. Die Transaktionsdetails wie die Zeitangabe, der Betrag, die Identität des Händlers und die Mitgliedsschafsinformationen werden zu dem Aussteller der Karte übermittelt. Diese Daten werden in den Algorithmus eingespeist, der die persönlichen Einkaufsmuster kennt. Passt diese bestimmte Transaktion in das Verhaltensprofil, das aus vielen vergangenen Kaufszenarien und Daten zusammengesetzt ist?

Der Algorithmus weiß sofort, wenn deine Karte in dem Restaurant benutzt wird, in das du jeden Samstagmorgen gehst – oder an der Tankstelle zwei Zeitzonen entfernt von dir zu einer eigenartigen Zeit um 3 Uhr morgens. Er prüft auch, ob die Nutzung deiner Transaktion von der gewöhnlichen abweicht. Wenn die Karte plötzlich zwei Mal an einem Tag für die Auszahlung eines Dispositionskredits verwendet wird, obwohl die vergangenen Daten keine solche Verwendung aufzeigen, wird dieses Verhalten die Betrugswahrscheinlichkeit steigern. Wenn die Betrugswahrscheinlichkeit der Transaktion eine gewisse Schwelle überschritten hat, wird – meist nach einer kurzen Prüfung durch eine reale Person – der Algorithmus mit dem Verkaufssystem kommunizieren und es auffordern, die Transaktion zu verwerfen. Onlinekäufe durchlaufen denselben Prozess.

Bei dieser Art des Systems werden erhebliche menschliche Eingriffe der Vergangenheit angehören. Tatsächlich könnten sie ganz abgeschafft werden, denn die Reaktionszeit ist viel länger, wenn ein menschliches Wesen zu sehr in den Kreislauf der Betrugsauffindung eingebunden ist. Nichtsdestotrotz können Menschen noch eine Rolle spielen – sowohl wenn es darum geht, einen Betrug zu bewerten als auch die Folgen einer verweigerten Transaktion abzuwickeln. Wenn eine Karte mehrmals abgelehnt wird, kann eine reale Person den Kartenbesitzer anrufen, bevor die Karte dauerhaft gesperrt wird.

Computerdetektive in der Cloud

Die reine Anzahl an Finanztransaktionen, die bearbeitet werden müssen, ist im Bereich von Big Data tatsächlich überwältigend. Aber das maschinelle Dazulernen gedeiht auf den Datenbergen – mehr Information lässt nämlich die Genauigkeit des Algorithmus steigen und hilft dabei, Falschmeldungen zu beseitigen. Das kann beispielsweise von verdächtigen Transaktionen ausgelöst werden, die eigentlich legitimiert sind (zum Beispiel durch die Nutzung einer Karte an einem unerwarteten Ort) – zu viele Warnsignale sind genauso schlecht wie gar keine.

Es benötigt eine Menge an Rechenleistung, um sich durch dieses Datenvolumen zu wühlen. Zum Beispiel produziert PayPal jederzeit mehr als 1,1 Petabytes an Daten für 169 Millionen Kundenaccounts. Dieser Überfluss an Daten – ein Petabyte entsprechen zum Beispiel mehr als 200.000 DVDs – hat einen positiven Einfluss auf das maschinelle Lernen des Algorithmus, aber er kann auch eine Hürde sein für die die EDV-Infrastruktur eines Unternehmens.

Und hier kommt das Cloud Computing ins Spiel: Ausgelagerte EDV-Ressourcen können eine wichtige Rolle spielen. Cloud Computing ist größenvariabel und nicht durch die eigene Rechenleistung des Unternehmens limitiert.

Betrugsaufdeckung ist ein Wettrüsten zwischen dem Guten und dem Bösen. Derzeit scheinen die Guten an Boden gutzumachen. Dies geschieht mittels neuer Innovationen der IT-Technologien wie Chip- und PIN-Technologien mit Verschlüsselungsfähigkeiten, Machine Learning, Big Data und natürlich dem Cloud Computing.

Sicherlich werden Betrüger weiterhin versuchen, die Guten auszutricksen und die Grenzen der Betrugsaufklärung herauszufordern. Drastische Änderungen innerhalb der Zahlungsmuster selbst sind eine andere Hürde. Dein Handy ist nun in der Lage, Kreditkarteninformation zu speichern und kann so genutzt werden, um kabellose Zahlungen zu tätigen – was wiederum neue Angriffspunkte liefert. Zum Glück steht die derzeitige Generation der Betrugsaufdeckung den Technologien des Zahlungssystems größtenteils neutral gegenüber.

Dieser Artikel erschien zuerst auf “The Conversation” unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image „Kreditkarte“ by jarmoluk (CC0 Public Domain)


The Conversation

Weiterlesen »

5 Lesetipps für den 14. Juli

In unseren Lesetipps geht es heute um Social Media in der Politik, Machine Learning in der Logistik, Reddit, Food Delivery und Revenge Porn. Ergänzungen erwünscht.

  • SOCIAL MEDIA The Guardian: Twitter actively shapes fast-moving events: Luke Harding hat sich im Guardian mit einem äußerst interessanten Teilaspekt der Europakrise beschäftigt: die Kommunikation (via Social Media). Auffällig ist, dass die Politiker mit der die europäische Idee zerstörenden Politik, auch die sind, die nicht online kommunizieren. Es ist die Gegenseite um Tsipras, die die Debatte auch öffentlich vorantreiben. Via Twitter hat die ganze Welt die Möglichkeit, die Debatte um eine Wirtschaftskrise mitzuverfolgen, was vollkommen neu ist.

  • LOGISTIK Amazon Logistikzentren: Machine Learning in der Logistik – wenn Maschinen die menschliche Arbeit erleichtern: Das ist jetzt sicherlich kein kritisches Interview eines Journalisten oder einer Journalistin mit Dr. Ralf Herbrich, dem Leiter des Amazon Development Center in Berlin, aber dieses Interview des Amazon-Logistik-Teams gibt einen interessanten Einblick in das Thema Machine Learning in der Logistik. Herbrichs Zentrum unterstützt die Amazon-Gruppe mit einem Team von Wissenschaftlern und hochqualifizierten Entwicklern unter anderem im Bereich Machine Learning. Amazon hat ihn befragt, wie Computer lernen und wie Machine Learning die Arbeit in der Logistik erleichtert.

  • REDDIT Horizont: Umstrittene Reddit-Chefin Pao tritt zurück: Ohne den Streit zwischen Ellen Pao als Interimschefin von Reddit und Teilen der Community vollkommen überblicken und bewerten zu können, drückt ihr Rücktritt auf beachtenswerter Art und Weise die mögliche Macht einer Community aus. Vor ihrer Kündigung gab es sogar eine Online-Petition mit über 200.000 Unterschriften, die ihrer Ablösung forderte. Interessant könnte ein Satz Paos werden, wenn es um die Zukunft von Reddit geht: „Sie [der Vorstand] hatten eine aggressivere Sicht der Dinge als ich.“

  • FOOD DELIVERY TechCrunch: The Billion Dollar Food Delivery Wars: Der Markt für die Lieferung von Essen funktioniert noch überwiegend offline, wie auch Martin Mignot zugibt. Er war die letzten anderthalb Jahre im Vorstand von Deliveroo und hat einen sehr guten Einblick in die „Food Delivery“-Szene. Er hat drei Thesen und eine Vermutung über den kommenden „Food Delivery War“ aufgestellt, die er in einem Artikel auf Techcrunch.com vorstellt.

  • REVENGE PORN Badoink: Google Activates “Right to Be Forgotten” For Victims of Revenge Porn: Auch ohne ein unüberlegtes „Recht auf Vergessen werden“ unternimmt Google in den USA aus Eigeninitiative heraus Maßnahmen, um Opfer von Revenge Porn etwas besser zu schützen. Auch Google kann natürlich nicht die Bilder von den Seiten verschwinden lassen, aber diese Seiten und Fotos unauffindbar machen. Denn das liegt, auch wenn das beim europäischen Gerichtsurteil gerne in den möglichen Folgen für die Presse- und Meinungsfreiheit übersehen wird, wirklich in Googles Hand. In diesem Fall wäre das sogar begrüßenswert.

CHIEF-EDITOR’S NOTE: Wenn Ihnen unsere Arbeit etwas wert ist, zeigen Sie es uns bitte auf Flattr oder indem Sie unsere Reichweite auf Twitter, Facebook, Google+, Soundcloud, Slideshare, YouTube und/oder Instagram erhöhen. Vielen Dank. – Tobias Schwarz

Nutze Netzpiloten 1-Klick: Mit nur einem Klick werden dir bequem alle 40 Sekunden die hier besprochenen Seiten „vorgeblättert“ START.

Weiterlesen »