Das war der #neuenähe-Hackathon 2016


Dieser Beitrag ist Teil einer Artikelreihe zum gemeinsamen Event und Hackathon von Microsoft und der Aktion Mensch für mehr Inklusion und Teilhabe im Netz.


Wenn man an Inklusion denkt, ist das Internet nicht zwingend der erste Ort, der einem in den Sinn kommt. Cyber-Mobbing, Hatespeech und auch einfach schlechte Usability für Menschen mit Behinderungen überwiegen derzeit noch. „Neue Wege gehen und damit Begegnungen schaffen“ – das haben sich Aktion Mensch und Microsoft für den ersten #neuenähe -Hackathon zur Aufgabe gemacht. Vom 25. Bis 27. November hat die Veranstaltung für mehr Inklusion und Teilhabe im Netz im Berliner Microsoft Office stattgefunden.

Getreu des Namens „Hackathon“ haben es sich vielfältige Entwicklerteams, bestehend aus rund 60 Teilnehmern mit und ohne Behinderung, zum Ziel gemacht, Projekte innerhalb eines Programmier-Marathons zu entwickeln, die Lösungen und Ansätze für bestimmte Themen und Technologien darstellen. Zum ‚Internationalen Tag der Menschen mit Behinderung‘ am 1. Dezember veranstalteten die Verantwortlichen schließlich eine feierliche Preisverleihung, bei der die Gewinner-Projekte mit insgesamt 30.000 Euro Fördergeld ausgezeichnet wurden und die Möglichkeit haben, die jeweilige Idee als Start-up auf den Markt zu bringen.

Entwickeln und Einbeziehen – darum ging es in den prall gefüllten 48 Stunden des Hackathons. Insgesamt drei Teams konnten sich dabei besonders beweisen und wurden als Gewinner ausgezeichnet. Inklusion braucht Innovation – genau das war das Ziel des Hackathons und mit vielen tollen Projekten wurde damit ein Schritt in die richtige Richtung für mehr Barrierefreiheit im Netz und im Umgang mit Software gemacht.

„I’m pickin‘ up good vibrations“

WhatsApp, Facebook, Skype – eigentlich muss man gar nicht mehr aufs Smartphone schauen, um zu wissen, über welchen der zahlreichen Social-Media-Kanäle, ganz zu schweigen vom kultigen, aber veralteten „oh oh“-Ton des Messengers ICQ man diesmal kontaktiert wurde. Nicht nur der Smartphone- und Multimedia-Alltag ist stark über auditive Einflüsse gesteuert, sondern auch das ganz normale ‚real life‘. Als Mensch ohne Behinderung und mit allen Sinnen denkt man schon mal, man wäre im Signal-Wirrwarr verloren. Aber wie bewältigen dann Menschen mit Sinnes-Behinderungen, wie beispielsweise Gehörlose, den audiovisuellen Alltag?

Diese Frage stellte sich das Team rund ums Projekt „Good Vibrations“ innerhalb des Themenbereichs „Interchangable Communication“. Die fünf Jungs aus Berlin konnten mit ihrer Idee auf ganzer Linie überzeugen. Die App rund um ein Smartband, das Geräusche wie beispielsweise ein Türklingeln übersetzt, richtet sich auf die Bedürfnisse von hörbehinderten Menschen aus. Zweck der App ist es, Hörbehinderten den Umgang mit dem häufig auf auditive Inputs ausgerichteten Alltagsgegenständen durch die Vibrationsfunktion des dazugehörigen Armbandes zu erleichtern.

Was bisher eher mit einer kompletten Wohnungsausstattung oder gar einem Signalhund üblich war, soll jetzt Inklusion im Smartphone-Zeitalter bewirken. Indem die App Alltagstöne und Signale, wie etwa den Wecker oder auch mal im Notfall einen Feueralarm, durch ein vibrierendes Gerät am Handgelenk spürbar macht, wird der Alltag eines Gehörlosen in der lauten Gesellschaft so immerhin ein wenig einfacher. Key-Aspekte des Projekts sind also die praktische Usability im Haushalt, die angestrebten geringen Kosten für das Armand und kein Bedarf für einen Umbau der Wohnung oder ähnliches. Hier stellt sich das Projekt nochmal mit eigenen Worten im Pitch vor:

Das Team hat zudem die Chance, sich für die dritte Auswahlrunde des viermonatigen Microsoft Accelerator-Programms in Berlin zu qualifizieren. Dort können sie ihre Idee mit fachkundiger Unterstützung marktreif machen. Dabei stehen ihnen Mentoren und Coaches zur Seite und das Projekt kann in zahlreichen Workshops zusammen weiterentwickelt werden. Jedes Jahr im Dezember werden die ausgearbeiteten Projekte schließlich präsentiert.

Emotionen erkennen

Menschen und deren teilweise subtilen und nur nuanciert unterschiedlichen Emotionen sind nicht immer leicht zu lesen und einzuschätzen, schon gar nicht mit einer Beeinträchtigung. Das Team Metrilus hat deswegen eine Technologie entwickelt, die Emotionen erkennen soll. Mittels einer digitalen Körper- und Spracherkennung sollen Mimik und Gestik der Personen erkannt und eingeordnet werden.

Die aus dem Raum Nürnberg und Erlangen stammende Metrilus GmbH gibt es bereits seit 2010. Sie spezialisiert sich in 3D-Sensorik und deren Nutzen für computerbasierte Assistenzsysteme. Zum Hackathon haben sie zwei junge Entwickler aus ihrem Team geschickt, die an einer softwarebasierten Technologie mit dem Namen „Emotionserkennung“ arbeiteten.

Der Software-Prototype erkennt Gesichtsausdrücke und projiziert daraufhin den Smiley-Äquivalent zur jeweiligen Emotion auf den Bildschirm. Doch Emotion setzt sich noch aus so viel mehr zusammen, deswegen soll auch mittels einer Spracherkennung eine Diskrepanz zwischen Mimik und Tonfall erkannt werden. Beispielsweise fällt es Personen mit dem Asperger-Syndrom besonders schwer, Gestik oder Mimik zu deuten, die Technologie würde eine Kommunikation und ein besseres Miteinander also definitiv bereichern.

Kommunikation sollte Menschenrecht sein

Gregor Biswanger ist CEO bei CleverSocial und hat mit „Projekt Werner” beim Hackathon eine echte Herzenssache realisiert. Sein älterer Bruder Werner ist schwerstbehindert, kann nicht laufen, sprechen oder schlichtweg selbstständig sein. Kommunizieren kann der 32-jährige ausschließlich mit seiner Mutter, selbst der jüngere Bruder, der mit ihm aufgewachsen ist, hat Probleme damit. Das wollte Gregor so aber nicht akzeptieren. Die Fähigkeit, barrierefrei mit behinderten Menschen zu kommunizieren, ist für ihn laut eigener Aussage ein Menschenrecht – und so hat er das nach seinem Bruder benannte „Projekt Werner“ ins Leben gerufen.

Den Startschuss für das Projekt gab Gregor bereits Anfang 2016 mit einem Aufruf an Entwickler und Programmierer, mit denen er schließlich im März einen eigenen Hackathon in Ingolstadt veranstaltete.

Zur Entwicklung wurden Hardwares wie die Intel RealSense-Kamera oder die Microsoft Kinect verwendet, wobei letztere vor allem durch ihre Zugänglichkeit – denn sie ist ganz einfach im Elektrohandel erhältlich – bestochen hat. Mausklicks sind beispielsweise durch das Microsoft Tobii eye-tracking -System möglich, das Schließen des linken oder rechten Auges ist dann das Äquivalent des jeweiligen Mausklicks und funktioniert laut den Entwicklern präziser als gedacht.

Konkret soll die Software die Mimik des Nutzers erkennen und so eine gesichtsgesteuerte Browserbedienung am PC ermöglichen. Persönliches Highlight für Gregor: zum ersten Mal im Leben seines Bruders Werner kann dieser etwas selbstständig kontrollieren, ohne direkt auf die Hilfe anderer angewiesen zu sein.

Sein Anliegen war es auch, dass das „Projekt Werner“ ein Open Source-Programm ist, also für jeden zugänglich und kostenfrei – eben, wie er sagt, ein Recht zur Kommunikation für jeden. Als seine erste hochoffizielle Amtshandlung mit „Projekt Werner“ möchte Werner Mädchen anschreiben!


Image „Hackathon“ by Andrew Eland (CC BY-SA 2.0)


Schlagwörter: , , , , , , , , , , , , , , , , , , , ,
Lisa Kneidl

Lisa Kneidl

hat in Erlangen ihren Bachelor in Medienwissenschaft gemacht. Der Norden hat gerufen und somit ist sie jetzt in Hamburg bei den Netzpiloten gelandet.

More Posts - Twitter