All posts under Ethik

Facebook sponsert TU München mit 6,5 Millionen Euro für KI-Forschung

Universitäten sind für ihre Forschungen auf Geldgeber angewiesen. Zum Großteil finanzieren sich die deutschen Hochschulen aus öffentlicher Hand, doch gelegentlich gibt es auch Geldgeber aus der Wirtschaft. Die Technische Universität München (TUM) bekam jüngst prominente Unterstützung durch Facebook. Das bekannte US-Unternehmen fördert eine neue Initiative der TUM. Diese befasst sich mit der Ethik künstlicher Intelligenz.

An der TU München zählen auch ethische Werte

In der neuen Leitstrategie der TU München werden Forschung und Lehre fortan im Kontext eines „Human-Centered Engineering“ ausgestaltet. Das bedeutet, dass auch Disziplinen wie Philosophie, Ethik, Soziologie und Politikwissenschaften gefordert sind. Mit diesem Ausbauprogramm für Geistes- und Sozialwissenschaften, möchte man eine kulturelle und gesellschaftliche Rückverankerung der teils sprunghaft fortschreitenden Entwicklung sicherstellen.

Aus diesem Ziel entstand übrigens 2012 im Rahmen der Exzellenzinitiative das Munich Center for Technology in Society (MCTS). Das MCTS macht sich zum Ziel, die Wechselwirkungen zwischen Wissenschaft, Technologie und Gesellschaft zu verstehen und selbst zu gestalten.

Prof. Christoph Lütge vom Peter Löscher-Stiftungslehrstuhl für Wirtschaftsethik formuliert die übergeordneten Ziele: „Wir wollen Leitlinien liefern für die Identifikation und Beantwortung ethischer Fragen der Künstlichen Intelligenz für Gesellschaft, Industrie und Gesetzgeber.“

Facebook-Unterstützung ohne weitere Vorgaben

Facebook unterstützt das neue TUM Institute for Ethics in Artificial Intelligence mit 6,5 Millionen Euro. Dabei stellt das bekannte Unternehmen keine weiteren Vorgaben.

„Bei Facebook ist der verantwortungsvolle und umsichtige Umgang mit der KI für alles, was wir tun, von grundlegender Bedeutung. Die KI wirft jedoch komplexe Probleme auf, die Menschen und Gesellschaft betreffen und die die Industrie allein nicht beantworten kann“, sagt Joaquin Quiñonero Candela, Director of AI bei Facebook. „Wir freuen uns, die Gründung des unabhängigen TUM Institute for Ethics in AI unterstützen zu können, und sind überzeugt, dass das Institut das wachsende Forschungsfeld der Ethik im Bereich der neuen Technologien vorantreiben und grundlegende Fragen im Zusammenhang mit der Nutzung und den Auswirkungen von AI untersuchen wird.“

Die Zuwendung wurde außerdem auf der Konferenz „Digital-Life Design“ in München von Facebook-COO Sheryl Sandberg offiziell bestätigt.


Image by phonlamaiphoto via stock.adobe.com

Weiterlesen »

Ungewisse Zukunft: Wie verändern Roboter unser Leben?

Andy Kelly - unsplash com

Sie sprechen viele verschiedene Sprachen, können Daten auswerten, stabile Prognosen aufstellen, Emotionen simulieren und diese auch in Menschen erwecken – humanoide Roboter. Ob als Assistenten bei der Kindererziehung, der Altenpflege, dem Hotelempfang oder einfach als Alltag-Simplifizierer, sie scheinen allmählich Einzug in unser Leben zu nehmen. Werden humanoide Roboter in Zukunft nicht mehr aus unserem Alltag wegzudenken sein?

„Am Schluss werden wir alle erkennen, dass jeder von uns ein ‘Algorithmus’ ist.”

Der mittelfristige Wunsch vieler Roboterentwickler ist das Integrieren der Humanoide in den Alltag. Dies dient dem Zweck der Abnahme von lästigen alltäglichen Aufgaben, aber auch der emotionalen Interaktion zwischen Mensch und Maschine. Die menschenähnlichen Maschinen befinden sich immer in Menschennähe und können deren Handlungen stets speichern und auswerten. Somit kann die Transparenz des Menschen vollends verloren gehen, so Professor Rademacher von der Universität Ulm. Dank der ständigen Datensammlung und Auswertung der menschlichen Handlungen, sowie dem Bezug auf große Datenbanken könne jeder Mensch für die Maschine vorhersehbar und leicht durchschaubar werden. Professor Rademacher ist sogar der Meinung: “Am Schluss werden wir alle erkennen, dass jeder von uns ein – wenn auch höchst komplexer, hochgradig individueller und in seinem Verhalten nicht prognostizierbarer – ‘Algorithmus’ ist”. So kann wahrscheinlich, mit dem Einzug der humanoiden Roboter in unser Leben, jeder Mensch zu einem kontinuierlich Informationen an große, kapitalistische Konzerne gebendes Rädchen eines riesigen Systems werden.

Gefährdung des sozialen Zusammenlebens

Bisher waren die Menschen, um Einsamkeit zu bekämpfen oder dem narzisstischen Trieb nach Anerkennung nachzugehen, auf die Interaktion mit anderen Menschen angewiesen. Dies kann sich stark ändern, wenn der technisch perfekt entwickelte Humanoide bei uns einzieht: Er urteilt nicht über uns, hat keine Erwartungen, kann explizite und auf uns zugeschnittene Informationen geben und sogar humane Gefühle erkennen und simulieren. Der humanoide Roboter, um ein Beispiel zu nennen, fürchtet sich bei Dunkelheit. Wie verändert dieses menschliche Verhalten die Interaktion zwischen Mensch und Maschine? Martin Vesper, Chief Executive Officer bei digitalSTROM, ist der Meinung, dass zwar die Roboter für soziale Zwecke genutzt werden, jedoch keineswegs die Mensch-zu-Mensch-Interaktion dadurch in die Brüche gehen werde.

Auch “Rabeneltern” bekommen durch die voranschreitende Technologie die Möglichkeit, die Erziehung ihrer Kinder nahezu vollständig einer Roboter-Nanny zu überlassen. Mit dieser möglichen Gefahr haben sich bereits viele Wissenschaftler beschäftigt. Der britische Informatik-Professor und Ethiker Noel Sharkey schlägt vor, den Roboter mit einer Fläche zu versehen, auf die ein Elternteil regelmäßig ihre Hand legen muss. So könne gewährleistet werden, dass Elternteile sich stets in unmittelbarer Nähe befinden. Und wenn die haptische Legitimation ausfalle, schlage der Roboter Alarm, führt Sharky weiter aus.

Die Interessen der Hersteller

Humanoide erfüllen mittlerweile die technischen Voraussetzungen für sehr viele Fähigkeiten – jedoch hängt die tatsächliche Ausführung der Aufgaben von der Programmierung durch die Hersteller ab. Da stellt sich die Frage: Was genießt höheren Stellenwert in den Großkonzernen – die Ethik oder die Gewinnmaximierung? Ist es wichtiger, die Privatsphäre und die Intransparenz der Individuen zu wahren, oder stetig Daten zu sammeln und damit die Technik und den Kapitalismus voranzubringen? Martin Vesper vertritt die Meinung, jedes Unternehmen sei verpflichtet, dem Grundgesetz Folge zu leisten. Es liege in ihrer Verantwortung, die Roboter gemäß den Grundrechten zu programmieren und somit die Interessen der Hersteller und der Konsumenten zu vereinen.

Die Frage nach der Wohlstandsverteilung

Eine weitere, mögliche Konsequenz der fortschreitenden Robotik und der Einsetzung Humanoider in das gesellschaftliche Leben kann der schwindende Bedarf an hochqualifizierten Arbeitskräften, gerade in den beratenden Bereichen der Wirtschaft und Medizin, sein. Dies birgt zum einen die Gefahr der Arbeitslosigkeit – gerade bei den gut bezahlten Jobs. Zum anderen stellt sich die Frage nach der Wohlstandsverteilung: Bereits Reiche und oft auch dadurch Arbeitgebende können sich den Kauf von technisch hochentwickelten Robotern leisten und sie in vielen Arbeitsbereichen einsetzen. Viele Menschen können durch Roboter ersetzt werden und verlieren ihre Arbeitsplätze. Eine mögliche Konsequenz dieser spekulativen Entwicklung könnte das Wegfallen der Mittelschicht und das Erstarken der Oberschicht sein. Die Schere zwischen Arm und Reich würde aufklaffen und das Machtmonopol sich bei den Reichen zentrieren. “Wir müssen Dinge anpassen, ohne Zweifel, sonst haben wir solche Konsequenzen”, meint Martin Vesper. Er hält das Problem für schwierig, jedoch für lösbar.

Die dritte Welle der Digitalisierung stellt uns zweifelsohne vor neue, bisher nicht gekannte, Herausforderungen. Sie zeigt uns, dass der technische Fortschritt nicht stagniert, sondern neue Dimensionen annimmt. Und wir müssen uns fragen: Wie gehen wir damit um? Verschließen wir uns vor der Weiterentwicklung oder leisten wir einen aktiven Beitrag zur Zukunftsgestaltung? Der Tenor ist: Es gilt, sich den Veränderungen zu stellen, mögliche Vor- und Nachteile zu diskutieren und ethisch vertretbare Lösungsansätze anzubieten. Ratsam sind hierbei die Auseinandersetzungen auf verschiedenen Ebenen und somit die Sensibilisierung möglichst vieler Menschen.

Wie werden humanoide Roboter unsere Wahrnehmung und unser Verhalten verändern? Wie werden sie unseren sozialen Zusammenhalt beeinflussen? Und wie weit wollen wir sie in unser Leben integrieren? Diesen und weiteren Fragen zur Digitalisierung geht die Ethik-AG der Initiative D21 seit einem Jahr bei regelmäßigen Treffen nach.

Dieser Artikel erschien zuerst auf Politik-Digital.de. Mit freundlicher Genehmigung der Redaktion.


Andy Kelly / unsplash.com

Weiterlesen »

Bildungsethik jenseits der Zeigestock-Pädagogik

Classroom (adapted) (Image by Wokandapix)(CC0 Public Domain) via Pixabay

Was Schulen und Hochschulen den Lernenden vermitteln, hat wenig mit Ethik zu tun. Aus Verärgerung über die Vermischung von Moral und Ethik hat Christoph Schmitt ein Buch geschrieben. Titel: „Die Moral ist tot. Es lebe die Ethik – Warum ethische Bildung Schule machen muss.

Der Sinn der Ethik besteht darin, dass wir aus der Differenz zwischen Moral und Ethik lernen, wie wir in Zukunft unsere Gemeinschaft einigermaßen sinnvoll gestalten können.“ Bildungsinstitutionen verharren in einem moralischen Korsett und beflügeln nicht die Weiterentwicklung von Demokratie, Menschenrechte, Ökologie, Gerechtigkeit und Ökonomie.

Moralischer Ablasshandel

Moralvermittlung in Schulen und Hochschulen heißt vor allem, dass wir in der Erziehung lernen, was man tut und was man nicht tut. In der Schule lernen wir ganz bestimmte gesellschaftliche Strukturen, Hierarchien, wir lernen, wer das Sagen und die Macht hat. Und wir lernen eigentlich, dass gut begründetes Argumentieren nicht wirklich weiterhilft“, so Schmitt im ichsagmal.com-Autorengespräch.

Am Ende bleibt nur Fatalismus übrig oder ein moralischer Ablasshandel, den Wissenschaftler wie Professor Karl Homann als Ethik verkaufen. Bewege Dich in den Bahnen der Machbarkeit und schere Dich nicht um utopische Ziele zur Verbesserung der Welt. Dabei könnte eine kritische und reflektierte Haltung in kleinen und großen Zusammenhängen schon eine Menge verändern.

Autonom agierende Menschen sind unerwünscht

Hier setzt der Autor seine Kritik am Bildungssystem an. Welchen Sinn macht es, soviel Energie reinzustecken, um autonom agierende und ethisch handelnde Individuen hervorzubringen, wenn das Entscheidungspotenzial vor allem in der digitalisierten Gesellschaft immer kleiner wird? Wenn uns Maschinen und die großen Konzerne mit ihrem Röntgenblick durchleuchten, digitalisierte Werkzeuge selbst die WC-Zeiten von Mitarbeitern überprüfen und immer weniger Entscheidungsspielräume vorhanden sind. Da hilft dann auch New Work-Propaganda als Beruhigungsmittel nicht weiter. Die Dressur und die von mir so bezeichnete digitale Käfighaltung in Organisationen fangen schon in der Schule an.

Selbstdenker gefährden ihre Karriere

Schülerinnen und Schüler lernen nicht, wie sie selbst zu normativ bewertbaren oder begründbaren Aussagen oder Handlungsoptionen kommen. Wenn mir im Verlauf meiner ganzen Schulkarriere immer vorgebetet wird, was ich zu tun habe, wenn ich also nicht für das verantwortlich bin, was ich mache, sondern nur entscheidend ist, wie ich es mache, dann zählt eben nur die Bewertung der Ausführung von statischen Lernzielen“, kritisiert Schmitt. Da klingeln seine Ohren. Schulen und Hochschulen züchten heteronome, also fremdbestimmte Subjekte heran und nicht autonom denkende und autonom handelnde Menschen. Wer aus diesem Schema ausbricht, riskiert schlechte Noten und seine Karriere.

Wie sich Bildung aus den Fängen des Bildungssystems befreit

Was könnte helfen? Schmitt bringt einen radikalen Schritt ins Gespräch: Er fordert den Abschied vom klassischen Bildungssystem. Wir selber müssten verstehen, dass wir zur Wissensvermittlung keine Schulen, keine Unterrichtsstunden, keine Fächer, keine Noten und keine Lehrpläne mehr brauchen. Dieser Kulturwandel lässt sich nicht verordnen und dürfte in der Kultusminister-Konferenz schwer vermittelbar sein. In einem verfilzten System werde es da keine Umkehr geben. Schmitt erkennt aber immer mehr Initiativen, die die Bildung aus dem Bildungssystem befreit. Das Notiz-Amt sieht das positiv. So steigt der Außendruck auf die Bildungspolitiker und die Spielräume erhöhen sich, um sich von der Zeigestock-Pädagogik zu lösen.


Image (adapted)“Classroom“ by Wokandapix (CC0 Public Domain)


Weiterlesen »

Wenn Roboter fühlen lernen

human-face-image-by-kuloser-cc0-public-domain-via-flickr

Roboter sind nicht mehr aus unserem Leben wegzudenken. Die 24-Stunden-Hilfskräfte, die für uns stellvertretend schrauben, löten, Botengänge erledigen, Fragen beantworten und zu unserer Unterhaltung und Zerstreuung bereitstehen, sind rund um die Uhr mit nimmermüder Geschäftigkeit für uns da.

Schöne neue Welt, wenn auch vielleicht ein bisschen gruselig. Denn die maschinellen Helfer sind günstiger und verlässlicher als so mancher Mensch: ein Arzt-Bot wird nie selbst krank, eine selbstdenkende Roboter-Hebemaschine kriegt keinen Bandscheibenvorfall. Ob sie unsere Arbeitskraft irgendwann vollständig ersetzen sollen und ob wir das überhaupt wollen, wird noch immer heiß diskutiert.

Von Androiden und geheimen Wünschen

So weit, so gut. Der reine Nutzen der Helfer steht ohnehin nicht infrage. Wie weit unsere Faszination bezüglich der maschinellen Gehirne und Lernprozesse geht, kann seit Jahrzehnten in der Literatur- und Filmwelt untersucht werden.

So prägt der polnische Philosoph und Autor Stanislaw Lem seit mehr als 60 Jahren die Science-Fiction-Szene eingehend mit seinen Ideen von virtueller Realität, neuralen Netzen und künstlicher Intelligenz. Oft nahm er dabei die scheinbar uneingeschränkte Zukunftsgläubigkeit der Menschen aufs Korn, um ihnen, ähnlich wie in Ray Bradburys „Mars-Chroniken“ (absolute Leseempfehlung für den Herbst!), den Spiegel des Menschen als rücksichtsloses Raubtier an seiner Umwelt vorzuhalten.

Der Autor Philip K. Dick entwickelte die Idee der menschenähnlichen Androiden mit seinem Roman „Träumen Androiden von elektrischen Schafen“ weiter, der später in der bekannteren Dystopie „Blade Runner“ mit Harrison Ford verarbeitet wurde. Hier treffen wir auf eine künstliche Intelligenz, die nicht nur unsterblich und geradezu übermenschlich stark ist, sondern auch fühlen kann und will. Sehr ähnlich wird dieser Gedanke auch gerade mit dem gerade erschienenen Westworld-Remake erzählt, der sich gerade in den Serien-Charts nach oben arbeitet.

Ähnlich aufgebaut ist auch die Figur des Data im Star-Trek-Universum (TNG), die nach einem Roboter aus dem 50er-Jahre-Film „Alarm im Weltall“ geschaffen wurde. Datas innigster Wunsch ist es, so menschlich und emotional wie möglich zu werden. Dank eines eigens für ihn entwickelten Emotions-Chips gelingt ihm das in einigen Folgen von „Raumschiff Enterprise“ zunehmend, jedoch unterscheidet er sich noch immer von den Menschen: Zwar hat er ein ausgeprägtes Selbstbewusstsein, was man den heute existierenden KIs höchsten als einprogrammierte Widerborstigkeit anrechnen kann, aber er versteht beispielsweise keine Witze. Humor ist eine allzu menschliche Eigenschaft, und diese Hürde kann Data nicht überspringen.

Kommen zwei Roboter in eine Bar…

Auch Humorversuche von Computern aus dem echten Leben scheitern hier, oder sind zumindest Geschmackssache. Wer jemals versucht hat, eine sinnvolle oder gar erheiternde Diskussionen mit Bots wie Apples Siri zu führen, wird ihr wohl zumindest keinen Sendeplatz für die nächste Late-Night-Show anbieten wollen – Computer sind einfach nicht witzig.

Von Marvin, dem depressiven Roboter aus „Per Anhalter durch die Galaxis“ über GERTY, der dem Mondeinsiedler Sam Bell in „Moon“ die Einsamkeit erleichtern soll bis hin zu der fantastischen Liebesgeschichte zwischen Mensch und Interface: Wir wollen von dem Gedanken nicht ablassen, unsere Roboter zu emotionalisieren. Vielleicht ist das auch verständlich – schließlich rücken sie immer näher an uns heran.

Braucht Pflege Emotionen?

Die neue Generation der Roboter soll nach diesen Ideen vielleicht nicht den menschlichen Humor, aber doch eine gewisse Emotionalität und Empathie lernen. Ob das klappt, testen wir gerade unter anderem in Pflegeheimen, wo die neuen Pflegeroboter zum Einsatz kommen, denn wie vieles andere auch, wird derzeit bei Robotern die Emotionen noch stark infrage gestellt. Allerdings verstehen viele Forscher, Wissenschaftler und Psychologen unter dem Wort Emotionen jeder etwas anderes. Wie soll auch ein Roboter das gleiche menschliche Lächeln und Empathie imitieren, wie es nur ein Mensch von Natur aus kann?

In Japan wird in der Pflege schon recht viel Technologie eingesetzt, so gab es hier den einen oder anderen Extremfall: der oft beunruhigende Einsatz der Technik – wie die Anti-Weglauf-Halskette oder Bewegungssensoren – gehen vielen Menschen dann doch deutlich zu weit. Mit solchen Maßnahmen wird hierzulande wohl eher nicht zu rechnen sein. Dezent eingesetzte Technik in den Pflegeheimen oder Wohnungen, wie das Heben aus dem Bett oder in die Badewanne kann eine gute Lösung sein, ist aber derzeit leider noch sehr teuer. Dabei müssen Roboter weder Emotionen zeigen noch mit uns sprechen. Hier geht es ausschließlich um die körperliche Entlastung der Pflegekräfte. Alles andere, wie freundliche Bedienung, Hilfsbereitschaft oder ein herzliches “Guten Morgen”, beherrschen wir Menschen selbst wahrscheinlich am besten.

Bots, die mit uns sprechen

Die Technik entwickelt sich immer weiter. So scheint es mittlerweile fast normal zu sein, sich statt eines Haustiers einen eigenen sprechenden Roboter zuzulegen. Der Roboter Kirobo Mini, der im nächsten Jahr auf den Markt kommen soll, tanzt auf dem schmalen Grat zwischen Spielzeug und Helferlein. Vielleicht taugt er auch als Begleiter für ältere Menschen oder als Beifahrer für lange Autofahrten?

Mal abgesehen von den eher wenigen Emotionen und den vorprogrammierten Sätzen der Roboter, die ja scheinbar irgendwann zum alltäglichen Leben der Menschheit dazugehören werden, gibt es immer wieder kuriose Geschichten über Roboter, die auf ganz andere Art und Weise mit uns sprechen, wie beispielsweise in der Geschichte von Eugenia Kuyda und Roman Mazurenko beschrieben wird.

Nach einem Verkehrsunfall starb Roman Mazurenko mit nur 34 Jahren. Seine beste Freundin Eugenia kam auf eine ganz ausgefallene Idee: Sie sammelte sämtliche SMS und Kurznachrichten von Roman zusammen und schrieb daraus ein Programm – das ganze klingt ein bisschen wie der Film “Transcendence” mit Johnny Depp. Anhand dieses Programms war es ihr möglich, virtuelle Gespräche mit Roman zu führen.

screenshot-by-zeit-online
Screenshot by Zeit Online Blog – Wie ein Toter als Chatbot weiterlebt

Auf diese Weise möchte ein australisches Startup die Menschheit unsterblich machen. Bislang halten sie sich bezüglich der konkreten Umsetzung sehr bedeckt, aber dennoch kann verraten werden, dass Daten der Menschen, ihre Verhaltensweisen, Kommunikationsarten und Denkweisen gesammelt werden, um daraus eine künstliche Intelligenz zu schaffen. Des Weiteren wird verraten, dass das menschliche Gehirn eines Verstorbenen eingefroren und in einen künstlichen Körper eingesetzt werden soll. Ziemlich kurios wirkt das Ganze definitiv – und abgesehen von der grundsätzlichen Frage danach, ob das überhaupt möglich sein wird, bleibt auch die Frage nach ethischen Bedenken bestehen.

Eine Frage der Ethik

Die Frage, wie man das Thema Roboter und Emotionen und ein mögliches, digitales Weiterleben nach dem Tod – was ja eigentlich auch kein richtiges Leben ist, sondern lediglich eine Sammlung von Daten, die einen echten Menschen imitieren soll – ethisch einordnen soll und kann, ist schwer zu beantworten. Für den einen mag es sehr sinnvoll sein und vielleicht auch ein Stück weit über die Trauer eines Verstorbenen hinweg helfen. Wenn man noch ein paar Worte an jemanden richten, der nicht mehr wieder kommen kann, dann kann das für manche Menschen eine große Hilfe sein.

Auf der anderen Seite ist es aber auch vorstellbar, dass die Menschen sich in die Vorstellung eines digitalen Abbilds eines Menschen verrennen und eventuell nicht in der Lage sind, die Endlichkeit und den Tod zu akzeptieren. Dieser Gedanke wird in einer Folge der britischen Science-Fiction-Serie „Black Mirror“ behandelt. Hier wird deutlich: Wenn wir den Tod tabuisieren oder sogar vollkommen verlernen, mit ihm umzugehen, sondern uns ein Substitut suchen, werden wir niemals loslassen können.

Wenn Roboter in unser Leben eingreifen und uns einen Vorteil bieten, indem sie uns schwere Arbeiten abnehmen oder uns den Alltag erleichtern, dann ist das schön und gut. Aber sie sollten nicht zu sehr in unser Menschsein eingreifen. Menschlichkeit und Einzigartigkeit macht uns aus. Wir sollten sie uns in der Zeit der Digitalisierung umso dringender bewahren.


Image „Human Face“ by Kuloser (CC0 Public Domain)


Weiterlesen »

Kant statt Hobbes – Mehr Pflichtethik für Unternehmen

one-way-sign-image-by-geralt-cc0-public-domain-via-pixabay

In der Differenz zwischen der Nützlichkeitsethik des Staatstheoretikers Thomas Hobbes und der Pflichtethik des Philosophen Immanuel Kant liegt das Spannungsfeld fast aller Debatten über Wirtschaftsethik und Wirtschaftstheorie.

Nützlichkeit und Sittlichkeit haben nichts miteinander zu tun, sagen die Pflichtethiker. Verfechter der Nützlichkeitsethik kontern, Moral ist für nach Vorteil strebenden Menschen und nicht für Heilige da. Letztere Denkweise dominiert in der Wirtschaftstheorie, Wirtschaftspolitik und auch im wirtschaftlichen Handeln. Das individuelle Wohlergehen wird addiert zu gesellschaftlichen Zuständen. Einfach gesagt: Eine Handlung ist dann moralisch, wenn die Folgen für mich und für viele optimal sind.

Vorstände und Aufsichtsräte achten auf die Liquidität

Wenn wir uns die Intrigen, Lügen, Manipulationen und Machenschaften im VW-Konzern anschauen, geht es wohl wenig um Pflichtethik. Was Aufsichtsräte und Vorstände interessiert, ist nicht beim Philosophen Kant anzusiedeln. Man will schlichtweg relativ ungeschoren davonkommen und handelt dabei rechtskonform. Nach der geltenden Rechtsprechung müssen die Aufsichtsräte in Deutschland vor allem auf die Liquidität der Unternehmen achten. Sie müssen Warnsignale frühzeitig wahrnehmen und im Krisenfall ohne Zeitverzögerung Sanierungen einleiten – ansonsten drohen den Kontrolleuren haftungsrechtliche Konsequenzen. Aber wie steht es mit unethischem Verhalten?

Warum das Controlling-Gejodel in den Abgrund führt

Passt das in das monokausale Gefüge der Controlling-Pflichten mit dem Gejodel über Kennzahlen, Bilanzbewertungen und juristischen Kenntnissen über Gesellschaftsverträge? Wohl nicht. Was aber sind die Konsequenzen der Abgas-Betrügereien in Wolfsburg? Sie vernichten den Unternehmenswert, schädigen das Gemeinwohl, führen zu einem radikalen Stellenabbau sowie zu einer Zerschlagung des Volkswagen-Imperiums und belasten die Volkswirtschaft. Mit der reinen Lehre der Nützlichkeit kommen wir da nicht weiter. Hier liegt eine Schwäche der Wirtschaftspolitik, der wirtschaftswissenschaftlichen Forschung und des Managements vor.

Warum muss sich Menschlichkeit rechnen?

Mehrheitsfähig dürfte die Position des Unternehmers Stephan Brockhoff sein, die er im Interview mit Zeit Online äußert: Mit etwas mehr Menschlichkeit komme ein Veränderungsprozess in Gang, der gerade in der Marktwirtschaft gut funktioniert. „Denn mithilfe von Vertrauen und Empathie kann man das ungenutzte Potenzial von vielen Mitarbeitern in Unternehmen bergen – und letztlich auch monetarisieren. Menschlichkeit rechnet sich insofern.“

Thomas Hobbes würde jubeln. Es geht meistens um die Frage, ob moralisch oder ethisch relevante Sachverhalte sich für das Unternehmen positiv auswirken. Was Management-Zeitschriften und die Wirtschaftsforschung in der Corporate Social Responsibility-Debatte ins Zentrum rücken, ist der ökonomische Imperativ. Es muss sich rechnen. Mit der Steigerung der allgemeinen Wohlfahrt hat das aber nichts zu tun: „Unternehmen publizieren oft schön formulierte Pressemitteilungen, CSR-Reports oder Codes of Conduct und errichten damit eine Imagefassade, während die eigentlichen Geschäftsprozesse unangetastet bleiben“, schreiben Andreas Georg Scherer, Guido Palazzo und Andreas Butz in einem Fachbeitrag für den Sammelband „Theorien der Wirtschafts- und Unternehmensethik“, erschienen im Suhrkamp-Verlag.

Mit Trickle-down in die Obdachlosigkeit

Die Mehrheit der Ökonomen sieht das wohl anders. Unternehmen sind Institutionen, die auf Gewinnerzielung ausgerichtet sind. Jede soziale oder ökologische Verantwortung, die über gesetzliche Bestimmungen hinausgeht, sei abzulehnen. Eine solche Orientierung wäre kein Beitrag für die Wirtschaftlichkeit. Darüber hinaus sei das private Gewinnstreben aufgrund der Allokationsfunktion des Marktsystems der Katalysator für die gesamtgesellschaftliche Wohlfahrt.

In der vulgär-kapitalistischen Variante von Donald Trump heißt das dann Trickle-down-„Theorie“. These: Wenn die Reichen reicher werden, wird das Geld der Oberschicht über kurz oder lang nach unten durchsickern.

In der Realität „erfreuen“ sich über 15.000 Menschen allein im Silicon Valley an ihrer Obdachlosigkeit, verbunden mit der lukrativen Perspektive, bei den explodierenden Immobilienpreisen im Tal der Tech-Giganten irgendwann eine Einzimmerwohnung zu ergattern, die durchschnittlich bei 4.000 Dollar pro Monat liegt. Dickerchen Trump will das jetzt „verbessern“. Der Milliardär möchte den Reichen und Schönen weitere Steuergeschenke machen. Seine Reform würde das Einkommen der Vermögenden um rund 20 Prozent erhöhen und zu Einnahmeausfällen in der Staatskasse von zwei bis sechs Billionen Dollar führen. Da lohnen denn auch weitere Spekulationen mit Luxussanierungen sowie Neubauten in San Francisco und Umgebung.

Unternehmen sind politische Akteure

Wirtschaftstheoretiker werden jetzt einwenden, dass es sich hier wohl eher um die extremistische Variante eines Nützlichkeitsideologen handelt. Im Großen und Ganzen gehe ja das Renditestreben der Unternehmen auf das Konto gesamtwirtschaftlicher Prosperität. Ich halte das für dürftig und naiv. Unternehmen sollten auch in der Wirtschaftstheorie als politische Akteure betrachtet werden – besonders im globalen Maßstab. Wir erleben immer häufiger ein Versagen des Staates bei der Durchsetzung von Normen und Pflichten für das Allgemeinwohl. Prominentestes Beispiel ist die Steuerflucht von Konzernen wie Apple, die mit ihrem Heimatland und der EU Katz und Maus spielen. Unter diesen Bedingungen versagt häufig der ökonomische Imperativ.

Transnationale Demokratie

Die Autoren Scherer, Palazzo und Butz subsumieren das unter dem Begriff „Global Governance“. Es müssen neue Formen der politischen Steuerung gefunden werden, um die politische Ordnung mittels neuer demokratischer Institutionen und Verfahren wieder herzustellen. Das sei nicht nur eine Angelegenheit der nationalen Regierungen und internationalen Institutionen, sondern auch eine Sache der privaten Akteure wie Nichtregierungsorganisationen, zivilgesellschaftlichen Gruppen, Konsumenten, Arbeitnehmer und eben auch Unternehmen.

Runde Tische sollten im Lichte der Öffentlichkeit Standards für Arbeitsleben, Menschenrechte, Korruptionsbekämpfung, Gesundheitswesen, Umweltschutz und Bildung entwickeln. Im transnationalen Diskurs kann man sich dann nicht mehr mit netten PR-Sprüchen, CSR-Hochglanzbroschüren und semantischen Nebelkerzen über Wasser halten.

In diesem Demokratiemodell sind Unternehmen dann Gegenstand demokratischer Mitentscheidung und Kontrolle. Genau das wollen die CETA- und TTIP-Konstrukteure vermeiden.

Zumindest die Wirtschaftstheorie sollte verstärkt die Legitimität unternehmerischen Handelns im Geiste des Pflichtethikers Immanuel Kant auf die Tagesordnung setzen. Von Unterhändlern, die im Hinterzimmer an den transatlantischen Freihandelsabkommen feilen, ist das nicht zu erwarten.


Image One Way Street by geralt (CC0 Public Domain)


Weiterlesen »

Ist mein Chef ein Psychopath? – Hilfe aus der Jobfalle

Watch your head (adapted) (Image by Kenny Louie [CC BY 2.0] via flickr)

Ein Unternehmen zu leiten, erfordert eine zielstrebige oder sogar rücksichtslose Denkweise, die Fähigkeit, sicher aufzutreten und die Zügel in der Hand zu haben. Man sollte energisch und berechnend und ein akribischer Planer sein – Eigenschaften, die nur wenige besitzen. Aber es gibt eine Kategorie von Personen, die diese Eigenschaften im Überfluss hat: Psychopathen.

Der Forscher Robert Hare schätzt, dass diese Profilbeschreibung auf etwa ein Prozent der Bevölkerung zutrifft, aber der Anteil an CEOs könnte vier Mal so hoch sein. Kevin Dutton, Psychologe an der Oxford University, hat 5.400 Personen mit einer Vielzahl an Berufen untersucht. Er hat eine Liste der Top Ten-Berufe zusammengestellt, welche in der Rangfolge der Psychopathie ganz oben stehen. Den ersten Platz belegen die CEOs, gefolgt von Anwälten, Medienpersönlichkeiten, Verkäufern und Chirurgen. Während es für psychopathische Individuen wahrscheinlicher ist als für andere Menschen, dass sie Verbrechen begehen, schaffen es die meisten von ihnen, ein erfolgreiches Leben zu leben. Ihre psychopathische Persönlichkeit hilft ihnen dabei sogar. Das Problem besteht darin, dass es der psychopathische Chef ist, der die Kultur und den Umgangston für die Art und Weise festlegt, wie manche Organisationen ihren Geschäften nachgehen.

Zieht der Chef es vor, ethisch vertretbar zu arbeiten, oder bewegt man sich in der Grauzone zwischen einer ethisch fragwürdigen und einer sich noch im legalen Bereich befindlichen Tätigkeit? Oder schlimmer noch, überschreitet er gern die Grenze der Legalität, wenn die Risiken gering sind und die Vorteile die rechtliche Verbindlichkeit überwiegen? Wer für so einen Chef arbeitet, kann manchmal in die Bredouille geraten. Um den Chef nicht aufzuregen, entwickeln solche Menschen eine Art ethische Blindheit. Diese Angestellten sind sich meist nicht bewusst, dass sie unethisch handeln, das Management hat schlicht und ergreifend eine Umgebung geschaffen, in der Ethik nicht viel Beachtung geschenkt wird. Das gestattet es andernfalls anständigen Menschen, sich in diesem Verhalten zu etablieren. Wenn eine ansonsten anständige Person mit einer schädlichen Umgebung konfrontiert wird, vielleicht eine, die von einem psychopathischen Chef geschaffen wurde, fällt es dieser Person sehr schwer, nicht in ethische Blindheit und schädliches Verhalten abzurutschen.

Wonach man Ausschau halten sollte

Der Psychologe Phillip Zimbardo, bekannt für sein Stanford-Prison-Experiment, wartet mit einem Set von sozialen Prozessen auf, die „das Böse beschleunigen“. Diese zu lesen ist eine Erinnerung, wie wir alle auf dem höchsten Punkt unserer eigenen schiefen Ebene sitzen:

  • Gedankenlos den ersten kleinen Schritt tun

Es ist einfach, wenn es viel zu erreichen und wenig zu verlieren gibt. Es ist der „schmale Grat am Rand“, der die Vorwärtsbewegung auslöst. Im Geschäft könnte man von Ihnen erwarten, dass ein paar Einsparungen ein akzeptabler Teil der Arbeit ist. Wenn die Zeit vergeht, bewegt sich diese Praxis von der Überlegung, ob man das Richtige tut, hin zu den Gedanken, wie man damit durchkommen kann – ein Übergang, der in einer Kultur der ethischen Blindheit leicht fällt.

  • Entmenschlichung von anderen

Wenn das Stammesdenken von „uns und denen“ die Leute dazu bringt, Außenstehende als Untermenschen anzusehen. Die blutgetränkte Geschichte der Kriegsführung verdeutlicht das destruktive Potenzial dieser Denkweise. Wenn ein Chef jedem sagt, dass hier gerade Krieg herrscht, dass wir „die Konkurrenz zerschmettern müssen“ oder „sie begraben“, wird eine feindliche Umgebung geschaffen, in der das Überleben davon abhängt den Feind zu töten.

  • Anti-Individualisierung des Selbst (Anonymität)

Menschen, die ihre Identität maskieren, werden sich wahrscheinlich antisozialer Verhaltensweisen bedienen, da Anonymität uns die Erlaubnis gibt, uns schlecht zu benehmen. Wenn ein Arbeiter ein anonymes Zahnrad in einer maschinenartigen Organisation ist, fühlt er sich selbst weniger menschlich, und daher auch weniger regiert vom menschlichen Anstand

  • Zerstreuung der persönlichen Verantwortung

Lassen Sie sich von der Mentalität des Mobs (wie beispielsweise einem Lynch-Mob) mitreißen, und Sie sind zu fast allem fähig. Tausende von normalerweise gesetzestreuen Londonern wurden in den Unruhen von 2011 zu Plünderern und Brandstiftern, weil „alle anderen es auch gemacht haben“. Ein Arbeitsplatz, an dem eine Kultur des Zweckes herrscht, der die Mittel heiligt, macht es Menschen einfach, das zu tun, was alle anderen ebenfalls tun.

  • Blinder Gehorsam gegenüber Autorität

Wenn eine Autoritätsperson wie der Chef von Ihnen verlangt, etwas zu erledigen, ist es schwer abzulehnen – insbesondere, wenn das Nichtbefolgen der Anweisung ernste Konsequenzen mit sich bringt. In der Vergangenheit konnte solcher Ungehorsam tödlich sein.

  • Unkritische Angepasstheit an Gruppennormen.

Normen üben einen machtvollen Einfluss auf unser Verhalten aus, besonders wenn Ungehorsam oder Nonkonformität dazu führt, dass Sie aus der Organisation geworfen werden. In der evolutionären Vergangenheit war sozialer Ausschluss gleichbedeutend mit Tod, daher tendieren unsere Instinkte zur Anpassung.

  • Passive Toleranz des Bösen durch Nichtstun oder Gleichgültigkeit.

Wie Edmund Burke vermerkte, „ist das einzige, was für den Triumph des Bösen notwendig ist, dass die anständigen Leute nichts tun.“ Sie müssen kein Täter sein. Es reicht, einfach passiv daneben zu stehen.

Führung von unten nach oben

Sie können sich trotzdem als ethische Person in Ihrem eigenen Einflussbereich etablieren, vorausgesetzt, Ihr Chef ist nicht diabolisch. Das ist eine Form der Führung von unten nach oben, welche anderen ein gutes Beispiel bietet, es Ihnen gleich zu tun. Wenn sich genügend Einflussbereiche überschneiden, verändert sich die Unternehmenskultur. Letzten Endes kann es für Sie die beste Option sein, sich nach einem anderen Job umzusehen und in Würde zu gehen. Aber unterschätzen Sie nicht die Macht des kollektiven Handelns, um eine ethische Arbeitsumgebung zu schaffen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Watch your head“ by Kenny Louie (CC BY 2.0)


Weiterlesen »

Medienethik: Filipovic über die Ethik der TV-Unterhaltung

Screenshot Medienethik Nacktdating, Dschungelcamp und Co - Zur Ethik der TV-Unterhaltung

Professor Alexander Filipovic, erster Inhaber des Lehrstuhls „Medienethik“ an der Hochschule der Philosophie in München, berichtet über die Ethik des deutschen Unterhaltungsfernsehen und setzt sich mit der Kritik daran auseinander.

Zu Beginn der Sendung befasst sich Filipovic mit der Fernsehunterhaltung und ihrer Stellung in der Gesellschaft. Er stellt gleich zu Beginn klar, dass das Fernsehen nicht nur mit das bedeutendste Medium der allgemeinen Bevölkerung darstellt, sondern auch, dass das Format der Unterhaltung zum beliebtesten Format in Deutschland zählt. Jedoch gibt es auch Kritik, welche diesen Bereich besonders trifft. Belegt wird dies durch eingespielte Ergebnisse einer Umfrage, in der sich verschiedene deutsche Bürger zum Unterhaltungsfernsehen äußern. Besonders werden Datingsendungen kritisiert. Diese seien zu gestellt und würden keinen Mehrwert bieten. Auch Talkshows werden oft genant, jedoch nicht nur im negativen Sinne. Ein guter Moderator und interessante Gäste würden die Qualität solcher Sendungen heben, heißt es dort. Doch ein schlechter Moderator könne auch für eine schlechte Sendung sorgen, sowie immer gleiche Gäste das Publikum ebenfalls langweilen können.

Nach dem Einspieler wird eine Grafik präsentiert, welche zeigt, dass die Unterhaltung zusammen mit Serien und Spielfilmen den größten Teil des konsumierten Fernsehens ausmacht. Bei einer durchschnittlichen Fernsehdauer von vier Stunden am Tag werden zwei davon von Unterhaltungssendungen eingenommen.

Danach geht Filipovic kurz auf die Digitalisierung des Fernsehens ein. Er beschreibt, dass Fernsehen heutzutage nicht mehr an den Fernseher gebunden ist, sondern das wir unser Unterhaltungsprogramm mittlerweile auch von vielen anderen Geräten beziehen können. Leider bleibt es nur bei dieser oberflächlichen Erklärung.

Unterhaltungsethik soll es laut Filipovic zurzeit gar nicht geben. Unterhaltungsprogramme werden durchwegs abgelehnt und kritisiert, heißt es weiter. Diese Ansicht sei jedoch nicht gerecht. Die Kritik wird in linke und rechte Kritik aufgeteilt. Die rechte Kritik lautete in dem Falle, dass jegliche Unterhaltung der Sitte und der Moral schaden würden, da die Sendungen die Menschen beeinflussen könnten. Die linke Kritik besagt, dass Unterhaltung den Menschen einlullen würde, ihn von den wichtigen Problemen der Welt ablenken würde und ihn zu einem guten Konsumenten machen solle.

Für Filipovic sind diese Ansichten und Kritiken zu flach. Außerdem seien beide schlichtweg falsch. Die rechte Kritik würde der Unterhaltung zu viel Macht zusprechen, da es empirisch kaum bewiesen werden könne, dass ein Mensch nur durch Unterhaltung beeinflusst werden könne. Die linke Kritik hingegen wäre zu streng mit dem Menschen, da dieser ein Grundbedürfnis nach Entspannung und Unterhaltung besitzt. Er nutzt das philosophische Beispiel der Funktionslust, um zu zeigen, dass der Mensch Unterhaltung quasi automatisch konsumiert und somit wichtige Probleme nicht komplett vergisst, ihnen aber während der Unterhaltung keine Bedeutung beimessen könne.

Zum Schluss der Sendung geht es noch um die Themen der Menschenwürde und des Jugendschutzes. In Shows wie „Big Brother“ oder dem „Dschungelcamp“ würde der Würde eines Menschen geschadet werden, heißt es in der Kritik. Diese Ansicht unterstützt Filipovic. Beim Jugendschutz heißt es hingegen, in Deutschland besitzen wir mit der FSK zwar eine Institution, welche die Sendezeiten vorgeben kann, die letzte Entscheidung läge aber bei den Eltern. Diese müssen entscheiden, ob eine Sendung die Erziehung und Entwicklung eines Kindes beeinflussen kann und sollten dem entsprechend handeln.

Filipovic schließt die Sendung mit einer Aufforderung an das Publikum ab. Wer sich anstatt sinnloser Unterhaltung TV-Sendungen mit informativen Inhalten wünscht, der sollte diese auch unterstützen und Sendungen, welche diese nicht bieten, schlichtweg ignorieren. Dieser Aussage kann auch ich selbst ohne Bedenken zustimmen.


Teaser & Image Screenshot „Nacktdating, Dschungelcamp und Co – Zur Ethik der TV-Unterhaltung


Weiterlesen »

Datenschutz reloaded: Teilen statt Darwinismus?

Sharing instead of Darwinism (Image: Ole Wintermann)

Die Debatte um Datenschutz lässt verschiedene gesellschaftliche Meta-Aspekte im Umgang mit Daten außer Acht. // von Ole Wintermann

Sharing instead of Darwinism (Image: Ole Wintermann)

Statt über das einfache Pro und Contra des Sammeln von Daten zu diskutieren, sollten wir vielleicht auch fragen, in welchem gesellschaftlichen Zusammenhang welche Positionen vertreten werden.

Datenschutz und die Debatte über die Verwendung von Daten wird seit Jahren unter den immerselben (und überaus wichtigen) Gesichtspunkten geführt:

  1. Datenschutz und Privatsphäre: Welcher Umfang an Datenschutz ist gewünscht und realistisch?

  2. Daten als Machtinstrument: Was wissen Unternehmen und der Staat über mich?

  3. Ungleichheit der Datenanhäufung zwischen privaten und öffentlichen Akteuren: Dürfen Unternehmen mehr über die Einwohner eines Landes wissen als deren eigene Regierung?

  4. Connected Data: Wo ergeben sich Muster in den Datenströmen, die zu Erkentnisgewinnen führen?

  5. Entscheidungsmacht von Algorithmen: Ist eine von Menschen getroffene Entscheidung richtig, auch wenn der Algorithmus das anders sieht?

  6. Kompetenz im Umgang mit Daten: Gehört das Fach Informatik in die Schule und Datenjournalismus als zukünftiges Berufsfeld?

  7. Globalisierung des Sammelns von Daten: Wie passen auf Dauer nationalstaatliche Regelungen zum globalen Netz?

  8. Open Public Data: Wie sehen konkrete Beispiele für #DataforGood aus?

Hinter all diesen ganz pragmatischen operativen Fragen stehen aber stets einige Meta-Fragen oder -Diskurse, die nicht offen angesprochen werden.

Verlust tradierter Deutungshoheiten?

Umso wichtiger jede Art von Daten für die Entscheidungen von Unternehmen, Politik und privaten Nutzer sowie den Bürger wird, desto wichtiger wird die Frage nach der „richtigen“ Interpretation dieser Daten. Die Daten entheben zunehmend die althergebrachten EntscheiderInnen ihrer selbst zugeschriebenen Kernkompetenz: dem Entscheiden. Immer weniger werden es sich Politiker und Unternehmenslenker erlauben können, für die Bürger und Kunden suboptimale Entscheidungen zu treffen, die zwar deren eigene Machtinteressen bedienen, am Ende des Tages aber an den Wünschen von Bürgern und Kunden vorbeigehen. Daten aus Skandinavien haben beispielsweise rechtzeitig auf den gesellschaftliche und volkswirtschaftlichen Schaden hingewiesen, die die Herdprämie in Schweden verursacht hat. Somit wurde die Entscheidung pro-Herdprämie hierzulande rechtzeitig als rein parteipolitisch motivierte Entscheidung erkannt und ihrer Legitimation beim Wähler entzogen.

Damit deutet sich an, dass Deutungshoheiten schwinden werden, umso transparenter Interpretationen erfolgen werden. Entscheidungen können sehr viel stärker als früher auf den öffentlichen Prüfstand gestellt und hinterfragt werden. Damit können die Entscheider immer seltener individuell motivierte Entscheidungen treffen. Sie müssen vielmehr die Reaktion des Kunden und des Bürgers vorab antizipieren, wenn sie nicht wollen, dass die Entscheidung sie selbst in ihrer Funktion sogleich in Frage stellt.

Wie könnte eine Ethik der Algorithmen aussehen?

Wie kann eine Ethik der Algorithmen aussehen? Nicht zuletzt mit der Einführung der ersten selbstfahrenden Autos muss diese Frage speziell für diesen Bereich beantwortet werden. Hinter der Erstellung dieser Algorithmen stehen normative Vorstellungen der Menschen, die sie programmieren. Eine Health-App kann zwar entscheiden, dass mehr als 4.000 Schritte am Tag gesund sind. Wie sieht es aber schon mit dem nächsten Schritt der Bewertung aus? Ab wann ist ein Cholesterin-Wert nicht mehr vertretbar? Welche Studien schlagen welche Grenzwerte vor? Durch die selbstlernenden Bewertungsmechanismen und das Erkennen von Mustern in Connected Data wird sicherlich irgendwann der Algorithmus entscheiden, welcher Wert empfehlenswert ist.

Wenn aber diese Logik auf andere Bereiche übertragen wird, stellt sich die Frage, wie wir mit dieser uns selbst optimierenden Lebensweise umgehen. Was ist, und diese Frage hatte nicht zuletzt Stephen Hawking gestellt, wenn die Algorithmen erkennen, dass unsere Lebensweise und damit auch die Menschen an sich nicht „optimal“ agieren?

Open Data vs. Cyber Warfare?

Könnte es sein, dass die gerade zu beobachtende zunehmend Offenheit der westlichen Gesellschaften in Bezug auf öffentliche Daten potenziell im Zuge von Cyber-Warfare ausgenutzt wird? Würde dem so sein und käme es zu größeren Zwischenfällen als die zuletzt beim französischen Sender TV5 beobachteten, so muss damit gerechnet werden, dass sowohl das Streben nach mehr Open Governance als auch die freie Nutzung öffentlicher Daten erneut eingeschränkt und die Skepsis der Bürger und Nutzer gegenüber dem Sammeln von Daten wieder ansteigen könnte. Dies wäre aber – eben gerade unter dem Gesichtspunkt des „Data for Good“ – leider sehr kontraproduktiv für die Gesellschaft und das Erreichen einer nachhaltigen Lebensweise.

Ob sich unter diesen Bedingungen jemals eine globale Governance und eine Regulierung des Umgangs mit jeder Form von Daten ergeben werden, darf bezweifelt werden. Daten und das Sammeln von Daten geschieht global. Die Regulierung erfolgt regional. Es bestünde damit eigentlich die Notwendigkeit des Aufstellens global gültiger Regeln im Umgang mit nutzerbezogenen Daten – angesichts von drohenden Cyber Warfare Szenarien erscheint dies schwerer denn je zu erreichen sein.

Daten für mehr Nachhaltigkeit?

Der vielleicht wichtigste übergeordnete Verwendungszweck von Daten ist die Erreichung einer gesellschaftlich wie auch individuell nachhaltigen Lebensweise. Stichwort: „Data for Good„. Momentan steht dem allerdings noch entgegen, dass personenbezogene Nutzerdaten nur durch die Unternehmen genutzt werden können, die diese sammeln und das öffentlich zugängliche anonymisierte Daten noch nicht wirklich einer flächendeckende Verwendung zugeführt werden konnten. In Zukunft deutet sich ein kulturell basierter Konflikt zwischen den verschiedenen Weltregionen um das Sammeln personenbezogener Daten an. Es kann angesichts des wachsenden Bewusstseins über die Datensammelproblematik optimistisch davon ausgegangen werden, dass sich in der Zukunft die europäische Sichtweise bei den Nutzern internetbezogener Dienste weltweit durchsetzen könnte.

IKEA-Shopping (Image: Ole Wintermann)

Angesichts von Megatrends, die die Menschheit in ihrer Existenz bedrohen, wäre es wünschenswert, wenn die Verwendung von Daten für die Bewältigung von Klimawandel, sozialen Ungleichheiten oder die Stärkung von Bürgerrechten genutzt werden würden. So zeigen uns schon heute entsprechend aufbereitete und in diesem Maße bisher nicht gekannte Visualisierungen die zunehmende soziale Segregation in europäischen Großstädten, die drastische Erwärmung der Meere in den arktischen Regionen, die weltweiten Flüchtlingsströme oder die Ungleichgewichte auf den globalen Finanzmärkten. Damit aber kann das Bewusstsein für die Globalisierung der Risiken und Herausforderungen sowie für die Verbreitung von geeigneten Lösungen vorangetrieben werden.

Wer definiert den „richtigen“ kulturellen Umgang mit Daten?

Die Interpretation von Datenschutz, Privatssphäre, Marktpotenzialen oder Relevanz ist höchst kulturell dominiert. Wir glauben hierzulande – in einer alternden, schrumpfenden und technikaversen Kultur – dass unser Maßstab im Umgang mit Daten das Maß aller Dinge sei. Dem ist natürlich nicht so. Nicht einmal innerhalb Deutschlands gibt es einheitlich Vorstellungen darüber. So diskutieren Juristen, Ökonomen, Psychologen oder Pädagogen auf vollkommen unterschiedlichen Ebenen miteinander oder auch nebeneinander dieses Thema.

Nicht umsonst hatte Gunter Dueck schon auf der #RP13 zum Meta-Diskurs aufgerufen, um das Verständnis über das gegenseitige Nicht-Verständnis zu verbessern. Auch in diesem Kontext sollte wieder gefragt werden, ob nicht der Nutzer und/oder der Bürger irgendwann einfach selbst darüber entscheiden wird, wie der Umgang mit seinen Daten aussehen sollte, in dem er ganz einfach mit seinem Verhalten darüber abstimmt.

Teilen für eine bessere Welt?

Kollaborativ erarbeitete Lösungen für gesellschaftlich relevante Probleme wie auch für betriebliche Herausforderungen bedeuten immer ein Teilen von Wissen, Daten und Erkenntnis. Unternehmen sind aber nicht auf das Prinzip des Teilens eingestellt. Es ist nicht vorgesehen, dass der Angestellte einen unmittelbaren und individuellen Nutzen vom Teilen seines Wissens mit anderen Kollegen hat. Dass aber das einseitig erwartete Geben durch den Angestellten vom Arbeitgeber implizit erwartet wird, führt zu dramatischen Effizienzverlusten für die Unternehmen.

Der allseits unter dem Buzzword „Share-Economy“ diskutierte Wandel der Produktions- und Konsumgewohnheiten reicht viel weiter als es diese rein betriebswirtschaftliche Sichtweise vermuten ließe. Die Demokratisierung der Energieversorgung, die steigende Bedeutung der Crowd bei der Sammlung von Investitionsmitteln für Startups und Unternehmen, die Regionalisierung der Lebensmittelversorgung oder die Einrichtung virtueller Tauschbörsen für Dienste und Güter sind Ausdruck des Bedürfnisses der Menschen nach einem sozial relevanten Teilen mit fremden Menschen und des Wunsches nach einer Zurückeroberung souveränen Handeln im eigenen Umfeld. Vermarktungsinteressen der Unternehmen, ständige Hacker-Angriffe auf heimische PCs und die Überwachungsaktivitäten der Regierung gegenüber der eigenen Bevölkerung oder anachronistische Vorschriften beim Agieren im Internet (Stichwort Störerhaftung) stehen diesem Wunsch der Menschen entgegen.

Wie geht es weiter?

Die Erfahrungen im persönlichen Umfeld zeigen eines: die Rücksichtslosigkeit staatlicher Akteure und wirtschaftlicher Entscheider im Umgang mit personenbezogenen Daten führt schon jetzt zu einem restriktiveren Umgang der Bürger und Nutzer – unabhängig von Internetaffinität und Bildungsstand – mit ihrer eigenen Kommunikation und den von ihnen verwendeten Inhalten. Verschlüsselungen und der Hinweis auf Telefonate statt des Mail-Austauschs sind Tendenzen im täglichen Miteinander, die ich eigentlich noch von Kontakten in die damalige DDR kenne. Damit aber werden demokratische Regierungen und übergriffige Internet-Firmen genau für ihr Verhalten langfristig bestraft, da sie schwieriger als zuvor an den von ihnen gesuchten Rohstoff – Daten – kommen. Vielleicht führt dies ja zu einem Umdenken. Mit Blick auf die oben beschriebenen Chancen, die der Einsatz von Daten für mehr Nachhaltigkeit eigentlich böte, wäre dies sehr zu begrüßen.

Der Beitrag basiert auf einem Treffen von Experten im Zuge des Foresight-Prozesses „Future Agenda“ zu dem übergeordneten Thema „Zukunft der Arbeit/Datennutzung“ im April diesen Jahres.

Weiterlesen »

Medien: Ein AdBlocker für Tragödien

Clarity (image by Ariel Dovas (CC BY-NC 2.0) via flickr)

Für Geschichten wie diejenige des Flugzeugunglücks der Germanwings-Maschine haben die New York Times und andere Medien einen Schalter eingebaut, der unerwünschte Verbindungen zu bestimmten Werbungen deaktiviert. Liest man die Titelstory in der New York Times über den Flug der Germanwings-Maschine, die in den Bergen von Südfrankreich abgestürzt ist, erkennt man den Unterschied auf der Seite vielleicht nicht sofort. Klickt man sich dann zum Artikel von Jeremy Clarkson durch, den die BBC gerade rausgeworfen hat, wird klar: Der Artikel über den frisch entlassenen Briten beinhaltet Werbeanzeigen, der Artikel über das Flugzeugunglück jedoch nicht.

Das ist kein Zufall. Medienunternehmen wie die Times haben Werkzeuge und Strategien entwickelt, um Werbeanzeigen bei Artikeln, die von Tragödien berichten, zu verbergen, um unpassende oder unsensible Werbungen neben den Nachrichtenmeldungen zu verhindern.

Parker Higgins ist Aktivist bei der Electronic Frontier Foundation und hat als erster den Code herausgefunden, der dafür verantwortlich ist, die Werbeanzeigen zu verbergen:

Ich schaute in den HTML-Code eines Artikels aus der Times – es ging um einen tragischen Flugzeugunfall mit 150 Toten – und bemerkte ein Meta-Tag in der Kopfzeile:

„<meta property=“ad_sensitivity“ content=“noads“ />“

Man findet darüber nichts heraus, wenn man bei Google sucht, also wurde es wohl noch nirgendwo dokumentiert, aber es sieht so aus, als wäre dies ein ziemlich einfach gestrickter Weg, um eventuell unsensible Werbeanzeigen von einem sehr sensiblen Thema fernzuhalten. Das ist ein bewundernswerter Einsatz. Besonders interessant ist dies, weil das beinahe eine Bestätigung dafür ist, dass Werbung übergriffig und unsensibel sind.

Die Entdeckung von Higgins wurde von früheren und aktuellen Mitarbeitern der Times bestätigt, aber Entwickler und Techniker von anderen Zeitungen bestätigten, dass die Zeitung nicht die einzige ist, die so vorgeht. Ein bestimmter Thread bei Hacker News weist eine ganze Anzahl Beispiele auf, bei denen mit ähnlichen Tools zum Verstecken von Werbung auf anderen Nachrichtenseiten gearbeitet wird.

In einer Email sagte Eileen Murphy, Pressesprecherin der Times, es wäre ein recht einfacher Vorgang für die Redakteure, einen Bereich im CMS-Protokoll auszusuchen und die Werbung in bestimmten Artikeln auszublenden. Murphy fügt hinzu, dass die Entscheidung, bei welchen Artikeln man sensibel reagieren und Werbung ausblenden sollte, in der Redaktion getroffen wird.

Dass es in Medienunternehmen ab und an eine unglückliche Nähe zu Werbeanzeigen geben kann, ist Teil des Geschäfts. Wenn Unternehmen ihr Geld dafür ausgeben, um ihre Botschaften entgegen den Inhalt der Artikel ausgestellt zu wissen, gehen sie zudem das Risiko ein, dass ihr Produkt zur falschen Zeit am falschen Ort erscheint.

Im Printbereich können hierbei die Konsequenzen sogar noch nachhaltiger sein, denn ein Fehler bleibt hier für mehr als 24 Stunden erhalten. Online erhöht sich das Potential für solche Probleme mit den übrigen Werbeanzeigen. Diese können alles sein, von ärgerlich bis hin zu beleidigend, je nach Inhalt der Artikel.

Beachtet man, dass Werbung noch immer die Haupteinnahmequelle für die meisten Unternehmen ist, kann die Entscheidung, diese Marken erst einmal auf Eis zu legen, durchaus Konsequenzen nach sich ziehen. Aber dies ist eine Entwicklung nicht nur in Richtung Sensibilität, sondern auch in Richtung verbesserter Lesbarkeit. Wenn tragische Geschichten passieren, kann es sehr leicht zu einer Art Unstimmigkeit mit der Nähe innerhalb der Leserschaft geben, die allein schon durch das Design der Artikelseite hervorgerufen werden kann. Mit diesem Problem müssen viele Nachrichtenseiten umgehen, denn die Leser werden regelmäßig mit Überschriften konfrontiert, die sich zwischen dem Schrecken und dem Altäglichen abwechseln.

Megan Garber, eine frühere Mitarbeiterin des Nieman Lab, schrieb im Jahr 2012 in The Atlantic über die Berichterstattung von BuzzFeed über die Schießerei in der Sandy Hook Elementary School:

Es ist schwierig, die Begriffe “Tod/Schießerei/Schule” gegenüber von “LOL/OMG/WTF” zu lesen, ohne zu schaudern. Trotz allen Prinzipien und Logik und allem. Die Meldungen können abweichen, und die menschlichen Erfahrungen ebenso, aber es gibt Momente, in denen es gut ist, wenn diese beiden nicht zusammenfinden. Eine Geschichte wird präsentiert, die sich unter dem Gewicht ihrer eigenen Tragödie biegt, da ist es durchaus befremdlich, wenn diese von nackten Typen und Katzenbildern umrahmt wird, und dem Button, der einen darauf hinweist, dass die Berichterstattung der Tragödie über BuzzFeed gerade “buzzing”, also die beliebteste ist.

Diesen Umstand hat BuzzFeed zu thematisieren versucht, besonders in Abgrenzung zu BuzzFeed News und dem, was sich BuzzFeed Team oder BuzzFeed Life nennt. Die LOLs sieht man nicht mehr, aber der unverkennbare Stil der Seite lebt durch seine Überschriften, Anreißer und die Navigationszeilen weiter.

Lisa Tozzi, Leiterin von BuzzFeed News, schrieb mir per Email, dass sie einen ähnlichen Schalter in ihrem CMS-Protokoll eingebaut haben, dass die Zeile mit ähnlichen Beiträgen bei sensiblen Berichterstattungen verbirgt. Dies ist eine Ermessensentscheidung der Redakteure und Reporter, die je nach Story getroffen wird. Normalerweise werden Berichte über Tod und Gewalt als sensibel markiert”, schrieb sie.

Man muss den Artikel über die Germanwings-Katastrophe (keine Sidebar, kein Werbung mit Titeln wie Leute, die zum ersten Mal Lunchables probieren) mit dem Bericht von Ruby Cramer vergleichen, in dem sie die neue Spendenaktion von Hillary Clinton genauer beleuchtet (da kommt alles oben genannte vor).

Zu entscheiden, welche Artikel die Kriterien für besonders sensiblen Umgang erfüllen, ist nicht immer einfach. Besonders schwierig ist es, wenn sich die Nachrichten in mehreren Kreisläufen weiterentwickeln, sagt Mike Toppo, Vizepräsident und Senior Editorial Director bei CNN Digital. Bei CNN hat sich ein ähnliches System durchgesetzt, um die vorgeschalteten Werbungen vor Videos mit sensiblen Inhalten oder grauenvollem Bildmaterial zu entfernen. Bei Ereignissen wie dem Flugzeugunglück schauen die Mitarbeiter im CMS-Protokoll nach und kontrollieren, ob alle Videos, die zum Thema gehören, auch werbefrei sind.

Das kann sich allerdings verändern, genau wie die Berichte selbst, meint Toppo. Denn der Inhalt, den man um ein Ereignis herum schafft, verändert sich ebenso. Ist beispielsweise eine Diskussion über Flugsicherheit zwischen Reportern und Analysten gleichzusetzen wie wenn man Aufnahmen der Trümmerteile veröffentlicht? Der Kreislauf der Nachrichten kann sich noch tagelang hinziehen, es kommt auf den Inhalt der Story an”, sagt er.

Zuerst erschienen auf niemanlab.org. Übersetzung von Anne Jerratsch.


Teaser & Image „Clarity“ (adapted) by Ariel Dovas (CC BY-NC 2.0)


Weiterlesen »

Der Reporter als Actionheld – Was soll da schon schiefgehen?

Brian Williams von NBC News

Die Medienlogik hinter „If it bleeds it leads“ zwingt Reporter immer näher an das Geschehen, bis sie selber ein Teil der Berichterstattung werden. // von Russell Frank

Brian Williams von NBC News

Lillian Ross, langjährige Mitarbeiterin und Autorin im New Yorker Magazine, ermahnte aufstrebende Reporter, diese sollen nicht über sich selbst schreiben. „Ein Reporter bedient das Thema“, schrieb sie, „und nicht sich selbst. Sagen Sie nicht ‚Schau mich an. Schau, was ich für ein toller Reporter bin!'“ Klingt ein bißchen kurios in Zeiten des Selfies, oder?

Weiterlesen »

Weiterlesen »

Big Data und Datenschutz: Ethik ist gefragt

Was that a mistake Project 365(2) Day 160 (adapted) (Image by Keith Williamson [CC BY 2.0] via Flickr)

Das Sammeln von Kundendaten gehört im E-Commerce und beim Online-Marketing fest dazu. Was ändert sich aber, wenn daraus Big Data wird? Online-Marketing und E-Commerce setzen darauf, ihre Kunden möglichst gut kennenzulernen: Auf diese Weise lässt sich der Erfolg von Produkten messen und wer die Analyse von Kundendaten perfektioniert, kann seinen Nutzern über Empfehlungen einen echten Mehrwert bieten. Big Data verändert jedoch die Möglichkeiten, was mit diesen Nutzerdaten gemacht werden kann, denn Daten lassen sich de-anonymisieren und auf unvorhergesehene Weise auswerten. Das verlangt nach einem neuen Verantwortungsbewusstsein.

Daten als Wettbewerbsvorteil Payback-Karten, Bonusprogramme, Kunden-Logins, wohin man schaut – Marketer haben verstanden, wie wertvoll die individuelle Kaufhistorie ist. Wer das individuelle Kaufverhalten seiner Kunden kennt, kann sein Marketing zielgenauer ausrichten. Zudem entstehen auch für den Kunden handfeste Vorteile. Der Erfolg von Netflix beruht zu großen Teilen darauf, dass man durch Kenntnisse über die Sehgewohnheiten treffende Empfehlungen geben kann. Auf diese Weise wird der Empfehlungsalgorithmus von Netflix umso wertvoller für seine Nutzer, je mehr der Dienst über die Vorlieben seiner Mitglieder weiß.

Big Data geht einen Schritt weiter: Dank riesiger Datenmengen lassen sich Rückschlüsse auf Bereiche des Lebens treffen, die ursprünglich gar nicht in den Daten erfasst wurden. Ein Beispiel ist die berühmte Analyse des amerikanischen Händlers Target, bei der man eine schwangere Teenagerin entdeckte, bevor es ihre eigenen Eltern konnten.

Die Basis dabei: Die Kaufhistorie aller Kundinnen. Zuerst wurde ausgewertet, was schwangere Kundinnen gekauft haben. Zu Beginn des zweiten Trimesters bevorzugten viele von ihnen parfümfreie Körperlotionen. Muster wie diese lassen sich anschließend auf alle weiblichen Kunden übertragen. Zeigt eine Frau ein ähnliches Kaufmuster, kann man mit einiger Sicherheit annehmen, dass sie schwanger ist – und ihr Werbung für Baby-Produkte zeigen.

Die Ergebnisse können dabei weit über Produkt-Vorlieben hinausgehen. Wissenschaftler der Cambridge Universität konnten beispielsweise in einer Studie mit 60.000 anonymisierten Facebook-Nutzern sehr intime Details aus ihren Likes extrahieren: Geschlecht, Rasse, sexuelle Orientierung, Alkoholgenuss – viele dieser Eigenschaften sind mit hoher Wahrscheinlichkeit konstruierbar. Homosexualität konnten sie beispielsweise in immerhin 88% der Fälle richtig vorhersagen. Wichtig dabei: Auf den ersten Blick standen die Likes in keinem unmittelbar erkennbaren Zusammenhang. Nur 5% der homosexuellen Teilnehmer gaben beispielsweise offensichtlichen Themen wie „Gleichgeschlechtliche Ehe“ ein Like.

Anonymisierung und De-Anonymisierung

Um solche Vorhersagen treffen zu können, benötigt man Zugang zu einer großen Menge an Daten. Tatsächlich stellen diese Datenmengen viele intuitive Annahmen in Frage, zum Beispiel die Idee, dass wir als Individuum in einer großen Menschenmenge verschwinden und nicht identifiziert werden können. Für Big Data gilt das nicht mehr: Bei der Analyse von Daten vieler Millionen Menschen entstehen individuelle Muster, die umso feiner werden, je mehr Eigenschaften sie umfassen. Auf diese Weise kann das Individuum umso besser identifiziert werden, je mehr Daten analysiert werden können. Das ist besonders der Fall, wenn mehrere Analysen kombiniert werden – irgendwann sind die Muster so deutlich, dass sie eindeutig auf den Einzelnen bezogen werden können.

Eine naheliegende Antwort wäre natürlich, Nutzer um Erlaubnis zur Datensammlung zu bitten. Nur: Wissen wir wirklich, welche Vorhersagen aus unseren Daten abgeleitet werden können – heute und in Zukunft? Was nützt ein Einverständnis, wenn dem Nutzer gar nicht klar war, wozu er sich einverstanden erklärt hat? Für den Berater Jeffrey F. Rayport kommen bei Big Data daher weitere Faktoren hinzu – Unternehmen sollten konkret und nachvollziehbar erklären, welche Analysen mit den erhobenen Daten durchgeführt werden, besonders wenn De-Anonymisierung ermöglicht wird.

Transparenz und Vertrauen schaffen

Für den Philosophen Michael LaBossiere erzeugt Big Data eine andere ethische Dimension beim Umgang mit Daten. Seine Analogie: Wenn ich jemanden verfolge, durch sein Fenster schaue, seine Mülltonnen nach Einkaufszetteln durchwühle, Buch über seine Fahrten zum Altglas-Container führe und schließlich behaupte, er sei ein Alkoholiker – das ist ein eindeutiger Verstoß gegen die Privatsphäre. Analysiere ich jedoch Daten dieser Person und schließe darauf, dass er ein Alkoholiker sein muss, dann ist die moralische Frage nicht mehr so offensichtlich. Das Ergebnis ist identisch, der Weg dorthin anders – nämlich indirekt.

Big Data stellt also neue ethische Fragen: Was dürfen wir mit Daten anfangen? Welche Analysen sind in Ordnung, welche gehen zu sehr ins Private? Fragen wie diese sollten fester Bestandteil bei der Planung von Big-Data-Projekten sein.

Wie das aussehen kann, zeigt das Projekt „Signals“ der Purdue-Universität. Wer daran teilnimmt, erhält basierend auf Big-Data-Analysen mittels eines Ampel-Systems Hinweise darauf, welche Kurse leistungsmäßig auf der Kippe stehen – und kann rechtzeitig gegensteuern. Wie die ethischen Fragen dabei behandelt werden können, erläutern die Wissenschaftler James E. Willis, John P. Campbell und Matthew D. Pistilli in einem ausführlichen Paper. Signals ist damit ein Projekt, das nicht nur zeigt, was Big Data möglich macht, sondern auch, wie unsere Ethik damit Schritt halten kann.


Image (adapted) „Was that a mistake? Project 365(2) Day 160“ by Keith Williamson (CC BY 2.0)


Weiterlesen »

5 Lesetipps für den 1. April

In unseren Lesetipps geht es heute um den Schutz der Privatsphäre, Probleme bei Twitter, Gmail Shelfie und Ethik bei „Die Zeit“. Ergänzungen erwünscht.

  • PRIVATSPHÄRE Zeit Online: Den Kameras das Fotografieren verbieten: Auf Zeit Online präsentiert Patrick Beuth verschiedene Projekte, in denen Forscher und Tüftler sich mit den heute scheinbar alles aufzeichnenden Kameras beschäftigen und technische Gegenmittel entwickeln, um Menschen vor ungewollten Fotos zu schützen.
  • TWITTER I Horizont: Viele falsche Twitter-Follower: Eine Analyse des österreichischen Twitter-Analyse-Dienstes Fruji 50 österreicher Top-Accounts von Marken, Medien, Journalisten, Politikern und Sportlern relativiert teilweise stark die bisherigen Annahmen über Reichweiten – bis zu 68 Prozent inaktive oder Fake-Follower. Netzpiloten-Autor Jakob Steinschaden kommentiert die Ergebnisse auf Horizont.at.
  • TWITTER II ReadWrite: Why Twitter’s Facebook Obsession Is Unhealthy: Ab und zu kopiert Twitter gerne mal ein von Facebook bereits bekanntes Feature. Sehr innovativ ist das nicht, aber der Drang des Microblogging-Dienstes, ein soziales Netzwerk für jedermann zu sein, könnte dem Unternehmen auf Dauer nicht gut bekommen, wie Selena Larson auf ReadWrite schreibt.
  • GMAIL SHELFIE Official Gmail Blog: Introducing Gmail Shelfie: Aprilscherz oder nicht? Googles Software Engineer Greg Bullock postet am 31.03., dass Google am 01.04. das neue Feature „Gmail Shelfie“ einführt. Nutzer des Mailservices können als Hintergrund ein Selfie hochladen und den Dienst damit noch mehr personalisieren. Wer’s glaubt. ;-)
  • DIE ZEIT Stefan Niggemeier: Der Ethik-Kodex der “Zeit”: Stefan Niggemeier kommentiert auf seinem Blog den Ethik-Kodex der „Zeit“, der nicht nur jünger ist als der von den Kapuzenpulliträgern bei „Zeit Online“, sondern auch weniger umfangreich ist. Interessant ist, dass der Printbereich im Gegensatz zum Digitalbereich kein Reglement für Werbung von kommerziellen Produkten des eigenen Verlags hat.

 

Nutze Netzpiloten 1-Klick: Mit nur einem Klick werden dir bequem alle 40 Sekunden die hier besprochenen Seiten „vorgeblättert“ START.

Weiterlesen »

Smartphone-Kauf mit gutem Gewissen nicht möglich

Dass die Rohstoffe für unsere alltäglich genutzten elektronischen Gerätschaften wie Smartphones überwiegend unter unmenschlichen Bedingungen zu Tage gefördert werden, ist nicht nur den meisten Konsumenten nicht bekannt, nicht mal die Hersteller selber können die Herkunft nachvollziehen.

Viele Rohstoffe, die für die Produktion moderner Smartphones benötigt werden, stammen aus Krisenregionen und werden fast ausschließlich unter menschenunwürdigen Bedingungen zu Tage gefördert. Viele Organisationen bemängeln diese Zustände und fordern die Hersteller zum Umdenken auf. Das große Problem ist allerdings, dass die Hersteller selber nicht wissen, wo diese Rohstoffe herkommen und unter welchen Umständen sie aus der Erde geholt werden.

Weiterlesen »

Weiterlesen »

Kassaei meets Kotler

Jetzt ist es raus. Der Verbraucher ist nicht nur Kunde, er ist sogar ein Mensch. Jahrzehntelang hat Philip Kotler das gesamte Arsenal der mathematsierten Gesellschaftswissenschaften, die so gern von den Naturwissenschaften anerkannt wären, auf die Nachfrager losgelassen. Sogar die Organisationstheorie war ihm nicht zu schade, etwas Übersicht in die Absatzförderung zu bringen. Nun ist Schluß. Auch er bläst in das Horn namens Ethik. Der mathematisierte Geist verspricht sich davon, dass es auf diese Weise menscheln sollte.“Die neue Dimension des Marketings. Vom Kunden zum Menschen“ muss ja dann konsequenterweise auch von dem Handeln, was Philosophen und Theologen seit langem, erstere sogar seit Jahrtausenden behandeln. Denn da geht es nicht um soziale oder ökonomische Rollen, da geht es gleich um alles: den Menschen…

Weiterlesen »

Weiterlesen »