Lifelogging oder: Der fehlerhafte Mensch | Blätter für deutsche und internationale Politik

LoginWarenkorb

Lifelogging oder: Der fehlerhafte Mensch

von Stefan Selke

Der Absturz der Germanwings-Maschine Ende März dieses Jahres hat eine Diskussion darüber ausgelöst, ob nicht der Mensch das letzte zu eliminierende Sicherheitshindernis am Arbeitsplatz, in Autos oder in Flugzeugen ist. Hätte die Katastrophe möglicherweise verhindert werden können, wenn der Copilot seinen Gemütszustand regelmäßig hätte prüfen und die Daten an den Arzt der Fluggesellschaft übermitteln müssen? Dem liegt die Idee vom „fehlerhaften“ Menschen zugrunde – und dieser gerät immer stärker unter Generalverdacht.

Abhilfe verspricht der sogenannte Solutionism kalifornischer Prägung. Der Ansatz geht davon aus, dass sich für jedes Problem dieser Welt eine technische und pragmatische Lösung finden lässt.[1] Und tatsächlich existieren schon jetzt beispielsweise smarte Apps, die beim Telefonieren anhand der Sprachmelodie Anzeichen von Depression erkennen und – bei entsprechender Voreinstellung – automatisch einen Termin beim nächstgelegenen Psychiater vereinbaren.[2] Die Debatte entspricht einem Trend zur digitalen Selbstvermessung und Lebensprotokollierung, der seit geraumer Zeit um sich greift: dem Lifelogging.

Unter Lifelogging werden vielfältige Formen der digitalen Erfassung, Speicherung und Auswertung von Lebensdaten und Verhaltensspuren – sogenannte lifelogs – verstanden. Die „digitale Aura“[3] einer Person umfasst dabei Daten zu Gesundheit, Aktivität, Aufenthaltsort und Produktivität. Aber auch Gefühle werden quantifiziert.

Das Spektrum der unterschiedlichen Lifelogging-Anwendungen reicht vom Gesundheitsmonitoring über gemeinsame Heilversuche chronisch Kranker über die Standorterfassung von Kindern, Partnern und Angestellten bis hin zur Kontrolle von Demenzkranken mittels Sensoren. Quer durch alle Anwendungsfelder des Lifeloggings ziehen sich immense Heilsversprechen. Prognostiziert wird der neue Mensch, der Mensch ohne Fehler.

Seine Wurzeln hat das Lifelogging im militärischen Bereich. Ausgerechnet das Pentagon startete das Projekt LifeLog, das zum Namensgeber des Trends avancierte. Verteidigungsexperten fanden Gefallen an den Selbstvermessungsmöglichkeiten und versuchten Soldaten umfassend mit Sensoren auszustatten. Ein General drückte es so aus: „Ich möchte, dass Soldaten permanent die eigene Umwelt scannen [...]. Ich will, dass sie wach sind.“[4]

Die doppelte Kontrollgesellschaft

Heute gilt Ähnliches auch für Zivilisten. Jedes Detail könnte der Schlüssel zum Gesamtverständnis des eigenen Lebens sein. Alle Daten sind wichtig, so das Credo der Selbstvermessungsszene. Der digitale Evangelist Jim Gemmell greift zur Analogie der „Black Box“, um das grundlegende Prinzip des Lifelogging zu erläutern. Die Black Box des Lebens füllt sich zunächst selbstständig mit Daten. Dann liefert sie Antworten auf zentrale W-Fragen: Was passierte wo mit wem, und wie habe ich darauf reagiert?

Damit folgt das Lifelogging zuerst einmal den Prinzipien der reflexiven Moderne: Gefahren werden in berechenbare Risiken zerlegt. Auf diese Weise lässt sich eine Beherrschbarkeit der Welt suggerieren. Die neue Lust an der Selbstvermessung korrespondiert somit mit der Angst vor Kontrollverlust. Wir haben nicht nur Angst, bedroht zu werden, sondern auch davor, etwas zu vergessen, etwas falsch zu machen oder nicht mehr richtig zu funktionieren. Die sogenannte Selbstverdatung geht dabei ironischerweise Hand in Hand mit der Überwachung durch die Geheimdienste. Deren Traum ist es, mittels totaler Überwachung an unsere Geheimnisse zu gelangen. Das verdeutlicht besonders der knappe Befehl des ehemaligen NSA-Chefs Keith Alexander: „Alle Signale abfangen, immer.“[5] Einer der Leitsprüche der digitalen Selbstvermesser stammt hingegen von Garry Wolf, dem Mitgründer der Selbstvermessungsszene Quantified Self. Wolf ist überzeugt, dass wir auf die Hilfe von Maschinen zurückgreifen sollten, um sämtliche „blinde Flecken in unserer Wahrnehmung und Lücken in unserer Aufmerksamkeit“ auszuleuchten.[6]Auch die Selbstvermesser sehnen sich also danach, verborgene Geheimnisse aufzuspüren.

Die Folge der allumfassenden Überwachung ist, dass wir zunehmend in einem „doppelten Kontrollregime“ leben. Auf den ersten Blick grenzt es an Schizophrenie, wenn wir uns über die „Kontrolleure von oben“ empören und gleichzeitig Gadgets nutzen, mit deren Hilfe wir ein paar virtuelle Bonuspunkte erhalten, wenn wir das eigene Leben transparent machen. Tatsächlich aber sind sich in der doppelten Kontrollgesellschaft die Motive derer, die uns (von oben) ausspionieren, und derer, die sich freiwillig selbst (von unten) überwachen, sehr ähnlich. Ausgangspunkt ist in beiden Fällen der fehlerhafte Mensch: Weder ist er ein perfekter Bürger, noch ist er ein perfektes Subjekt.

Die wachsende Zahl der sich selbst überwachenden Menschen geht unter anderem darauf zurück, dass das Vertrauen in die politischen Institutionen und die Selbststeuerungsfähigkeit moderner Gesellschaften in den vergangenen Jahren dramatisch abgenommen hat. Im Gegenzug hat die Sehnsucht nach positiven Selbstwirksamkeitserfahrungen an Bedeutung gewonnen. Wenn auf nichts mehr Verlass ist und niemand mehr weiß, wo bei Krisen der Hebel angesetzt werden kann, dann beginnt man am besten bei sich selbst. Und da es Superman nur in Comic-Heften gibt, bleibt als Strategie vor allem der Rückzug auf das unmittelbar Beherrschbare – die eigene Körperwelt. Dem Verlust der metaphysischen Geborgenheit setzen Selbstvermesser so vertrauensvoll bunte Balkendiagramme, deskriptive Statistiken und die Sinnformel entgegen, dass sich Selbsterkenntnis durch Datensammeln steigern ließe. Indem die Lifelogger die Welt so wieder überschaubarer machen, gewinnen sie die Illusion der Beherrschbarkeit zurück. Darüber hinaus wird die Sorge um die eigene Gesundheit zur Ersatzreligion. Der Körper wird zum Lifestyle-Produkt und zum Tempel gleichermaßen.

Gleichzeitig erhält die Baustelle Körper aber auch den Status eines Investitionsobjekts.[7] In der Selbstvermessungsszene finden sich tatsächlich zahlreiche mechanistische Bilder eines in Einzelteile zerlegbaren Körperobjekts. Dieses lässt sich bei Defekten wieder Instandsetzen oder in entsprechende Reparaturwerkstätten bringen. Jede Form digitaler Spurensicherung erweist sich damit als „Fenster in den Körper“, der durch Naturalisierung von einem Subjekt zu einem Objekt mutiert und das Leben selbst zum Projekt der Optimierung macht.

Der Triumph des neoliberalen Denkens

Unter den Wettbewerbsbedingungen der modernen Gesellschaft konfiguriert sich der Lifelogger zunehmend selbst – ganz so, als wäre man eine Maschine, die optimal zu funktionieren habe. Das Wissen um das eigene „Ich“ wird damit zur Pflichtübung. In allen nur denkbaren Bereichen des Lebens finden sich Nützlichkeitsdenken, Kosten-Nutzen-Analysen und Effizienzberechnungen. Leistung wird in allem gesucht, was quantifizierbar ist: „Joggen wird zur Leistung, ebenso wie Sightseeing oder das verfügbare Repertoire an Sexpositionen.“[8] Berechenbarkeit gilt als idealtypischer Ausdruck leistungsgerechter Lebensführung. Vor diesem Hintergrund lässt sich die Leitformel der Quantified-Self-Bewegung, „Selbsterkenntnis durch Zahlen“, als Triumph des neoliberalen Denkens im Alltag verstehen.[9]

Ein Beispiel dafür ist die umfassende Kontrolle des Menschen am Arbeitsplatz. Im Post-Taylorismus[10] wird inzwischen der ganze Mensch vermessen. Der Wirtschaftsexperte James Wilson spricht von „Physiolytics“, der Vermessung der Arbeitenden überall dort, „wo es darum geht, die Leistung zu steigern“.[11] Supermarktketten wie Tesco oder der Internetgigant Amazon kontrollieren zum Beispiel die exakten Laufstrecken und Pausenzeiten ihrer Mitarbeiter. Die überwachten Mitarbeiter reagieren in der Regel gestresst, weil sie ständig befürchten müssen, wegen eines Fehlverhaltens bestraft zu werden. Doch längst ist diese Form der Kontrolle nicht nur auf den Arbeitsplatz beschränkt. Digitale Selbstvermessungen liefern zunehmend auch kommerziellen Anbietern Lebensdaten als Rohstoff, die diese nach marktförmigen Kriterien verwerten. Mit der Datenspende erhoffen sich Kunden auch Vorteile. So erprobt die Düsseldorfer SparkassenDirektVersicherung seit Anfang 2014 ein Scoring-System. Dabei baut sie Telematik-Boxen in private Pkws ein, die automatisch Fahrdaten an eine Zentrale übermitteln. Die Versicherung errechnet dann – auf Grundlage der Fahrweise des Kunden – einen Index. Im besten Fall räumt sie dem Kunden dann einen Rabatt von fünf Prozent auf die Jahresversicherungspolice ein.

Datenmarkt Gesundheitswesen

Besonders im Gesundheitswesen gewinnt das Lifelogging zunehmend an Bedeutung. Hier wird die regelmäßige Vermessung von Körperwerten voraussichtlich schon in den nächsten Jahren fester Bestandteil der Präventionslogik sein. Ende vergangenen Jahres kündigte Generali, einer der größten Erstversicherer in Deutschland, an, ein sogenanntes Anreizprogramm aufzulegen. Kunden, die der Versicherung selbst vermessene Gesundheitsdaten übermitteln, erhalten dann einen Rabatt auf ihre Tarife.

Verbraucherschützer kritisierten das Vorhaben aus Datenschutzgründen scharf. Innerhalb der Bevölkerung stoßen derlei Angebote jedoch auf wachsende Zustimmung. Nach einer Studie des Marktforschungsunternehmens Yougov können sich schon heute 32 Prozent der Bundesbürger vorstellen, eigene gesundheitsbezogene Daten an ihre Krankenversicherungen weiterzuleiten, wenn sie im Gegenzug finanzielle Vorteile erhalten. Und jeder fünfte Befragte zieht sogar die digitale Vermessung der eigenen Kinder in Betracht. Zugleich rechnen 73 Prozent der Befragten bei einer Verschlechterung ihres Gesundheitszustandes mit einer Beitragserhöhung. Und 81 Prozent glauben, dass ihre Daten auch für andere Zwecke verwendet werden.[12]

Mit dieser Einschätzung liegen die Befragten nicht falsch. Als besonders bedenklich wird derzeit der verstärkte Trend zum An- und Verkauf persönlicher Daten durch Dienstleister wie Data Fairplay gesehen. Diese versorgen Firmen mit Privatdaten zu Konsumverhalten, Freizeitgestaltung und weiteren Themen. Die IT-Sicherheitsfirma Symatec untersuchte 2014 in der Studie „How safe is your quantified self?“verschiedene Lifelogging-Anwendungen und kam zu einem ernüchternden Ergebnis: Datenschutz wie auch Nutzersicherheit sind einer Vielzahl von Anbietern offenbar vollkommen gleichgültig. So reichen Fitness-Apps gesammelte Daten insgeheim an durchschnittlich fünf andere Anbieter weiter – meist an Marketingfirmen, die umfangreiche Nutzerprofile erstellen und verkaufen.[13]

Lifelogging und rationale Diskriminierung

Die gesellschaftlichen Folgen der umfassenden Selbstverdatung sind dramatisch. Denn umso mehr der Mensch zum numerischen Objekt wird, desto stärker wird die Vermessung durch Lifelogging zum Organisationsprinzip des Sozialen – und führt zu neuen Formen sozialer Diskriminierung: „Rationale Diskriminierung“ basiert nicht mehr auf rassistischen oder sexistischen Formen der Aberkennung, sondern auf vermeintlich objektiven und rationalen Messverfahren.

Schon jetzt führt Lifelogging dazu, dass immer mehr Lebenssituationen nur noch abstrahiert wahrgenommen werden. Zudem verändert sich die Wirkung der Daten: Deskriptive, also beschreibende Daten werden allmählich zu normativen Daten, die soziale Erwartungen enthalten. Diese Informationen formen dann einen Korridor zwischen dem „Gipfel der Perfektion“ und dem „Sockel der sozialen Respektabilität“. Die Selbstvermessung erzeugt damit einen wachsenden sozialen Anpassungsdruck und moralische Konformität. Die entscheidende Frage lautet dann: Wie sieht die Norm künftig aus, und wie weit darf man künftig noch von ihr abweichen?

Schon jetzt zeichnet sich ab, dass die neuen Vermessungsmethoden digitale Versager und Gewinner erzeugen. Leistungsträger werden von Leistungsverweigerern getrennt, Kostenverursacher von Kosteneinsparern, „Health-On“-Menschen (Gesunde) von „Health-Off“-Menschen (Kranke) sowie Nützliche von Entbehrlichen.

Dabei kommt es zu einer Renaissance vormoderner Anrufungen von „Schuld“ – wenn auch im modernen Gewand der „Eigenverantwortung“. Das gilt gerade dann, wenn sich der Diskriminierungsaspekt hinter den Fassaden spielerischer Wettbewerbe oder Belohnungssysteme verbirgt. Dies lässt sich schon jetzt bei einzelnen Unternehmen beobachten.

So hat sich das Schweizer Unternehmen dacadoo darauf spezialisiert, aus individuellen Werten einzelner Mitarbeiter einen kollektiven „Healthscore“ für ganze Firmenbelegschaften zu errechnen. Aus diesem lässt sich dann der Versicherungsbeitrag für die Betriebskrankenkasse ableiten. Das US-Unternehmen Fitbit verkauft seine Armbänder zur Aktivitätsvermessung unter anderem an Firmen, die damit die Gesundheitsbemühungen ihrer Belegschaft „unterstützen“ wollen. Beide Anbieter versprechen, gesundheitsbezogene Kosten in Unternehmen zu senken und zugleich die Produktivität der Mitarbeiter zu steigern. In der Praxis führt das Lifelogging jedoch dazu, dass ganze Abteilungen bei der Jagd nach dem besten Healthscore erbittert untereinander konkurrieren. Zugleich bestärken sie eine Form der sozialen Kontrolle gegenüber jenen, die sich im Hinblick auf das Gesamtergebnis suboptimal verhalten – sprich: die bei der Jagd nach den besten Gesundheitswerten nicht mitspielen können oder wollen. Die betriebsinterne Solidarität bleibt dabei auf der Strecke.

Die soziale Diskriminierung infolge der Selbstverdatung kann sich auch auf Wahrscheinlichkeitsaussagen gründen. So können Versicherungen einzelnen Kunden künftig bestimmte Leistungen verweigern, weil Daten aus einem Gesundheitsmonitoring eine höhere Wahrscheinlichkeit auf einen baldigen Herzinfarkt vorhersagen. Oder Banken verweigern einem Kunden einen Kredit, weil dessen Konsumdaten eine sinkende Kaufkraft prognostizieren. Dass wir von einem solchen Szenario nicht mehr allzu weit entfernt sind, zeigt sich in den USA: Hier verursachen Schüler mit guten Noten statistisch betrachtet weniger Verkehrsunfälle. Als Folge davon stiegen vielerorts die Versicherungsprämien für alle schlechten Schüler – ungeachtet ihres tatsächlichen Fahrverhaltens und ihrer Unfallbilanz.

Um diesen Formen der Diskriminierung zu entgehen, verwandelt sich das numerische Objekt Mensch letztlich selbst in eine Ware.[14] Längst begreifen wir uns als Anbieter der Ware „Ich“. Selbstvermessung ist eine stillschweigend als wertsteigernd empfundene Investition in den eigenen sozialen Status unter Beachtung persönlicher Fehleranfälligkeiten. Die Ware Mensch rekonfiguriert sich somit fortwährend selbst, um ihre Gebrauchsfertigkeit sicherzustellen. Das aber läuft letztlich auf ein subtiles Programm der Umerziehung hinaus: Wenn das Daten-Double zur Grundlage des Selbstverständnisses erhoben wird, verwandeln sich Menschen zu Konformisten. Im schlimmsten Fall verlernen sie dann die Fähigkeit, kritisch zu denken und unabhängig eigene Entscheidungen zu treffen.

Das Aufkommen der Entscheidungsmaschinen

Damit aber hätte das Lifelogging sein finales Ziel erreicht. Denn tatsächlich soll die Selbstverdatung helfen, menschliche Entscheidungen an Algorithmen abzutreten. Während die Selbstvermessungsszene immer noch auf die „Killer-Applikation“ wartet, die Lifelogging zum kommerziellen Durchbruch verhilft, weitet sich die Vermessungszone immer weiter aus: Sleep-Logging, Sex-Logging, Stimmungs-Logging, Think-Logging und Death-Logging sind schon jetzt möglich. Kein Aspekt des Lebens bleibt ausgespart. Und immer häufiger gibt die Software dabei auch Entscheidungen vor.

Harmlos erscheint vor diesem Hintergrund das Beispiel des Microsoft-Beraters Gordon Bell, der die Entscheidung darüber, ob er sich ein Eis gönnt, einem Programm überlässt, das ihm seinen Kalorienstatus mitteilt. Lebensfreude findet so im mathematischen Korridor der vorprogrammierten Angemessenheit statt. Ähnliches zeigt sich bei der App Ampelini, dieKindern helfen soll, beim Überqueren einer Straße die richtige Entscheidung zu treffen.[15]

Was aber passiert, wenn Maschinen nicht nur einfache, sondern auch komplexe Entscheidungen übernehmen? Die Frage ist dabei nicht, ob diese Entscheidungsmaschinen kommen, sondern vielmehr, welche sich durchsetzen. Dabei darf man nicht außer Acht lassen, dass es nicht die Maschinen sind, die Menschen kontrollieren, sondern jene Menschen, die die Maschinen programmieren. Dann aber stellt sich die Frage, wer über Pensum und Belohnung am Arbeitsplatz entscheidet, über Punkte und Rabatte für vorsichtiges Autofahren, über richtiges und präventives Gesundheitsverhalten und über fleißiges Lernen?

Ist es vielleicht Google? Bei dem Internetkonzern arbeitet man bereits seit langem daran, Algorithmen mit Nutzungsdaten zu füttern, damit diese Entscheidungen „vorhersehen“ können. Googles Vorstandsvorsitzender Eric Schmidt und Jared Cohen, Direktor von Google Ideas, schlagen in ihrem Manifest „The New Digital Age“ sogar ein neues Ordnungsprinzip des Gesellschaftlichen vor: „In einer Art Gesellschaftsvertrag werden die Nutzer freiwillig auf einen Teil ihrer Privatsphäre verzichten [...], um die Vorteile der Vernetzung nutzen zu können.“[16]

Oder sind es die neuen „Cogs“, also kognitive Computer wie der IBM-Rechner Watson, die zu komplexen Entscheidungen auf der Basis von prinzipiell unabgeschlossenen „Lernprozessen“ fähig sind? Watson wurde weltberühmt, nachdem er 2011 gegen zwei menschliche Champions die Quizshow „Jeopardy!“gewann. Die Unternehmen, die diese Rechner von IBM kaufen, pochen auf Anonymität. Offensichtlich sind sie besorgt, dass öffentlich bekannt wird, wie viele Entscheidungen in Banken, Krankenhäusern oder Versicherungen schon heute nicht mehr von Menschen, sondern von Maschinen getroffen werden.

Selbstvermessung als Bürgerpflicht?

Fest steht: Die Entscheidungsmaschinen führen zu ganz neuen ethischen Fragestellungen. Ihre Entscheidungen basieren auf Daten, in die Erwartungen „eingebaut“ sind. Sie revolutionieren damit das Soziale über den Umweg des Technischen und schaffen dabei ein Organisationsprinzip des Sozialen, das Abweichung von der Norm mehr und mehr bestraft.

Damit kehrt sich gleichzeitig die Beweislast um: Künftig wird womöglich vorausgesetzt, dass der Einzelne nutzbare und transparente persönliche Daten bereitstellt. Jene, die sich dann auf ihr Recht auf Unberechenbarkeit berufen, werden sich rechtfertigen müssen, ob sie etwas zu verbergen haben. Eine solche Entwicklung birgt – auch wenn sie als smarte Ideologie daher kommt – totalitäres Potential.

Es überrascht wenig, dass einer der Mitbegründer und der Guru der Quantified-Self-Bewegung, Kevin Kelly, zugleich ein wichtiger Ideengeber des Neoliberalismus ist. Der erste Satz seines einflussreichen Buches „Neue Regeln für die New Economy“ lautet: „Niemand entgeht dem verwandelnden Feuer der Maschine.“ Kelly verlangt offen, dass der Mensch „selbst zum Werkstück [wird], das seinen Wert erst durch Verarbeitung und Tausch bekommt.“[17]

In diesem Tauschhandel gerät der fehlerhafte Mensch immer stärker unter Generalverdacht. Gerade das Beispiel des eingangs erwähnten „fehlerhaften“ Piloten der Germanwings-Maschine macht jedoch deutlich, dass es nicht ausreicht, Menschen immer genauer zu vermessen, um Fehler zu vermeiden. Denn ebendiese Fehler entstehen nicht zuletzt in einer Gesellschaft, die dem Einzelnen immer mehr zumutet und ihn dabei sozial erschöpft: Das gesamte „Ich“ wird zunehmend mit seiner Arbeitskraft gleichgesetzt und das Leistungsprinzip radikal individualisiert. Zugleich wird es radikal verallgemeinert, wenn der Begriff der Leistung deckungsgleich mit dem Vollzug des Lebens selbst wird. Soziale Erschöpfung tritt dann dort auf, wo sich Gesellschaften vom „Verkauf der Arbeitskraft“ verabschieden und zum „Verkauf der Persönlichkeit“ übergehen.

Umso mehr wir uns aber Entscheidungsmaschinen unterwerfen, desto mehr gleicht unser Leben der Gebrauchsanweisung eines Kühlschranks. Die Frage, die wir uns alle stellen müssen, lautet dann jedoch: Müssen wir funktionieren wie ein technisches Gerät oder nicht viel eher wie soziale Wesen, die fähig sind zu eigenständigem, kritischem Denken und nicht zuletzt zu Empathie?

Fest steht: Individuelle digitale Selbstvermessung als Bürgerpflicht, und sei es nur in bestimmten Bereichen oder Berufen, löst keines jener Probleme, die sozial erschöpfte Gesellschaften schaffen. Nur wenn wir uns unsere sozialen Fähigkeiten bewahren, können wir auf die psychologischen Risiken unserer nach Kriterien der Leistung und Optimierbarkeit organisierten Gesellschaft angemessen reagieren – und die erschöpften Individuen wieder als das sehen, was sie sind: als Menschen.

 


[1] Vgl. Evgeny Mozorov, Smarte neue Welt. Digitale Technik und die Freiheit des Menschen, München 2013, S. 19 ff. 

[2] Vgl. Joseph Walker, Can a Smartphone Tell if You’re Depressed?, in: „The Wall Street Journal“, 5.1.2015 sowie Aimee Swartz, It’s Not Just What You Say, It’s How You Say It, www.slate.com, 3.8.2014. 

[3] Walter Hehl, Trends in der Informationstechnologie. Von der Nanotechnologie zu virtuellen Welten, Zürich 2008. 

[4] Stew Magnuson, Army wants to make ‚every soldier a sensor’, www.nationaldefensemagazine.org, Mai 2007. 

[5] Zitiert nach Stefan Schmitt: Ein Bild aus tausend Spuren, in: „Die Zeit“, 32/2013, S. 27. 

[6] Gary Wolf, The Data-Driven Life, in: „The New York Times Magazine“, 28.4.2010. 

[7] Im Zusammenhang mit Lifelogging kann dabei von Körperkapital gesprochen werden – von korporalem Kapital. Vgl. Klaus Schröter, Korporales Kapital und korporale Performanzen in der Lebensphase Alter, in: Herbert Willems (Hg.), Theatralisierung der Gesellschaft, Wiesbaden 2009, S. 163-181. 

[8] Lars Distelhorst, Leistung. Das Endstadium einer Ideologie, Bielefeld 2014, S. 13. 

[9] Vgl. Christopher Stark, Neoliberalyse. Über die Ökonomisierung unseres Alltags, Wien 2014. 

[10] Der Effizienzexperte Frederik Taylor erkannte als Erster, dass sich die Arbeitsabläufe maßgeblich verbessern lassen. Aus seinen detaillierten Vermessungen leitete er verallgemeinerbare Erkenntnisse ab und machte Vorschläge zur Prozessoptimierung (heute ist eine ganze Managementphilosophie nach ihm benannt). 

[11] James Wilson, Die Vermessung der Arbeitswelt, in: „Harvard Business Manager“, 10/2013, S. 8-11. 

[12] Vgl. YouGov, Quantified Health, Die vernetzte Gesundheit: Chancen und Barrieren, Februar 2015. 

[13] Vgl. Mario Ballano Barcena u.a., How safe is your quantified self?, www.symantec.com 11.8.2014. 

[14] Vgl. Karl Polanyi, The Great Transformation. Politische und ökonomische Ursprünge von Gesellschaften und Wirtschaftssystemen. Frankfurt a. M. 2014. 

[15] Vgl. www.ampelini.de.

[16] Vgl. Eric Schmidt und Jared Cohen, Die Vernetzung der Welt. Ein Blick in unsere Zukunft. Reinbek bei Hamburg 2013, S. 368. 

[17] Zitiert nach Frank Schirrmacher, Ego. Das Spiel des Lebens. München 2013, S. 227.

(aus: »Blätter« 5/2015, Seite 79-86)
Themen: Datenschutz, Demokratie und Neoliberalismus

Probeabo: Zwei Monate für nur 10 Euro!
top