Sie beobachten uns bereits und lernen von uns. Ganz still und leise – jeden Tag. Unsere kleinen Helferlein im Alltag speichern und interpretieren kontinuierlich Daten über uns und unser Verhalten. Und dies bereits seit Jahren: unseren Standort, unsere Wegstrecken, unseren Musikgeschmack, unser Schlafverhalten, unsere Kaufbewertung, unsere Reaktion auf Werbung, unser Such- und Klickverhalten und unzählige weitere Einzelparameter. Millionen Nutzer haben dieser Beobachtung bereits zugestimmt oder mussten zustimmen – bspw. beim aktuellen mobilen Betriebssystem von Apple iOS7. Wer es haben will muss sich mit den Geschäftsbedingungen einverstanden erklären. Die Kosten der 24/7-Beobachtung durch die Maschinen ist unsere Privatsphäre. Dieses Phänomen wird immer häufiger in Kauf genommen. Nicht anders ist es zu erklären, dass sich mittlerweile so viele Menschen auf der Welt damit abgefunden haben, dass im Hintergrund persönliche Daten jeglicher Art aufgezeichnet werden.
Von der breiten Öffentlichkeit fast unbemerkt, nehmen die Fähigkeiten unserer Maschinen rasant zu. Und damit nehmen auch die Datenberge Jahr für Jahr zu – Stichwort Big Data. Darüber hinaus fließt immer mehr Intelligenz in die Datenanalyse und -interpretation ein. Bis 2020 sollen bis zu 40% der erfassten Daten (ökonomisch) verwertet werden können. Heute sind es gerade mal 1-2%. Gleichzeitig arbeiten die meisten ausgereiften Systeme bereits mit einer Genauigkeit von 80-90%.
In diesem Zusammenhang wird sich die Form der Datenerfassung in den kommenden Jahren verändern. Beispielsweise geht der Futurologe Dr. Ian Yeoman davon aus, dass es die Kinder von morgen als ganz natürlich empfinden werden, in eine Maschine zu sprechen, die sie versteht, ohne etwas auf einer Tastatur oder einem Bildschirm einzutippen. Damit wird Spracherkennung mit intelligenten Agenten, die unsere natürliche Sprache erfassen und aus der Erfahrung lernen zunehmend zu einer allgemein verfügbaren Technologie.
Gleichzeitig werden uns Maschinen immer ähnlicher – sie werden immer mehr, wie wir selber sind. Der NASA-Forscher Dr. Cuck Jorgensen prognostiziert, dass das intelligente maschinelle Analysesysteme in ungefähr 10 Jahren zuverlässiger und präziser messen und auswerten werden, als wir es selber könnten. Geben wir dieser Idee mehr Eigenraum, wird mit steigender maschineller Analyse schrittweise unsere emotionale Privatsphäre schwinden. Das wird zur Folge haben, dass sich auch unsere sozialen Mechanismen, die durch unsere emotionale Reaktionen geprägt werden, ändern werden.
Menschliche Maschinen lassen unsere emotionale Privatsphäre immer mehr schwinden
Woran denken wir, was fühlen wir? Sind wir gerade glücklich, traurig, wütend, überrascht oder eifersüchtig? Als digitale Unterstützer werden es unsere digitalen Wegbegleiter zukünftig wissen, noch bevor es uns selber bewusst wird. Das perzeptive Erkennungsystem wird immer schneller und verlässlicher. Unsere Begleiter erkennen Mikrogesten mit hochfiligranen Nuancen richtig und reagieren angemessen darauf. Die technologische Entwicklung wird größtenteils inkrementell, aber gelegentlich auch radikal verlaufen. Mit jeder neuen Generation werden unsere Maschinen einen höheren Reifegrad erlangen und uns immer besser assistieren.
- Unser Gesicht wird via 3D-Texturanalyse (wieder-)erkannt und interpretiert: welche Gesichtszüge lassen auf welches Gefühl schließen?
- Über unsere Suche stellen die Maschinen in Echtzeit fest, ob uns die Ergebnisse gefallen, missfallen oder uns langweilen .
- Unsere Blicke werden interpretiert: wie lange schauen wir wohin? Eine vergrößerte Pupillengröße gibt Auskunft über den Grad unserer Erregung
- Unsere Körperhaltung und Muskelaktivität wird interpretiert: wie stehen wir? Wirken wir unsicher, souverän, nervös, gelangweilt, abwehrend, verliebt?
- Unsere Muskelspannung wird erschlossen: wirken wir angespannt oder entspannt?
- Unsere Atmung wird gedeutet: in welcher Atemfrequenz und Atemamplitude atmen wir gerade?
- Unsere Sprache wird analisiert: Sprechen wir gerade schnell oder langsam, aufgeregt oder entspannt, laut oder leise – und gleichen die Signale mit spezifischen Muster ab.
- Unsere Hauttemperatur wird ausgelesen: Infrarotbilder zeigen an, ob wir entspannt, erregt, gesund oder krank wirken
Die persönlichen Assistenten, die wir am Körper tragen, kennen aufgrund ihrer fortgeschrittenen künstlichen Intelligenz und ihrer permanenten Verbindung mit dem Internet unsere individuellen Vorlieben oder schätzen diese Tag für Tag immer besser ein. Die tragbaren Geräte sind kleiner, schneller und funktionsreicher denn je geworden und ganz normaler Teil unserer praktischen Realität.
Mittels Sensoren in den Wearable Computing Devices (Uhren, Ketten, Brillen, Kleidung) werden auf Wunsch unsere Vitaldaten kontinuierlich interpretiert. Gleichzeitig werden die in Wearables integrierten optischen und akustischen Systeme unsere Stimmung durch unsere Gesichtsausdrücke und Körperhaltung erfassen, diese richtig verstehen und auf unsere umgangssprachliche Anweisungen reagieren.
Zusätzlich tragen wir Geräte, die von wenigen Nanometern großen Mikrochips betrieben werden, in unserem Körper. Damit kombinieren wir tragbare mit nahezu unsichtbarerer Technologie.
Schwingungsbasierte, haptische Verfahren ermöglichen es uns Oberflächen wie Wolle, Seide, Blumen, Kakteen, Wasser, Gras oder Blätterlaub auf tragbaren Endgeräten zu fühlen. Wir fühlen den Sand eines weit entfernten weißen Sandstrandes in der Karibik zwischen unseren Zehen oder nehmen sogar das wohlige Gefühl von Sonnenstrahlen auf unserer Haut wahr.
Vision menschliche Maschinen in 2025:
Digitale Lügendetektoren als Kommunikationsassistenten helfen uns dabei, ehrlich und geheimnisfrei zu kommunizieren
Wir befinden uns im Jahr 2023. Der menschliche Dialog hat sich massiv verändert. Menschliche Maschinen sind der Grund, warum die Welt um uns herum transparenter und geheimnisfreier geworden ist. Menschliche Maschinen beobachten und werten unsere Sprache, unsere Körpersprache, unsere Körperspannung, unseren Gang und unsere Mikro-Gesten hochpräzise aus – auch die Merkmale die uns selber gar nicht genau bewusst sind. Alles wird in Echtzeit von uns und für uns ausgewertet, um Schlussfolgerungen daraus zu ziehen. Rund um die Uhr geben wir Daten preis. Im Gegenzug erhalten wir Daten von unseren Mitmenschen und Geschäftspartnern. Wir können prüfen, ob das gesprochene Wort unseres Gesprächspartners ehrlich und aufrichtig gemeint war oder nicht: beim Dating, bei der Verkaufsberatung, bei einer politischen Debatte, im Rahmen von Vertragsverhandlungen oder in Meetings. Der Wegfall von Informationsasymmetrien hat die Welt durchschaubarer gemacht. Die Partnersuche ist einfacher geworden. Verkäufer klären uns über alle Vor- und Nachteile auf. Politiker versprechen nur das, was sie auch halten können. Angeklagte sprechen vor Gericht die Wahrheit. Die Zahl der Straftaten ist gesunken. Kreditausfallrisiken sind gesunken. Banken und Versicherungen bieten uns günstigere Tarife an.
Da wir durch die gestiegene Kommunikationstransparenz unsere Mitmenschen nicht länger im Unklaren lassen (können), sind wir nicht mehr in der Lage, unsere Geheimnisse vor anderen zu verstecken. Kleinste Gestiken der Körpersprache verraten, ob wir bei der Wahrheit geblieben sind oder nicht. Das bedeutet, dass wir uns keinen bequemen Geheimnissen oder Unwahrheiten mehr hingegeben können. Auch Notlügen funktionieren nicht mehr. Das Wegfallen von Unsicherheit und Ungewissheit durch durchschaubare Kommunikation lässt eine neue Ära physischer Gesundheit beginnen. Die Welt öffnet sich. Und Ehrlichkeit ist keine Tugend mehr, sondern tägliche Realität.
Leave a Reply