Essay:
Mensch oder Maschine: Wer dient wem - und wer löst die Probleme der Digitalwirtschaft?
Die Digitalisierung macht unser Leben leichter, aber sie bringt auch Unsicherheiten mit sich. Das Smartphone verändert unsere Wahrnehmung, intelligente Maschinen verändern unsere Kultur. Nur der Mensch kann die Probleme der Digitalwirtschaft letztlich lösen. Unser Essay zeigt Szenarien auf, die uns bevorstehen.
Die Digitalisierung hat uns fest in der Hand. Wir begegnen ihr jeden Tag aufs Neue und es kommen immer weitere Berührungspunkte hinzu. Sie versprechen uns eine neue Welt mit Möglichkeiten, die wir bislang nur aus Science-Fiction-Filmen kannten. Vieles wird bequemer, einfacher, sicherer, vernetzter. Maschinen übernehmen ungeliebte Arbeit. Daten zeigen uns neue, lukrative Geschäftsmodelle. Die künstliche Intelligenz neuronaler Computernetze erkennt Muster, die ein Mensch nicht finden würde, selbst wenn er sein ganzes Leben darauf verwenden würde. Wir fahren bald schon keine Autos mehr, sondern lassen uns fahren. Wir können uns auch nicht mehr aus der Wohnung ausschließen, denn die erkennt uns automatisch, wenn wir uns der Eingangstür nähern. Und sicher werden wir auch bald die prophezeiten Flugtaxis haben. Dann werden wir auch nicht mehr über dieses Internet sprechen, denn das wird zu einem neuen Basiselement für das menschliche Leben, so wie Luft oder Wasser.
Es ist eine wahrlich spannende Zeit, in der wir gerade leben. Alles entwickelt sich so dramatisch schnell weiter, dass wir uns gerade an eine neue Technologie gewöhnt haben, wenn sie schon wieder vor der Ablösung steht. Das Smartphone, durch das wir heute maßgeblich die Welt sehen zum Beispiel. Wie sehr dieses kleine Gerät unsere Wahrnehmung der Welt verändert hat, kann man sehr schön bei medialen Großereignissen wie der Fußball-WM erkennen. Da kommt der Star, der gerade noch das entscheidende Tor geschossen hat, in die Fankurve gelaufen – und keiner schaut ihn an. Alle schauen auf ihr Smartphone und nehmen Schnappschüsse oder gar Videos der Realität auf, derer sie sich selbst gerade verweigern. Die allgegenwärtigen Smartphones haben aber nicht nur einen Einfluss auf unsere Wahrheit der Realität, sie verändern diese auch. Der Fußballer der digitalen Neuzeit verhält sich ganz anders, weil er nahezu lückenlos überwacht wird.
Künftig könnte sich dieses Szenario nochmals dramatisch verändern. Denn unsere gegenwärtigen Digital-Assistenten, die wie Smartphones nennen, sind nur eine Übergangstechnologie. Sie wird mit dem nächsten Technologiesprung abgelöst, der uns sehr wahrscheinlich wieder die Hände befreien dürfte. Wie wichtig das ist, erkennen wir daran, dass in einigen Städten bereits Verkehrszeichen auf Fußwegen direkt auf dem Boden angebracht wurden, weil die „Smombies“ nun mal eher nach unten schauen. Eventuell werden wir die Geräte, die uns mit der digitalen Welt vernetzen, dann gar nicht mehr sehen. Für den Fußball-Star ist das nicht die beste Nachricht, denn nun sieht er die Aufnahmegeräte nicht mal mehr.
Wie würden wir uns eigentlich selbst verhalten, wenn wir pausenlos einer Videoüberwachung ausgesetzt werden? Wir müssen dazu nicht mal Fußball-Star werden, denn viele Produkte der Digitalisierung nutzen Daten, die wir an den zahlreichen Berührungspunkten hinterlassen. Einige dieser Punkte sind sogar nur zur Generierung von Daten entwickelt worden. Fitness-Tracker zum Beispiel. Sie zeichnen umfangreiche Gesundheits- und Bewegungsdaten auf, deren Verarbeitung dann auf den Servern der Hersteller verlegt wird. Solche Daten sind nicht nur für den Wearable-Träger nützlich, sie wecken auch Begehrlichkeiten von Dritten. Arbeitergeber können anhand der Daten beispielsweise die Stimmung, den Stress-Level, Beziehungsmuster, die Leistung und Produktivität sowie die Zusammenarbeit der Mitarbeiter untereinander analysieren, wie Accenture in einer Studie dokumentiert hat. Und auch die Krankenkassen haben ein großes Interesse an diesen Daten.
Dabei brauchen wir diese Daten doch so dringend, schließlich sind sie das Futter für die intelligenten Maschinen. Je mehr wir ihnen an Daten überlassen, um so schneller lernen sie daraus. In der Medizin können sie Diagnosen stellen, lange bevor es ein erfahrener Arzt kann. Kein Wunder, denn wir können sie mit Rohdaten füttern, die von beliebig vielen Ärzten stammen. Das Wissen von vielen, vereint in einer Maschine. Brauchen wir in der Zukunft also keine Ärzte mehr? Vielleicht. Wenn wir aber nur noch das umsetzen, was uns intelligente Maschinen empfehlen, dienen sie dann noch den Menschen oder dienen wir den Maschinen? Und was macht die Digitalisierung der Intelligenz aus uns Menschen, aus unserer Kultur, aus unserer Gesellschaft?
KI ist nicht immer objektiv
Die weitere Entwicklung der Künstlichen Intelligenz ist auch eine Frage der Ethik. Ein wesentliches Merkmal beim Deep Learning ist die Blackbox in der Mitte. Wir geben vorne Daten rein und erhalten hinten das Ergebnis, aber was passiert konkret dazwischen? Wir wissen es nicht und können es auch nicht kontrollieren. In verschiedenen Beispielen hat sich zudem gezeigt, dass selbst die Dateneingabe nur schwer zu kontrollieren ist. So wurde bereits 2016 der Microsoft- Chatbot „Tay“ von Nutzern innerhalb weniger Stunden zu einem Rassisten „erzogen“. Während es bei diesem Fall lediglich zu einem Reputationsschaden kam, sorgte eine von der US-Justiz eingesetzte KI-Software für eine beträchtliche Beeinflussung persönlicher Schicksale. Eric Loomis gehört zu den bekanntesten „Opfern“ der Software COMPAS. Die sollte der US-Justiz eigentlich bei der objektiven Beurteilung für das Rückfallrisiko helfen. Loomis wurde zu einer sechsjährigen Haftstrafe verurteilt. Sein Vergehen: Fahren eines Autos ohne Erlaubnis des Besitzers und versuchte Flucht vor der Polizei. Der größte Teil der Strafe beruht auf der Vorhersage von COMPAS, die eine erneute Konfrontation mit dem Gesetz mit hoher Wahrscheinlichkeit vorhersagte. Die KI-Software nutzt zahlreiche Daten wie Vorstrafen innerhalb der Familie, Informationen über Alkohol- und Drogenmissbrauch, häufige Wohn- und Arbeitsplatzwechsel, soziale Kontakte. Wie genau es dann aber zu der Risikoeinschätzung kommt, verrät Hersteller Northpoint nicht. Das sei schließlich ihr geistiges Eigentum.
Künstliche Intelligenz selbst ist nicht rassistisch oder diskriminierend, aber die Datengrundlage kann es durchaus sein. Daten, bei denen es um menschliches Verhalten geht, sind ein Spiegelbild unserer Gesellschaft. KI kann diese Probleme entweder reproduzieren oder sogar verstärken, wenn bestimmte Faktoren in der Lernphase als relevant eingestuft werden. Andererseits droht aber auch eine Gleichschaltung der Gesellschaft, wenn lernende System aus den Daten immer die gleichen Schlüsse ziehen und durch diese Gleichentwicklung neue Normen entstehen.
Wir verfallen nur allzu gerne der falschen Annahme, dass Maschinen immer objektiv sind. Es würde einfach viele Probleme mit Ungleichbehandlungen beseitigen, aber so einfach ist es nicht. Neuronale Systeme lernen nicht aus eigenem Antrieb heraus, sie brauchen Daten und Klassifizierungen. Die bekommen sie immer noch von uns Menschen und wir machen Fehler. Das passiert unbewusst oder in manipulativer Absicht. So verwundert es am Ende auch nicht, dass führende KI-Wissenschaftler der Universitäten Stanford, Yale, Oxford und Tohoku sowie KI-Entwickler von Microsoft und Google zusammen ein Moratorium für die Weiterentwicklung von Künstlicher Intelligenz fordern. Gemeinsam plädieren sie in einer Veröffentlichung für die Abkehr von der vorherrschenden KI-Euphorie, an dessen Stelle ein neuer KI-Realismus treten solle, der nicht nur die vielen positiven Seiten betrachtet, sondern auch die schädlichen mitdenkt.
Etwas größer gedacht wäre auch ein neuer Realismus beim Oberthema Digitalisierung hilfreich. Es ist eben doch nicht alles nur nützlich für den Menschen, genauso wenig, wie alles nur schlecht ist. Neue Formen der Zusammenarbeit können fantastisch sein, sie können Menschen aber auch überfordern und zusätzlichem Stress aussetzen. Aus Daten lassen sich wichtige Erkenntnisse ableiten, aber auch Geschäftsmodelle, die den Menschen als Objekt behandeln. Es kommt darauf an, was wir als Gesellschaft aus den Möglichkeiten machen. Da ist die Politik ebenso gefragt wie die Wirtschaft – und nicht zuletzt jeder Einzelne von uns.
Text: Falk Hedemann
Wie wir den Menschen wieder in den Fokus der Entwicklung digitaler Lösungen rücken und damit die Probleme in der Digitalwirtschaft lösen können, diskutieren am 20. und 21. September Digitalentscheider und Experten unter dem Motto “Digital Fix - Fix Digital” auf der NEXT Conference 2018.