Smartphones werden von der nächsten Technologie abgelöst

Künftig könnte sich dieses Szenario nochmals dramatisch verändern. Denn unsere gegenwärtigen Digital-Assistenten, die wie Smartphones nennen, sind nur eine Übergangstechnologie. Sie wird mit dem nächsten Technologiesprung abgelöst, der uns sehr wahrscheinlich wieder die Hände befreien dürfte. Wie wichtig das ist, erkennen wir daran, dass in einigen Städten bereits Verkehrszeichen auf Fußwegen direkt auf dem Boden angebracht wurden, weil die „Smombies“ nun mal eher nach unten schauen. Eventuell werden wir die Geräte, die uns mit der digitalen Welt vernetzen, dann gar nicht mehr sehen. Für den Fußball-Star ist das nicht die beste Nachricht, denn nun sieht er die Aufnahmegeräte nicht mal mehr.

Wie würden wir uns eigentlich selbst verhalten, wenn wir pausenlos einer Videoüberwachung ausgesetzt werden? Wir müssen dazu nicht mal Fußball-Star werden, denn viele Produkte der Digitalisierung nutzen Daten, die wir an den zahlreichen Berührungspunkten hinterlassen. Einige dieser Punkte sind sogar nur zur Generierung von Daten entwickelt worden. Fitness-Tracker zum Beispiel. Sie zeichnen umfangreiche Gesundheits- und Bewegungsdaten auf, deren Verarbeitung dann auf den Servern der Hersteller verlegt wird. Solche Daten sind nicht nur für den Wearable-Träger nützlich, sie wecken auch Begehrlichkeiten von Dritten. Arbeitergeber können anhand der Daten beispielsweise die Stimmung, den Stress-Level, Beziehungsmuster, die Leistung und Produktivität sowie die Zusammenarbeit der Mitarbeiter untereinander analysieren, wie Accenture in einer Studie dokumentiert hat. Und auch die Krankenkassen haben ein großes Interesse an diesen Daten.  

Dabei brauchen wir diese Daten doch so dringend, schließlich sind sie das Futter für die intelligenten Maschinen. Je mehr wir ihnen an Daten überlassen, um so schneller lernen sie daraus. In der Medizin können sie Diagnosen stellen, lange bevor es ein erfahrener Arzt kann. Kein Wunder, denn wir können sie mit Rohdaten füttern, die von beliebig vielen Ärzten stammen. Das Wissen von vielen, vereint in einer Maschine. Brauchen wir in der Zukunft also keine Ärzte mehr? Vielleicht. Wenn wir aber nur noch das umsetzen, was uns intelligente Maschinen empfehlen, dienen sie dann noch den Menschen oder dienen wir den Maschinen? Und was macht die Digitalisierung der Intelligenz aus uns Menschen, aus unserer Kultur, aus unserer Gesellschaft?

KI ist nicht immer objektiv

Die weitere Entwicklung der Künstlichen Intelligenz ist auch eine Frage der Ethik. Ein wesentliches Merkmal beim Deep Learning ist die Blackbox in der Mitte. Wir geben vorne Daten rein und erhalten hinten das Ergebnis, aber was passiert konkret dazwischen? Wir wissen es nicht und können es auch nicht kontrollieren. In verschiedenen Beispielen hat sich zudem gezeigt, dass selbst die Dateneingabe nur schwer zu kontrollieren ist. So wurde bereits 2016 der Microsoft- Chatbot „Tay“ von Nutzern innerhalb weniger Stunden zu einem Rassisten „erzogen“. Während es bei diesem Fall lediglich zu einem Reputationsschaden kam, sorgte eine von der US-Justiz eingesetzte KI-Software für eine beträchtliche Beeinflussung persönlicher Schicksale. Eric Loomis gehört zu den bekanntesten „Opfern“ der Software COMPAS. Die sollte der US-Justiz eigentlich bei der objektiven Beurteilung für das Rückfallrisiko helfen. Loomis wurde zu einer sechsjährigen Haftstrafe verurteilt. Sein Vergehen: Fahren eines Autos ohne Erlaubnis des Besitzers und versuchte Flucht vor der Polizei. Der größte Teil der Strafe beruht auf der Vorhersage von COMPAS, die eine erneute Konfrontation mit dem Gesetz mit hoher Wahrscheinlichkeit vorhersagte. Die KI-Software nutzt zahlreiche Daten wie Vorstrafen innerhalb der Familie, Informationen über Alkohol- und Drogenmissbrauch, häufige Wohn- und Arbeitsplatzwechsel, soziale Kontakte. Wie genau es dann aber zu der Risikoeinschätzung kommt, verrät Hersteller Northpoint nicht. Das sei schließlich ihr geistiges Eigentum.

Künstliche Intelligenz selbst ist nicht rassistisch oder diskriminierend, aber die Datengrundlage kann es durchaus sein. Daten, bei denen es um menschliches Verhalten geht, sind ein Spiegelbild unserer Gesellschaft. KI kann diese Probleme entweder reproduzieren oder sogar verstärken, wenn bestimmte Faktoren in der Lernphase als relevant eingestuft werden. Andererseits droht aber auch eine Gleichschaltung der Gesellschaft, wenn lernende System aus den Daten immer die gleichen Schlüsse ziehen und durch diese Gleichentwicklung neue Normen entstehen.

Wir verfallen nur allzu gerne der falschen Annahme, dass Maschinen immer objektiv sind. Es würde einfach viele Probleme mit Ungleichbehandlungen beseitigen, aber so einfach ist es nicht. Neuronale Systeme lernen nicht aus eigenem Antrieb heraus, sie brauchen Daten und Klassifizierungen. Die bekommen sie immer noch von uns Menschen und wir machen Fehler. Das passiert unbewusst oder in manipulativer Absicht. So verwundert es am Ende auch nicht, dass führende KI-Wissenschaftler der Universitäten Stanford, Yale, Oxford und Tohoku sowie KI-Entwickler von Microsoft und Google zusammen ein Moratorium für die Weiterentwicklung von Künstlicher Intelligenz fordern. Gemeinsam plädieren sie in einer Veröffentlichung für die Abkehr von der vorherrschenden KI-Euphorie, an dessen Stelle ein neuer KI-Realismus treten solle, der nicht nur die vielen positiven Seiten betrachtet, sondern auch die schädlichen mitdenkt.

Etwas größer gedacht wäre auch ein neuer Realismus beim Oberthema Digitalisierung hilfreich. Es ist eben doch nicht alles nur nützlich für den Menschen, genauso wenig, wie alles nur schlecht ist. Neue Formen der Zusammenarbeit können fantastisch sein, sie können Menschen aber auch überfordern und zusätzlichem Stress aussetzen. Aus Daten lassen sich wichtige Erkenntnisse ableiten, aber auch Geschäftsmodelle, die den Menschen als Objekt behandeln. Es kommt darauf an, was wir als Gesellschaft aus den Möglichkeiten machen. Da ist die Politik ebenso gefragt wie die Wirtschaft – und nicht zuletzt jeder Einzelne von uns.

Text: Falk Hedemann

Wie wir den Menschen wieder in den Fokus der Entwicklung digitaler Lösungen rücken und damit die Probleme in der Digitalwirtschaft lösen können, diskutieren am 20. und 21. September Digitalentscheider und Experten unter dem Motto “Digital Fix - Fix Digital” auf der NEXT Conference 2018.


W&V Redaktion
Autor: W&V Redaktion

Es gibt unterschiedliche Gründe, warum Artikel mit "W&V-Redaktion" gekennzeichnet sind. Zum Beispiel, wenn mehrere Autor:innen daran mitgearbeitet haben oder wenn es sich um einen rein nachrichtlichen Text ohne zusätzliche Informationen handelt. Wie auch immer: Die redaktionellen Standards von W&V gelten für jeden einzelnen Artikel.