Interview mit Wolfgang Henseler:
Warum Roboter nicht alles von Menschen lernen sollen
Wolfgang Henseler ist Hochschulprofessor für digitale Medien - und erwartet eine neue Ethik für die Gesellschaft im Zeitalter der künstlichen Intelligenz.
Roboter sind viel emotionaler als man denkt. Die Menschen dagegen weniger moralisch - findet Wolfgang Henseler. Der Hochschulprofessor für digitale Medien stellt für die Gesellschaft 4.0 eine neue intermediale Ethik in Aussicht.
Artificial Intelligence oder Human Emotion - was ist besser?
Henseler: Ich denke, die Kombination aus beiden macht die Welt erst spannend. Es geht auch nicht um das Oder, sondern darum, wie das Und funktionieren wird. Also wie Mensch und kooperatives System in Zukunft intelligent zusammenarbeiten werden. KI ist schließlich ein vom Menschen entwickeltes Werkzeug, um sich die Welt in Zukunft angenehmer zu gestalten. Allerdings ein sehr mächtiges Tool, welches wir als Entwickler verstehen und orchestrieren können müssen, bevor es anfängt, uns zu orchestrieren.
Immer mehr Unternehmen holen sich künstliche Intelligenz ins Haus, um Prozesse zu automatisieren. Wo ist das Ende der Maschinenintelligenz erreicht? Was bleibt die Domäne des Menschen?
Zunächst handelt es sich bei den meisten Systemen nicht wirklich um künstlich intelligente Systeme, sondern um einzelne Teile eines großen Ganzen, welches am Ende zu künstlicher Intelligenz führen kann. Vieles, was als KI bezeichnet wird, ist meistens Machine-Learning, Image-Recognition, Cognitive Computing, Reinforced Learning usw., aber noch keine echte KI. Allerdings sind diese Komponenten durchaus in der Lage, aus riesigen Datenmengen Informationen zu extrahieren und aus diesen zu lernen sowie das Erlernte sinnvoll zu nutzen. Bei KI geht es aber außerdem darum, nicht die Technologie, sondern den Nutzer der Technologie in den Mittelpunkt der Systemkonzeption zu stellen, um wirtschaftlich mit KI erfolgreich zu sein. Die Domäne des Menschen bleibt aber weiterhin das abduktive Denken, also die Fähigkeit, innovativ in ganzheitlichen Bedeutungszusammenhängen denken zu können.
Sind Gefühle die letzte Bastion des Menschen oder können Maschinen das künftig auch?
Betrachten wir einmal, was z.B. auf Wikipedia oder anderen wissenschaftlichen Quellen als Gefühl betrachtet wird, so stellen wir sehr schnell fest, dass Roboter oder smarte Systeme durchaus schon so etwas wie Gefühle besitzen können beziehungsweise auch sehr schnell lernen können, was Gefühle sind. Vor allem im Bereich der Empathie – dem Einfühlungsvermögen in spezielle Kontexte – sehen wir, dass diese Roboter durchaus bereits emotionaler unterwegs sind, als sich dies viele vorstellen können.
Was müssen Unternehmen berücksichtigen, wenn sie mit KI operieren? Welche ethischen Fragen gilt es zu beachten?
Zunächst gilt es zu verstehen, was ein SRI, Situative Relevanz Index, ist. Dieser bildet die Grundlage für sämtliche Algorithmen, die lernen und intelligent handeln sollen. Des Weiteren ist es wichtig zu verstehen, dass, wenn die lernenden Systeme auf Menschen und deren Verhalten treffen, sie Dinge lernen, die wir nicht wollen, dass sie tun sollen. Dieses als "Entlernen" zu bezeichnende Phänomen wird viel zu häufig unterschätzt und nimmt den Großteil der Entwicklung ein. Das Thema KI und Ethik ist ein sehr heiß unter Experten diskutiertes Thema, da sich noch nicht eindeutig herauskristallisiert, welche Art der menschlichen Ethik oder Moral den neuen Systemen zugrundegelegt werden soll. Sehr schnell wird in diesem Zusammenhang festgestellt, dass die menschliche Ethik nicht unbedingt die ist, die man den Systemen implementieren möchte. Meiner Meinung nach sind wir als Gesellschaft 4.0 hier erst auf dem Weg zu einer vollkommen neuen Art der intermedialen Ethik.