Wirtschaft für Gesellschaft.
Das Blog zum Blatt

Künstliche Intelligenz

Themen-Newsletter bestellen

»Stellen Sie sich mal Nähroboter in Indien oder Ägypten vor«

Ayad Al-Ani sieht die Brisanz in der Macht von Konzernen, die »das Verhältnis von Mensch und Maschine definieren, ohne dies demokratisch legitimieren zu müssen«. Er warnt vor globalen Krisen.

17.03.2017
Foto: privat
Der Wirtschafts- und Politikwissenschaftler Ayad Al-Ani lehrt am Institut für Wirtschaftsinformatik und Electronic Government der Universität Potsdam und ist Professor an der School of Public Leadership der Universität Stellenbosch, Südafrika. Er beschäftigt sich als Zukunftsforscher mit dem digitalen Wandel und hat ein Beratungsunternehmen gegründet, das Unternehmen dabei hilft, die Chancen des digitalen Wandels zu nutzen.

Künstliche Intelligenz (KI) wird überwiegend von Großkonzernen finanziert. Welche Auswirkungen hat das?

Ayad Al-Ani: Brisant ist, dass Konzerne das Verhältnis zwischen Mensch und Maschine definieren, ohne dies demokratisch legitimieren zu müssen. So gibt es zumindest zwei Denkschulen, die ihre Auseinandersetzung nur in Spezialistenkreisen führen, ohne eine gesellschaftliche Debatte auszulösen: Die Intelligence-Augmentation-Sichtweise (Intelligenzverstärkung) geht davon aus, dass Maschinen Menschen unterstützen sollen. Die Artificial-Intelligence-Schule hingegen zielt darauf ab, den potenziell widerständigen und beschränkt rationalen Menschen aus der Gleichung herauszunehmen.

Die Spezialisten der Konzerne haben ein elitäres Weltbild: Disziplin und Wissen werden nicht als sozial erlernt angesehen, sondern als etwas, das manche haben und andere nicht. Nicht verwunderlich, dass es meist nicht das Ziel war, den Menschen zu befähigen, sondern eher, ihn überflüssig zu machen, wie es Noam Chomsky zusammenfasste. Bestenfalls verfolgt man opportunistisch beide Ansätze parallel: Man produziert das selbstfahrende Auto und die Suchmaschine, die das Individuum bedient. Sowohl der Staat als auch die zivile Gesellschaft und Wissenschaft sind seltsam abstinent in dieser Debatte. Erst letztes Jahr gab es ein dünnes Thesenpapier der Obama-Administration zu Artificial Intelligence und der EU zur Robotik.

Allerdings fokussieren diese sich sehr auf das Thema der Gewährleistung und der Arbeitsplatzeffekte und gehen auf die Beziehung zwischen Mensch und Maschine nicht detailliert ein. Erstaunlich ist auch, dass sich die Religionen aus diesem Thema noch weitgehend fernhalten – wenn man von einer Stellungnahme des Vatikans zur künstlichen Intelligenz absieht-, obwohl der Begründer der Kybernetik, Norbert Wiener, in seinem Buch Gott und Golem, Inc. schon in den 1960er-Jahren auf die religiösen und philosophischen Implikationen selbstlernender Systeme aufmerksam machte. Hier wird eine Chance verschenkt, das Individuum zu stärken und die Maschinen als Kinder des Menschen zu gestalten.

Welche KI-basierten Produkte und Dienstleistungen halten Sie für nützlich?

Eigentlich alle, wenn sie dem Menschen dienen. Eine wichtige Ausnahme sind jene Entscheidungen und Aktionen, die der Mensch aufgrund seiner Veranlagungen so nicht oder nur extrem widerwillig treffen würde. In der Regel hat der Mensch eine Abneigung, andere Menschen zu töten. Diese Abneigung muss beim Militär erst durch mühsames Training überwunden und legitimiert werden. Militärroboter, die diese Tötung mehr oder weniger autonom durchführen können, würden eine Rationalisierung dessen bedeuten, was der Mensch aus gutem Grund verachtet und vermeidet.

Es zeigt sich, dass solche Roboter vor allem im Süden eingesetzt werden, wo – aus Sicht des Nordens – andere ethische Regeln zu gelten scheinen. So gesehen, spielen diese Roboter bei der Aufrechterhaltung einer Weltordnung eine wichtige Rolle, die trotz oder eher wegen Ungleichheit und Kollateralschäden einer steten Legitimierung und Rationalisierung bedarf. Software und »brillante Maschinen« werden im Sinne von »Might makes right« (Macht macht Recht) hier zentral, und man kann vermuten, dass sie zunehmend zur Abschottung von Regionen eingesetzt werden, die dem Norden bedrohlich erscheinen. Der Roboter als ultimative »Heldenmaschine« wird damit Höhepunkt eines »Militärzynismus« – von Peter Sloterdijk schön skizziert – der es auch dem normalen Bürger, der ja eher mehr ein Schwejk als ein Held ist, ermöglicht, diese Art der Kriegführung bzw. »Konfliktlösung« als rational und akzeptierbar erscheinen zu lassen.

Im Prinzip wären Roboter ja die perfekten Manager. Sie haben keinen Selbsterhaltungstrieb und würden nie betrügen.

Tweet this

Sind intelligente Produktionsanlagen mit Interesse am Erfolg ihrer Aktivitäten irgendwann die besseren Manager?

Ressourcenallokation – also die Zuordnung von Arbeit und Material zu Projekten – können Computer schon heute besser als der Mensch. Kreativität ist noch ausständig und wird erst mit der Singularität, also jenem Schritt, der dazu führt, dass Computer sich selbst steuern können, zu erwarten sein. Vielleicht wird dieser Fall auch nie eintreten. In der Zwischenzeit werden der Mensch und die Maschine bei bestimmten Entscheidungen wohl zu Konkurrenten, und wir können gespannt auf jene Situationen sein, in denen der Manager eine andere Entscheidung trifft als die Maschinen. Wie kann dies gerechtfertigt werden?

Im Prinzip wären Roboter ja die perfekten Manager. Sie haben keinen Selbsterhaltungstrieb und würden auch nie betrügen, jede Nuance ihrer Persönlichkeit wäre Teil eines Programms. Man kann nur erahnen, wie komplex die rechtlichen Regelungen werden, die die Menschen vor diesen superintelligenten Maschinen schützen bzw. diese in ihrem Sinne einsetzen. Die Regeln würden dann aus Gesellschafts-, Menschen- und auch Kartellrecht bestehen und ähnlich wie Asimovs Gesetze der Robotik in Code übersetzt und immerwährende Gültigkeit erlangen. Gleichwohl würden Supermaschinen durch ihre fortwährende Analyse der menschlichen Verhaltens­weisen – sie müssen ihnen ja stetig immer anspruchsvollere Produkte verkaufen – hier Übertretungswissen erlangen und die Menschen »unbemerkt« steuern und beeinflussen wie Eltern ihre Kinder.

Kann eine intelligente, sich selbst steuernde Produktionssphäre, die – so gut wie – keine Menschen mehr zu ihrem Betrieb braucht, das Paradies einer (fast) arbeitsfreien Gesellschaft zuwege bringen?

Hans Moravec, ein führender Roboterwissenschaftler, entwickelte die Vision, dass sich Roboterfabriken weiterhin im kapitalistischen Wettbewerb befinden und von Robotern geführt werden, die nichts mehr für sich verlangen und alles wieder in die Fabrik reinvestieren. Deren Überleben bzw. Existenz wird zum Hauptziel der Robo-Bosse. In einem gnadenlosen, rationalen und transparenten Wettbewerb der Roboterfabriken untereinander schmelzen auch die Profite. Und menschliche Manager, die noch Profit wollen, sind nicht wettbewerbsfähig und werden von Maschinen verdrängt. Fabriken zahlen Steuern an die Communitys, die damit ein Grundeinkommen finanzieren. Und Menschen können sich entscheiden, wo, was und wie viel sie arbeiten und so ihr Grundein­kommen erhöhen.

Das Problem ist wohl der Weg dorthin. Nationalstaaten werden in Communitys zerfallen, die sich entlang von gleichartigen Interessen und Leidenschaften oder sogar vorgeblich ethnischen Kriterien neu formieren. Ganze Regionen des Südens werden nicht mithalten, durch die erste Welle der Roboter in soziale und politische Krisen gestürzt und verkommen vielleicht infolgedessen zu zivilisatorischen No-Go-Areas, die durch Roboter isoliert werden müssen. Dieses Szenario ist in Anbetracht der Probleme der Entwicklungsländer und der Gefahr, dass die einfache Massenproduktion dort durch die Automatisierung obsolet wird, nicht von der Hand zu weisen.

Diese Länder werden so zum ersten unbarmherzigen Austragungsort des Konfliktes zwischen Mensch und Maschine. Man muss sich nur überlegen, welche Auswirkungen die ersten nähenden Roboter auf Länder wie Indien, Bangladesch und Ägypten haben werden. Schuhe können von Robotern bereits hergestellt werden. Ein deutscher Sportbekleidungshersteller hat seine Fabrik bereits wieder in den Westen verlegt und kann hier und an einem anderen Standort eine Millionen Schuhe produzieren, ohne nennenswerte menschliche Arbeitskraft. Die Frage bleibt dann, ob Technologie eingesetzt werden kann, diese ungleiche Entwicklung aufzulösen oder lediglich deren Konsequenzen einzudämmen. Eine digitale Entwicklungspolitik und -theorie ist jedoch nicht in Sicht.

Dieses Interview erschien in der Februarausgabe von OXI.

Das Interview führte:

Jo Wüllner

OXI Redakteur