Künstliche Intelligenz "Ein Kampfroboter kann nicht bereuen."


Werden Maschinen durch die Entwicklung Künstlicher Intelligenz uns Menschen immer ähnlicher? Und was bedeutet das für unser Menschsein? Kirche-Hamburg fragt im Interview (Teil 1) den Theologen Christoph Seibert.

Kirche-Hamburg: Der Mensch ist als Gottes Ebenbild erschaffen… Jetzt machen wir Menschen Maschinen nach unserem Bilde. Was bedeutet das?
Prof. Christoph Seibert: Wir müssen zwischen Erschaffen und Entwickeln unterscheiden. Beim Schöpfungsakt wurde etwas Neues geschaffen. Beim Entwickeln hingegen geht es eher um das Herstellen nach einer Vorlage. Da stellt sich auch die Frage: Was genau an diesem Bild von uns versuchen wir zu entwickeln? Denn jenes Bild ist ja sehr komplex, umfasst also viele Aspekte. Wir haben einen Körper und Sinne, begreifen uns als moralische oder religiöse Wesen. Ich denke, wir beschränken uns hier vor allem auf den Aspekt des intelligenten Verhaltens und probieren das, was wir darunter verstehen, mit Blick auf Computer und Maschinen zu programmieren. Das ist sicherlich ein wichtiger Aspekt, aber es ist nicht das, was wir als „imago dei“ – Gottes Ebenbildlichkeit – im vollen Umfang verstehen.

Was macht denn den Menschen aus?
Vieles. Ein wichtiger Punkt ist, dass wir mit uns selbst nicht identisch sind. Das bedeutet, dass wir beispielsweise etwas bereuen können. Ein Soldat kann bereuen, dass er eine Bombe über einem Kindergarten abgeworfen hat. Ein Kampfroboter hingegen nicht, zumindest nicht so, wie wir Reue verstehen. Diese Diskrepanz – zum Guten wie zum Schlechten fähig zu sein – macht uns aus. Es fällt mir schwer vorzustellen, wie man diese Grundeigenschaft, die den Umgang mit Schuld, aber auch die Liebe ermöglicht, programmieren kann. Hinzu kommt, dass wir Witze machen und Lachen können. Maschinen können aber keine Witze verstehen.

- Copyright: Deliah Cavalli-Ritterhoff

"Wir sollten uns gegen Ideen von einem 'gläsernen Menschen' stellen."

Beim autonomen Fahren müssen auch ethische Entscheidungen getroffen werden… Haben Maschinen also eine Moral?
Wenn Maschinen moralfähig wären, würde es bedeuten, dass sie im besten Sinne autonom sind und sich aus eigener Überzeugung ein Handlungsgesetz geben können. Und zwar so, dass dieses Gesetz nicht nur für sie gilt, sondern auch für andere Menschen. Wenn beispielsweise beim autonomen Fahren zwischen Entscheidungen abgewogen werden muss, haben wir es zwar mit einem komplexen Prozess von Datenverarbeitung, dem Vergleichen und Kombinieren von typischen Situationen und Einzelfällen zu tun. Das ist aber noch nicht Moral.

Und worin liegt nun unsere Verantwortung im Umgang mit Künstlicher Intelligenz?
Unsere Verantwortung liegt im Umgang mit der Technik. Ein entscheidendes Kriterium für mich ist, ob sie der Lebenserleichterung dient oder nicht. Ich sehe unsere Verantwortung aber noch in einem weiteren Bereich: Sie liegt darin, uns für individuelle Freiheitsrechte und Werte, die unsere Gesellschaft auszeichnen, einzusetzen. Im konfuzianisch geprägten China soll mit dem „Social Score“ bereits die digitale Überwachung der Bürger stattfinden. Das ist im chinesischen Kontext vielleicht verständlich, wir sollten uns aber gegen Ideen von einem „gläsernen Menschen“ stellen.

Besteht die Gefahr, dass wir Menschen Maschinen "vergöttern"? Lesen Sie mehr darüber im zweiten Teil des Interviews mit Prof. Christoph Seibert.