Ausgabe Nr.2   März 1998
 

"Mich stört der Größenwahn . . ."
"Mich stört der Größenwahn zu glauben, man könne so etwas wie einen künstlichen Menschen herstellen", sagt Joseph Weizenbaum. Diese Kritik ist Hans Moravec und Marvin Minsky zugedacht, Vertretern eines instrumentell-rationalen und damit eindimensionalen Ansatzes in der amerikanischen Roboterforschung. Weizenbaum war in den 50er und 60er Jahren einer der führenden Köpfe der Computerforschung in den USA. Unter den Eindrücken des Vietnam-Kriegs wandelte sich der Informatik-Professor am MIT zum engagierten Kritiker. Bekannt wurde er unter anderem durch die Entdeckung des sogenannten ELIZA-Effekts, mit dem er die Intelligenz des Computers als Mythos entlarvte. Im Alter von 75 Jahren ist Weizenbaum längst nicht müde, vor dem Menschenbild mancher Forscher in der Künstlichen Intelligenz zu warnen...

Biographie:

Joseph Weizenbaum, 1923 in Berlin geboren, emigrierte 1936 mit seinen Eltern in die USA. Während des Krieges diente der Mathematikstudent in der Luftwaffe. Nach Kriegsende beendete er sein Studium an der Wayne Universität in Detroit und arbeitete in einem Computerprojekt. Maßgeblich war er an der Konzeption des ersten Computer-Banksystems beteiligt. 1963 berief man ihn zum Professor für Informatik an das Massachusetts Institute of Technology (MIT), wo er am "Laboratory for Computer Science" arbeitete. Er ist Mitbegründer der Organisationen "Computer Professionals for Social Responsibility" und des "Forums der Informatiker für Frieden und gesellschaftliche Verantwortung".

Was unterscheidet den Menschen von einer Maschine?

Wesentlich ist, daß der Mensch in einer menschlichen Gesellschaft sozialisiert ist. Wenn ein Computer überhaupt sozialisiert ist, dann doch ganz anders. Er hat keinen menschlichen Körper. Ein wichtiger Teil unserer Sozialisation ist die Wahrnehmung des eigenen Körpers und der Körper anderer Menschen.

Glauben Sie, daß Maschinen ein Bewußtsein haben können?

Ja, das glaube ich.

Ließe sich das Gehirn eines Menschen in einen Computer überspielen? Das glaubt etwa Roboterforscher Hans Moravec.

Ich glaube nicht, daß ein Gerät funktionieren kann wie ein menschliches Gehirn. Die Erfahrungen, die ein menschliches Gehirn sammelt, sind einzigartig. Zur Sozialisation gehören etwa die biologischen Bedürfnisse eines Menschen. Nehmen wir als Beispiel den Durst. Dieses Bedürfnis teilen wir Menschen mit vielen Tieren. Nun hat eine Maschine sicher auch Bedürfnisse, allerdings keine menschlichen. Eine Maschine hat keinen Durst.

Sie kritisieren in ihren Veröffentlichungen die rationale Intelligenz, die sich in der Konstruktion von Maschinen widerspiegelt. Maschinen fehlen etwa Emotionen und ein Körpergefühl.

Das behaupte ich nicht. Wir können Maschinen herstellen, die Emotionen und ein Körpergefühl haben. Aber das sind keinen menschlichen Emotionen und das ist kein menschliches Körpergefühl. Obwohl diese Empfindungen menschlichen ziemlich ähnlich sein können.

Hat die KI-Forschung aus ihrer Kritik der vergangenen Jahre gelernt?

So stolz bin ich nicht. Aber die Zielrichtung der Forschung in der Künstlichen Intelligenz hat sich in den letzten fünf bis zehn Jahren radikal geändert. Vorher war die KI nur die Lösung kleiner Spielzeugprobleme. Jetzt ist man weiter. Mich stört der Größenwahn zu glauben, man könne so etwas wie einen künstlichen Menschen herstellen.

Wer besitzt denn einen solchen Größenwahn?

Beispielsweise Hans Moravec und Marvin Minsky.

Obwohl die auch nicht wissen, wie das gelingen könnte.

Ja, aber das geben sie nicht zu. Vielleicht sagen sie, es gebe da noch ein paar Lücken; doch im großen und ganzen wissen wir es. Beide glauben, daß es möglich ist, eine maschinelle Intelligenz herzustellen, die die menschliche Intelligenz weit übertrifft.

Was halten Sie von diesen Visionen?

Solche Visionen, etwa wie Hans Moravec sie in seinem Buch "Mind Children" beschreibt, setzen das Ende der Menschheit voraus. In diesen Ansätzen zeigt sich eine Verachtung des menschlichen Wesens.


"Es ist Zeit, Alarm zu schlagen"

"Ideen haben eine Macht. Auch Ideen, die nicht realisierbar sind, haben eine Macht. Das sollten Sie hier in Deutschland besonders deutlich wissen. Es gab einst falsche Ideen, die in Deutschland ernst genommen wurden. Die Konsequenz dieser Ideen waren 40 Millionen Leichen. Das hatte mit dem Menschenbild zu tun. Der Eifer, mit dem die Ideen von Moravec begrüßt werden, erschreckt mich – und es gibt viele die glauben, daß wir die umsetzen können. Das verrät etwas. Ebenso die Aussage von Minsky, daß Gott ein mittelmäßiger Ingenieur war, mit vielen Schwächen, wie Schlafen und Tod. Nun seien wir in der Lage, in die Evolution einzugreifen. Ein Roboter hätte diese Schwächen nicht. Das zeigt eine Verachtung des biologischen Lebens und des menschlichen Körpers. ... Es ist Zeit, Alarm zu schlagen. Ich erinnere mich an Treffen vor 25 Jahren, wo wir über heute nachgedacht haben. 25 Jahre sind keine lange Zeit. Sie werden 2025 noch erleben. Wir müssen jetzt anfangen zu fragen: 'Wollen wir diese Entwicklung in der KI?'; Eine öffentliche Debatte über Robotik muß jetzt beginnen."

(Professor Joseph Weizenbaum in der GMD am 9. Februar 1998)


Kinder des Geistes

"Heute sind unsere Maschinen einfache Geschöpfe. Wie jedes Neugeborene benötigen sie die Pflege und ständige Aufmerksamkeit ihrer Eltern. Sie verdienen die Bezeichnung 'intelligent' kaum. Aber schon im nächsten Jahrhundert werden sie zu Wesen reifen, die so komplex wie wir sind und vielleicht alles bislang Bekannte übertreffen. Wir können stolz sein, wenn sie von uns als ihren Vorfahren sprechen. Entfesselt vom schleppenden Gang der biologischen Evolution, werden die Kinder unseres Geistes frei sein, immense Herausforderungen im Universum zu bestehen."

(Moravec, Hans: Mind Children. The Future of Robot and Human Intelligence, Harvard University Press, Cambridge, Massachusetts 1988)


Typische Konversation mit ELIZA:

Men are all alike.
IN WHAT WAYS

They're alwas bugging us about something other.
CAN YOU THINK OF A SPECIFIC EXAMPLE

Well, my boyfriend made me come here.
YOUR BOYFRIEND MADE YOU COME HERE

He says I'm depressed much of the time.
I AM SORRY TO HEAR THAT YOU ARE DEPRESSED

It's true. I'm unhappy.
DO YOU THINK COMING HERE WILL HELP YOU NOT TO BE UNHAPPY

I need some help, that much seems certain.
WHAT WOULD IT MEAN TO YOU IF YOU GOT SOME HELP

Perhaps I could learn to get along with my mother.
TELL ME MORE ABOUT YOUR FAMILY

...

WHAT ELSE COMES TO MIND WHEN YOU THINK OF YOUR FATHER

Bullies.
DOES THAT HAVE ANYTHING TO DO WITH THE FACT THAT YOUR BOYFRIEND MADE YOU COME HERE


ELIZA-Effekt

"Eliza schuf in den Köpfen vieler Leute, die mit ihr ein Gespräch führten, die höchst bemerkenswerte Illusion, sie sei mit Verständnis begabt. Personen, die genau wußten, daß sie es mit einer Maschine zu tun hatten, vergaßen diese Tatsache schnell, genau wie Theaterbesucher ihre Zweifel bald beiseite schieben und vergessen, daß die Handlung, der sie beiwohnen, nicht wirklich ist. Diese Illusion war besonders stark und wurde am hartnäckigsten von solchen Leuten aufrecht erhalten, die über Computer wenig oder nichts wußten. Es kam oft vor, daß sie um die Erlaubnis baten, sich mit dem System unbeobachtet unterhalten zu dürfen, und trotz meiner Erklärungen bestanden sie nach der Unterhaltung darauf, die Maschine habe sie wirklich verstanden." (Die Macht der Computer und die Ohnmacht der Vernunft, Frankfurt am Main 1978)

 Ausgabe Nr.2   März 1998