|
"Mich stört der Größenwahn zu glauben, man
könne so etwas wie einen künstlichen Menschen
herstellen", sagt Joseph Weizenbaum. Diese Kritik ist Hans Moravec
und Marvin Minsky zugedacht, Vertretern eines instrumentell-rationalen
und damit eindimensionalen Ansatzes in der amerikanischen
Roboterforschung. Weizenbaum war in den 50er und 60er Jahren einer der
führenden Köpfe der Computerforschung in den USA. Unter den
Eindrücken des Vietnam-Kriegs wandelte sich der
Informatik-Professor am MIT zum engagierten Kritiker. Bekannt wurde er
unter anderem durch die Entdeckung des sogenannten ELIZA-Effekts, mit dem
er die Intelligenz des Computers als Mythos entlarvte. Im Alter von 75
Jahren ist Weizenbaum längst nicht müde, vor dem Menschenbild
mancher Forscher in der Künstlichen Intelligenz zu
warnen...

Biographie:
Joseph Weizenbaum, 1923 in Berlin geboren,
emigrierte 1936 mit seinen Eltern in die USA. Während des Krieges
diente der Mathematikstudent in der Luftwaffe. Nach Kriegsende beendete
er sein Studium an der Wayne Universität in Detroit und arbeitete
in einem Computerprojekt. Maßgeblich war er an der Konzeption des
ersten Computer-Banksystems beteiligt. 1963 berief man ihn zum Professor
für Informatik an das Massachusetts Institute of Technology (MIT),
wo er am "Laboratory for Computer Science" arbeitete. Er ist
Mitbegründer der Organisationen "Computer Professionals for
Social Responsibility" und des "Forums der Informatiker
für Frieden und gesellschaftliche Verantwortung".
|
|
Was unterscheidet den Menschen von einer Maschine?
Wesentlich ist, daß der Mensch in einer menschlichen Gesellschaft
sozialisiert ist. Wenn ein Computer überhaupt sozialisiert ist,
dann doch ganz anders. Er hat keinen menschlichen Körper. Ein
wichtiger Teil unserer Sozialisation ist die Wahrnehmung des eigenen
Körpers und der Körper anderer Menschen.
Glauben Sie, daß Maschinen ein
Bewußtsein haben können?
Ja, das glaube ich.
Ließe sich das Gehirn eines Menschen in
einen Computer überspielen? Das glaubt etwa Roboterforscher Hans
Moravec.
Ich glaube nicht, daß ein Gerät funktionieren kann wie ein
menschliches Gehirn. Die Erfahrungen, die ein menschliches Gehirn sammelt,
sind einzigartig. Zur Sozialisation gehören etwa die biologischen
Bedürfnisse eines Menschen. Nehmen wir als Beispiel den Durst.
Dieses Bedürfnis teilen wir Menschen mit vielen Tieren. Nun hat
eine Maschine sicher auch Bedürfnisse, allerdings keine
menschlichen. Eine Maschine hat keinen Durst.
Sie kritisieren in ihren
Veröffentlichungen die rationale Intelligenz, die sich in der
Konstruktion von Maschinen widerspiegelt. Maschinen fehlen etwa
Emotionen und ein Körpergefühl.
Das behaupte ich nicht. Wir können Maschinen herstellen, die
Emotionen und ein Körpergefühl haben. Aber das sind keinen
menschlichen Emotionen und das ist kein menschliches
Körpergefühl. Obwohl diese Empfindungen menschlichen ziemlich
ähnlich sein können.
Hat die KI-Forschung aus ihrer Kritik der
vergangenen Jahre gelernt?
So stolz bin ich nicht. Aber die Zielrichtung der Forschung in der
Künstlichen Intelligenz hat sich in den letzten fünf bis zehn
Jahren radikal geändert. Vorher war die KI nur die Lösung
kleiner Spielzeugprobleme. Jetzt ist man weiter. Mich stört der
Größenwahn zu glauben, man könne so etwas wie einen
künstlichen Menschen herstellen.
Wer besitzt denn einen solchen
Größenwahn?
Beispielsweise Hans Moravec und Marvin Minsky.
Obwohl die auch nicht wissen, wie das gelingen
könnte.
Ja, aber das geben sie nicht zu. Vielleicht sagen sie, es gebe da noch
ein paar Lücken; doch im großen und ganzen wissen wir es.
Beide glauben, daß es möglich ist, eine maschinelle
Intelligenz herzustellen, die die menschliche Intelligenz weit
übertrifft.
Was halten Sie von diesen
Visionen?
Solche Visionen, etwa wie Hans Moravec sie in seinem Buch "Mind
Children" beschreibt, setzen das Ende der Menschheit voraus. In
diesen Ansätzen zeigt sich eine Verachtung des menschlichen
Wesens.
|
|
"Es ist Zeit, Alarm zu schlagen"
"Ideen haben eine Macht. Auch Ideen, die nicht realisierbar sind,
haben eine Macht. Das sollten Sie hier in Deutschland besonders deutlich
wissen. Es gab einst falsche Ideen, die in Deutschland ernst genommen
wurden. Die Konsequenz dieser Ideen waren 40 Millionen Leichen. Das
hatte mit dem Menschenbild zu tun. Der Eifer, mit dem die Ideen von
Moravec begrüßt werden, erschreckt mich und es gibt viele die glauben,
daß wir die umsetzen können. Das verrät etwas. Ebenso
die Aussage von Minsky, daß Gott ein mittelmäßiger
Ingenieur war, mit vielen Schwächen, wie Schlafen und Tod.
Nun seien wir in der Lage, in die Evolution einzugreifen. Ein Roboter
hätte diese Schwächen nicht. Das zeigt eine Verachtung
des biologischen Lebens und des menschlichen Körpers. ... Es ist
Zeit, Alarm zu schlagen. Ich erinnere mich an Treffen vor 25 Jahren, wo
wir über heute nachgedacht haben. 25 Jahre sind keine lange Zeit.
Sie werden 2025 noch erleben. Wir müssen jetzt anfangen zu fragen:
'Wollen wir diese Entwicklung in der KI?'; Eine öffentliche Debatte über
Robotik muß jetzt beginnen."
(Professor Joseph Weizenbaum in der GMD am 9. Februar 1998)
|
|
|
Kinder des Geistes
"Heute sind unsere Maschinen einfache Geschöpfe.
Wie jedes Neugeborene benötigen sie die Pflege
und ständige Aufmerksamkeit ihrer Eltern. Sie
verdienen die Bezeichnung 'intelligent' kaum.
Aber schon im nächsten Jahrhundert werden sie
zu Wesen reifen, die so komplex wie wir sind und vielleicht
alles bislang Bekannte übertreffen. Wir können
stolz sein, wenn sie von uns als ihren Vorfahren sprechen.
Entfesselt vom schleppenden Gang der biologischen Evolution,
werden die Kinder unseres Geistes frei sein, immense
Herausforderungen im Universum zu bestehen."
(Moravec, Hans:
Mind Children. The Future of Robot and Human Intelligence, Harvard
University Press, Cambridge, Massachusetts 1988)
|
|
|
Typische Konversation mit ELIZA:
Men are all alike.
IN WHAT WAYS
They're alwas bugging us about something other.
CAN YOU THINK OF A SPECIFIC EXAMPLE
Well, my boyfriend made me come here.
YOUR BOYFRIEND MADE YOU COME HERE
He says I'm depressed much of the time.
I AM SORRY TO HEAR THAT YOU ARE DEPRESSED
It's true. I'm unhappy.
DO YOU THINK COMING HERE WILL HELP YOU NOT TO BE UNHAPPY
I need some help, that much seems certain.
WHAT WOULD IT MEAN TO YOU IF YOU GOT SOME HELP
Perhaps I could learn to get along with my mother.
TELL ME MORE ABOUT YOUR FAMILY
...
WHAT ELSE COMES TO MIND WHEN YOU THINK OF YOUR FATHER
Bullies.
DOES THAT HAVE ANYTHING TO DO WITH THE FACT THAT YOUR
BOYFRIEND MADE YOU COME HERE
|
|
|
ELIZA-Effekt
"Eliza schuf in den Köpfen vieler Leute, die mit ihr ein
Gespräch führten, die höchst bemerkenswerte Illusion, sie
sei mit Verständnis begabt. Personen, die genau wußten,
daß sie es mit einer Maschine zu tun hatten, vergaßen diese
Tatsache schnell, genau wie Theaterbesucher ihre Zweifel bald beiseite
schieben und vergessen, daß die Handlung, der sie beiwohnen, nicht
wirklich ist. Diese Illusion war besonders stark und wurde am
hartnäckigsten von solchen Leuten aufrecht erhalten, die über
Computer wenig oder nichts wußten. Es kam oft vor, daß
sie um die Erlaubnis baten, sich mit dem System unbeobachtet unterhalten
zu dürfen, und trotz meiner Erklärungen bestanden sie nach der
Unterhaltung darauf, die Maschine habe sie wirklich verstanden."
(Die Macht der Computer und die Ohnmacht der Vernunft, Frankfurt am Main
1978)
|
|