Maschinelles Gedächtnis
1703
post-template-default,single,single-post,postid-1703,single-format-standard,bridge-core-3.3.2,cookies-not-set,qode-page-transition-enabled,ajax_fade,page_not_loaded,,qode_popup_menu_push_text_top,qode-content-sidebar-responsive,qode-smooth-scroll-enabled,qode-theme-ver-30.8.3,qode-theme-bridge,wpb-js-composer js-comp-ver-8.0.1,vc_responsive,elementor-default,elementor-kit-1411
 

Maschinelles Gedächtnis

„Der Zweck der Erinnerung ist es, die Zukunft zu prognostizieren“, schreibt der Neurowissenschaftler Tomaso Vecchi in seinem Buch ‚Memory as Prediction‘. Wir lernen aus Erfahrungen, passen uns an und prägen die Zukunft. Ein Prinzip, das von der künstlichen Intelligenz übernommen wurde. João Sacramento spricht über maschinelles Lernen und wie kleine künstliche Neuronen immer größere Entscheidungen für uns treffen werden.

Das Interview ist im November 2022 in der Ausgabe Nr. 17 erschienen. Melchior erscheint zweimal im Jahr. Bestell dir hier die aktuelle Melchior Ausgabe zum Kennenlernen.

Herr Sacramento, Sie forschen an der ETH als Neurowissenschaftler im Bereich der künstlichen Intelligenz. Können Sie erklären, womit Sie sich dabei genau befassen?

João Sacramento – Ich arbeite an einer Art von Modellen, die als künstliche neuronale Netzwerke bezeichnet werden und sich lose am menschlichen oder tierischen Gehirn orientieren. Das sind Modelle, die wir leicht in Codes übersetzen und in aktuellen Computern ausführen können. So können wir künstliche Intelligenz entwickeln, die die menschliche Intelligenz nachahmt. Mein persönliches Fachgebiet ist der Lernprozess von neuronalen Netzwerken. Der Unterschied zwischen neuronalen Netzwerken und der traditionellen Informatik besteht darin, dass diese Modelle aus Erfahrung, aus der Erinnerung lernen, genau wie wir. Aus diesem Grund können sie sehr schnell sehr komplex werden. Ein neuronales Netz ist ein System verbundener Knoten, und jeder Knoten ist eine stark vereinfachte neuronenähnliche Einheit. Man kann es sich wie eine Box vorstellen: Man gibt Daten ein, die von tausenden von kleinen Einheiten verarbeitet werden, und dann spuckt es ein Ergebnis aus, je nachdem, was man von ihm will. Das neuronale Netz ändert sein Verhalten auf der Grundlage der Erfahrungen und der Daten, die wir ihm geben.

Es basiert also auf dem Trial-and-Error Prinzip?

Ganz genau! Jedes einzelne künstliche Neuron erhält eine kleine Information wie ein Pixel eines Bildes, so wie beim menschlichen Gehirn. Wenn die Erinnerung abgerufen wird, setzen sich alle kleinen Pixel wieder zusammen zu einem großen Bild. So können die neuronalen Netzwerke gigantische Massen an Daten aufnehmen und verarbeiten. Basierend auf der Aufgabe, die der Algorithmus hat, versucht es die Information zu nützen. Es reagiert, schaut sich die Reaktionen anderer Neuronen an und verhält sich entsprechend. Wenn es erfolgreich ist, macht es weiter, wenn nicht, versucht es einen anderen Weg. Dieser Prozess wird als Black Box bezeichnet, weil wir als Wissenschaftler nicht genau wissen, wie genau er abläuft. Wir versorgen das Netzwerk mit Informationen und wir sehen das Ergebnis, aber wir wissen nicht, wie genau es zu diesem Ergebnis gekommen ist. Der Algorithmus versucht ständig, den Prozess und das Ergebnis zu verbessern. Wir nehmen an, dass dies der Arbeitsweise des menschlichen Gehirns recht ähnlich ist. Ich will ein neuronales Netzwerk nicht mit einem menschlichen Gehirn vergleichen, was viel komplexer ist, aber es basiert auf demselben Prinzip: Wir erhalten Informationen aus unserer Umgebung, wir verarbeiten sie und verhalten uns entsprechend den Informationen. Auch unser Gehirn will sich ständig verbessern, also lernt es, indem es die Verbindungen zwischen den Neuronen neu verschaltet und neue Verbindungsmuster bildet, so dass die von der Außenwelt kommenden Informationen besser verarbeitet werden können. Das ist spektakulär und wunderschön.

“Unser Gehirn will sich ständig verbessern.”

JOAO SACRAMENTO

Welche Informationen wir aus unserer Umgebung aufnehmen und die Art und Weise, wie wir sie verarbeiten, ist unter anderem geprägt von unserem Bewusstsein, Emotionen, Erfahrung und genetischer Disposition. Jede Entscheidung ist also ein individueller Prozess. Ist die künstliche Intelligenz in dem Sinne nicht objektiv?

Die Maschine interagiert im Grunde genommen mit ihrer Umgebung und sie hat auch eine Art genetisches Erbe, weil sie mit einer Ausgangsstruktur geschaffen wurde. Die Person, die das Netzwerk ursprünglich aufgebaut hat, bestimmt also, wie die Maschine ihre Umwelt wahrnimmt und wie die Prozesse der ständigen Verbesserung funktionieren. Dabei handelt es sich um die so genannte inductive bias, was mit der genetischen Disposition zu vergleichen ist. In dem Sinne ist die Maschine nicht wirklich objektiv. Der Entscheidungsprozess des menschlichen Gehirns ist aber natürlich um einiges komplexer und vor allem freier als der der künstlichen Intelligenz.

Manchmal vergessen wir als Menschen all die unbewussten Prozesse, die jede Minute ablaufen. Wir nehmen es als selbstverständlich hin, die Welt so zu sehen, wie wir sie sehen, aber unser Gehirn versucht ständig, die Komplexität all der Reize, die wir jede Sekunde wahrnehmen, zu filtern und zu verarbeiten. Das Lustige an der Geschichte der künstlichen Intelligenz ist, dass in den 50er Jahren, als alles begann, die Pioniere glaubten, dass es jetzt, wo wir Computer haben, ganz einfach sein würde, künstliche Wahrnehmungen wie Sehen, Hören, Fühlen, Riechen usw. zu entwickeln. Sie dachten, der schwierige Teil wäre, die Maschine dazu zu bringen, auf der Grundlage der Informationen Entscheidungen zu treffen. Wie sich herausstellte, war das ein großer Prognosefehler: Erst jetzt haben wir gute Technologien für die sensorische Wahrnehmung und Verarbeitung. Bei uns Menschen geschieht das alles automatisch, wir merken nicht einmal, dass wir alles gleichzeitig sehen, hören, riechen und fühlen. Das ist genau der Bereich, in dem unsere Forschung und die größten Erfolge stattfinden. Und dann ist da noch ein für uns eher mystischer Bereich, das Bewusstsein. Wissenschaftlich gesehen gibt es dafür noch keine genaue Definition. Wir wissen nicht, was genau im Unterbewusstsein passieren muss, um zu einer bestimmten bewussten Entscheidung zu kommen, sei es noch so banal, wie was Sie heute angezogen haben oder was Sie zum Frühstück gegessen haben.

Was genau macht künstliche Intelligenz intelligent?

Ich würde sagen, natürliche Intelligenz ist die Fähigkeit, sich an eine komplexe Umgebung so anzupassen, dass wir in ihr gedeihen können. Sie ermöglicht es, komplexe Probleme zu lösen. Es gibt eine Methode, um herauszufinden, ob eine Maschine intelligent ist oder nicht: den Turing-Test, benannt nach Alan Turing. Die Maschine wird von einem Menschen eine bestimmte Zeit lang mit verschiedenen Fragen konfrontiert. Wenn die Person, die die Fragen stellt, getäuscht wird und glaubt, dass die Antworten von einem Menschen stammen, gilt die Maschine als intelligent. Ich persönlich habe meine Schwierigkeiten mit diesem Test, weil er nicht spezifisch genug ist.

“Der Mensch ist kein Generalist. Jeder ist in seiner Denkweise individuell.”

JOAO SACRAMENTO

Der Test besagt also, dass eine Maschine intelligent ist, wenn ein Mensch sie für intelligent hält?

Ganz genau! Auf diese Weise wird die Definition von Intelligenz geschickt umgangen. Ein sehr beeindruckender Moment in der KI-Forschung war das Phänomen AlphaGo von Google DeepMind, einer Tochtergesellschaft von Google, die in allen Bereichen, über die wir hier sprechen, führende Forschung betreibt. Sie haben ein neuronales Netzwerk entwickelt, um Go zu spielen, ein altes chinesisches Spiel, das als eines der schwierigsten Spiele überhaupt gilt, und sie nannten es AlphaGo. Sie programmierten es so, dass es die Techniken und Regeln selbstständig erlernte, und ließen es gegen den Weltmeister im Go antreten. Plötzlich machte es einen Zug, der fehl am Platz und überhaupt nicht logisch zu sein schien. Die Leute wunderten sich, aber als sie weiterspielten, stellten sie fest, dass es absolut brillant war. Es war ein so kreativer und abstrakter Zug, dass die Menschen ihn nicht verstehen konnten, obwohl das Spiel schon seit Ewigkeiten gespielt wird. Schließlich besiegte die Maschine Lee Sedol, den Weltmeister, und das war der Moment, in dem sie ihre Intelligenz unter Beweis stellte.

Man muss jedoch vorsichtig sein: Wenn von allgemeiner künstlicher Intelligenz gesprochen wird, ist man versucht zu glauben, dass es sich dabei um ein menschliches Intelligenzniveau handelt, was ich für ziemlich problematisch halte. Der Mensch ist kein Generalist. Wir haben ein bestimmtes Fachwissen und bestimmte Fähigkeiten. Jeder ist in seiner Denkweise individuell. Offensichtlich können Computer viele Dinge tun, die wir nicht können. Sie können mit riesigen Zahlen rechnen, das gesamte Internet in Sekundenschnelle durchsuchen, Daten analysieren, aber sie können uns und unsere persönlichen Entscheidungen, die wir auf der Grundlage unseres Wissens, unserer Denkweise, unserer Werte, Emotionen und Erfahrungen getroffen haben, nicht nachempfinden.

Das klingt nach Segen und Fluch zugleich: Einerseits können wir viel von diesen Maschinen und ihren Strategien lernen, sie als Unterstützung der Menschheit nützen. Andererseits ist der Gedanke, etwas geschaffen zu haben, das sich als schlauer erweist, als wir es überhaupt verstehen können, ziemlich beunruhigend.

Ja, irgendwann kann es durchaus gefährlich werden. Ich möchte keine Weissagungen machen, da ich nur aus einer wissenschaftlichen Perspektive sprechen kann. Es ist schwer zu sagen, wie weit wir davon entfernt sind, Systeme zu schaffen, die für Aufgaben eingesetzt werden können, von denen wir glauben, dass sie dem Menschen vorbehalten sind. Vieles davon ist bereits in Arbeit. Der AlphaGo-Moment hat uns nur gezeigt, wie fortgeschritten wir in dieser Technologie sind. Ein weiteres Beispiel sind Sprachmodelle. Heutzutage kann man relativ sinnvolle Unterhaltungen mit Computern führen, ohne dass man überhaupt merkt, dass man mit einem Computer spricht. Als ich noch Informatik studierte, schien das unmöglich zu sein. Ich hätte nicht gedacht, dass so etwas noch zu meinen Lebzeiten möglich sein wird. Jetzt wird klar, dass wir vorsichtig sein müssen, wie wir mit den Maschinen umgehen. Wir wissen nicht, wie schnell der Fortschritt sein wird, und meistens ist er nicht linear sondern exponentiell. Manchmal, wenn man eine kleine Lösung findet, entpuppt sie sich als die Büchse der Pandora. Damit kann man so viel mehr tun. Ich sehe mich als ein kritischer Optimist. Ich habe definitiv keine Angst, dass uns die Entwicklung über den Kopf wächst, aber wir sollten aufpassen, wie wir sie einsetzen.

“Manchmal vergessen wir als Menschen all die unbewussten Prozesse, die jede Minute ablaufen.”

JOAO SACRAMENTO

Inwiefern?

Unternehmen nutzen Modelle, die durch maschinelles Lernen gezielte Werbung erstellen, um ihren Gewinn zu maximieren. Jedes Mal, wenn wir das Internet öffnen, werden wir damit konfrontiert. Das ist äußerst schwierig, weil leistungsorientierte Algorithmen zu einem komplexen Verhalten führen können, das nicht mit den Zielen der Menschheit übereinstimmt. Jede Maschine ist auf ein bestimmtes Ziel ausgerichtet, um einen bestimmten Zweck zu verfolgen. Wir müssen uns fragen: Welchen Zweck wollen wir mit der Maschine erreichen? Was wollen wir als Menschheit? Was sind unsere Ziele? Es ist nicht einfach, menschliche Werte in mathematische Ziele zu kodieren. Außerdem gibt es verschiedene Kulturen, Religionen, Glaubensrichtungen und Werte – mit welchen Werten soll die Maschine ausgestattet werden? Viele der großen Durchbrüche werden in privaten Industrielabors von Unternehmen entwickelt. Hier wird die Forschung eher von profitorientiertem Eigeninteresse angetrieben. Dies führt zu schwierigen Situationen und darüber müssen wir uns bewusst sein. Die meisten Unternehmen veröffentlichen ihre Ergebnisse und Erfolge, aber wir haben keine Kontrolle darüber, was sie damit machen. Außerdem braucht man eine riesige Infrastruktur, um komplexe Verhaltensweisen in diesen Modellen zu erzeugen. So etwas kann man nicht an einer Universität durchführen. Man muss sich auf einer Google-Ebene befinden, um die Ressourcen für diese Art von Forschung zu haben. Die Arbeit im öffentlichen Sektor setzt meiner Forschung definitiv Grenzen.

Vor kurzem sorgte ein Artikel über einen Google-Mitarbeiter für Aufregung, der davon überzeugt ist, dass das von ihm entwickelte Programm empfindungsfähig ist. Halten Sie das für möglich?

Nun, ich denke, dass auch hier ein großer Medienrummel im Spiel ist und Google sich nicht offiziell dazu geäußert hat, sodass wir keine voreiligen Schlüsse ziehen sollten. Aber was ich an dieser Geschichte interessant finde, ist, dass sie zeigt, wie diese Modelle uns bereits täuschen und manipulieren können, egal ob sie empfindungsfähig sind oder nicht. Das ist sehr beeindruckend. Zu sagen, dass es empfindungsfähig ist, würde bedeuten, dass es ein Bewusstsein hat, und eine klare Definition des Bewusstseins zu finden, liegt derzeit jenseits der Grenzen der Neurowissenschaft. Aber ich denke, wir sollten anfangen, Fragen zu stellen und den Fokus der Wissenschaft darauf ausrichten. Je mehr wir mit künstlicher Intelligenz zu tun haben, desto mehr Fragen werden aufgeworfen, und wir müssen anfangen, Antworten zu finden.

Ist es je möglich, den Menschen maschinell zu ersetzen?

Wir arbeiten darauf hin. In gewisser Weise geschieht es bereits. Schauen Sie sich die Übersetzungsmaschinen an: Heutzutage würde man nicht einmal mehr merken, dass ein Text von einer Maschine übersetzt wurde. Bald werden wir keine Dolmetscher mehr brauchen. So wie die industrielle Revolution viele Arbeiter überflüssig gemacht hat, wird das Gleiche wohl auch für Aufgaben geschehen, von denen wir heute glauben, dass sie nicht automatisiert werden können.

In seinem Buch „21 Lektionen für das 21. Jahrhundert“ behauptet Yuval Harari, dass Berufe, die auf Analyse und Entscheidung beruhen, wie z.B. der eines Arztes, leichter ersetzt werden können als Berufe, die menschliche Qualifikationen voraussetzen, wie z.B. die pflegende Hand eines Krankenpflegers. Würden Sie dem zustimmen?

Auf jeden Fall! In diesem Beispiel funktioniert der Arzt wie eine Blackbox, nur dass der künstliche Arzt vermutlich über viel mehr Daten verfügt als der menschliche Arzt. Die Qualifikationen, die uns zu Menschen machen, sind jedoch schwer zu ersetzen. Wir sind so gebaut, dass wir grundsätzlich die Interaktion mit anderen Menschen brauchen. Wir sind soziale Lebewesen und lernen und entwickeln uns auf diese Weise. Das sollten wir immer im Hinterkopf behalten. Wir können menschliche Fähigkeiten bei einfachen oder auch komplexeren Aufgaben ersetzen, aber wir können den Menschen selbst nicht ersetzen.

 GLORIA CZERNIN

Hol dir die ganze Printausgabe! Einfach hier bestellen zu einem Preis, den du selbst festlegst. Melchior erscheint zweimal im Jahr mit gut 90 Seiten „Auf der Suche nach dem Schönen, Wahren, Guten“.

João Sacramento, geboren 1985, ist als Principal Investigator am Institut für Neuroinformatik der Eidgenössischen Technischen Hochschule Zürich (ETH Zürich) und der Universität Zürich tätig, wo er ein Team von Forschern leitet, das sich mit dem Lernen in künstlichen und biologischen neuronalen Netzwerken beschäftigt.