facebook_pixel

Künstliche Intelligenz – Eine neurowissenschaftliche Perspektive

Henning Beck, Ideas, Ideen

Was bedeutet KI eigentlich? Dr. Henning Beck beantwortet diese und weitere Fragen in seinem Artikel aus der Sicht eines Neurowissenschaftlers. Die Perspektive aus der Neurowissenschaft und der IT sind bei der KI-Forschung unterschiedlich. Können diese Perspektiven vereint werden?

Dr. Henning Beck ist Neurowissenschaftler, Autor und Experte für Innovationen und Kreativität. Er studierte von 2003 bis 2008 Biochemie in Tübingen. Nach seiner Diplomarbeit forschte er am Hertie Institut für klinische Hirnforschung und promovierte 2012 an der Graduate School of Cellular & Molecular Neuroscience in Tübingen. Anschließend arbeitete er an der University of California in Berkeley und entwickelte für Unternehmen in der San Francisco Bay Area moderne Präsentations- und Marketingstrategien, indem er neurobiologische Erkenntnisse mit innovativen Wirtschaftskonzepten kombinierte.

Der Begriff KI

Compliance Officer

Unter dem Begriff KI fasst man unterschiedliche Teildisziplinen informatischer Datenverarbeitung zusammen. Ich verwende den Begriff KI an dieser Stelle daher im weitest möglichen Sinne und schließe darin Vorgänge des maschinellen Lernens, der Statistik und der KI-Forschung ein, die intelligente Maschinen konstruieren (und damit liegt diese Definition gleichauf mit der von Hassabis et al. im Neuron Review „Neuroscience-Inspired Artificial Intelligence“, 2017). Auch wenn der KI-Begriff auf die verschiedenen Teilaspekte des maschinellen Lernens herunter gebrochen werden kann, ändert das nichts an der prinzipiellen Aussage, dass kein derzeitiges maschinelles System in der Lage ist, proaktiv zu planen und zu verstehen.

Der Computer als Entscheidungskraft?

Dass man sich im maschinellen Lernen ausschließlich auf Datenmaterial verlässt, dürfte nicht neu sein. Auch erlaubt eine Datenanalyse nicht zwangsläufig Rückschlüsse über zukünftiges Verhalten. Schließlich sind Daten von gestern und eine Zukunft per se nicht analysierbar. Der Begriff der „predictive analytics“ ist insofern sprachlich etwas fragwürdig. Denn wer sich ausschließlich auf Datamining gestützte Mustererkennung verlässt, um eine voraussagende Analyse zu treffen, begeht nur allzu schnell einen methodischen Fehler, der in der Philosophie „Naturalistischen Fehlschluss“ genannt wird. Aus einem Sein folgert ein Sollen. Oder anders gesagt: Aus der Vergangenheit wird eine zukünftige Notwendigkeit abgeleitet. Das kann gut gehen, muss es aber nicht.

Bild: Überlegendes Strichmännchen mit Pfeilen in verschiedene RichtungenDass Computer keine Entscheidungen treffen, ist nichts Neues und sollte jedem Informatiker bekannt sein, der an autonomen Fahrzeugen arbeitet. Schließlich fehlt einem computergestützten Handlungsprozess die wichtigste Qualität einer Entscheidung: der Entscheidungsträger, der die Verantwortung übernimmt. Entscheidungen brauchen immer ein Subjekt, das am Ende dafür haftet. Eine statistisch untermauerte Auswahl aus vielen Optionen ist eben keine Entscheidung, sondern eine Auswahl. Das Deutsche ist dort etwas schwammiger als das Englische, in dem man zwischen „choice“ und „decision“ unterscheidet. Wir sagen häufig „Entscheidung“, wenn wir „Auswahl“ meinen. Dass das nicht nur altkluge Wortklauberei ist, zeigt die aktuelle Diskussion über autonom fahrende Fahrzeuge. EinAutonomes Fahrzeug solches selbstfahrendes System übernimmt schließlich keine Verantwortung für seine Fahrmanöver und trifft auch keine Entscheidungen während der Fahrt, sondern wählt aus verschiedenen Fahrmanövern aus. Die Entscheidung bestand darin, dieses System zu nutzen – und deswegen haftet genau diese Person dafür, nämlich der Fahrzeughalter.

Menschliches Verhalten

IdeenmanagementEs ist durchaus gefährlich, wenn auf unpräzise Art und Weise Begriffe menschlichen Verhaltens auf Computersysteme übertragen werden. Einem maschinellen System werden dann vorschnell menschliche Eigenschaften zugeschrieben. Beispiele sind Begriffe wie „lernen“, „verstehen“, „entscheiden“ und „spielen“. Wenn es nicht nur in der Presse, sondern auch in Fachartikeln heißt, eine Maschine „spiele Go“, dann denkt man daran, was wir Menschen unter dem Begriff „spielen“ verstehen und folgert daraus vorschnell, dass es Maschinen in einem ähnlichen Sinne tun. Das ist nicht der Fall. Kein AlphaGo-System hat bis heute verstanden, was es getan hat, als es Lee Sedol geschlagen hat (auch nicht bei dem modernen „reinforcement learning“-Ansatz). Wer genauer wissen will, warum die Vermenschlichung von KI-Systemen in eine Sackgasse führen kann, dem sei an dieser Stelle der durchaus beachtenswerte MIT-Review Artikel The Seven Deadly Sins of AI Predictions von Rodney Brooks empfohlen.

Lernen versus Verstehen

Während momentane selbstlernende Systeme noch auf einen großen Datenberg angewiesen sind, um ihre algorithmische Kraft auszuspielen, können wir Menschen auch auf andere Art und Weise Neues aufnehmen. Denn wir können uns Sachverhalte aus der Umwelt aneignen, ohne auf ein gigantisches vergangenes Datenmaterial zurückgreifen zu müssen, nämlich indem wir planen, handeln und die soziale Rückmeldung daraufhin interpretieren. Das machen kleine Kinder ständig. Sie probieren etwas aus, zeigen mit dem Finger auf etwas, brabbeln vor sich hin und warten dann auf Feedback der Umgebung. Auf diese Weise sind wir in der Lage ad hoc Neues zu verstehen. So funktionieren Neologismen wie „Brexit“, „Teuro“ oder „Flexitarier“, die wir beim ersten oder zweiten Blick kapieren, ohne sie auswendig lernen und wiederholen zu müssen (wie man das mit Vokabeln im Vokabelheft gerne macht).

Wir planen, testen und passen daraufhin unseren Plan an, damit es das nächste Mal besser passt. Der Mensch verlässt sich nicht auf einen Datenberg von gestern, sondern testet Verhalten im Hier und Jetzt.Nur dadurch sind Menschen in der Lage, neue Dinge auf den ersten Blick zu verstehen, ohne sie auswendig lernen zu müssen.

Natürlich kann man auch in einem künstlichen System ein Trial-and-Error und ein externes Feedback-Verhalten emulieren (prinzipiell ist Lernen ohne Feedback kaum möglich). So könnte ein solches System die Regel besitzen, viele Dinge auszuprobieren und sich daraufhin anzupassen. Doch es würde nicht die Regel selbst in Frage stellen. Wenn einem künstlichen System Regeln gegeben werden, nach denen es Daten analysieren soll, wird es diese Regeln anwenden. Wenn einem Kind eine Regel gegeben wird, wird irgendwann der Punkt kommen, an dem diese Regel gebrochen oder zumindest getestet wird. In genau diesem Moment entsteht ad hoc neues Wissen. Und das ist für künstliche Systeme bisher reine Science Fiction.

Dennoch spielen KI-Systeme genau in solchen Regelsystemen ihre Stärke aus. Maschinen schlagen uns in Schach, im Poker, im Go – garantiert in jedem Spiel, das Regeln hat. Doch im Gegensatz dazu können wir Menschen auch ein neues Spiel erfinden, eine neue Regel, ohne vorher zu wissen, ob das funktioniert. Dann setzt man sich mit ein paar Leuten hin und probiert es aus. Denn nur soziales Feedback entscheidet darüber, ob eine neue Idee sinnvoll ist. Schließlich lassen sich Ideen nicht mit Kennzahlen quantifizieren – viel wichtiger ist der soziale Austausch. Letzterer ist übrigens die wichtigste und treibende Kraft im „Spielen“. Dass man beim Spielen immer gewinnen muss (und maschinelle Systeme darauf hin trainiert), ist keineswegs der wichtigste Anreiz. Kleine Kinder spielen nämlich auch und ständig, mit Spielfiguren, Püppchen, Rennautos oder Bauklötzen. Dabei geht es aber nicht ums Gewinnen, sondern ums gemeinsame Erleben. Und genau das ist für Menschen der größte Gewinn.

Die KI-Sackgasse vermeiden

Dass die derzeitigen Technologien des maschinellen Lernens durchaus in eine Sackgasse führen können, wird auch unter KI-Forschern diskutiert. Hier sei auf den guten Artikel im MIT-Technology Review namens Is AI Riding a One-Trick Pony von James Somers verwiesen. Denn eine immer bessere Mustererkennung wird früher oder später an Grenzen stoßen.

Um auch in Zukunft die besten Fortschritte maschinell lernender Systeme zu ermöglichen, ist eine Symbiose mit den Neurowissenschaften sicherlich ein spannender und einzigartiger Weg. Schließlich entstehen an der Grenzfläche von Wissenschaften und deren Zusammenarbeit die spannendsten Fortschritte. Natürlich sollte sich die KI-Entwicklung von den Neurowissenschaften inspirieren lassen. Genauso kann die Neurowissenschaft viel von den Computerwissenschaften lernen (schließlich trägt die Informatik ihren Namen zu Recht, kennt sie sich doch besonders damit aus, wie man Informationen verarbeiten kann). Natürlich kann jede Wissenschaft für sich arbeiten. Doch entstehen die besten Ideen nicht im gegenseitigen Austausch? Wer will schon einen „KI-Winter 2.0“?

Lesen Sie einen weiteren Artikel von Herrn Beck über den Unterschied zwischen dem menschlichen Gehirn und der Künstlichen Intelligenz. Wer gewinnt?

Informieren Sie sich jetzt!

Mehr Informationen zu KI erhalten Sie auf der Konferenz KI in der Finanzbranche. Entdecken Sie Chancen und Risiken durch den Einsatz Künstlicher Intelligenz. Wir freuen uns auf Sie!

Digitalisierung In Banken

Digitalisierung in Banken

Die Digitalisierung ist für Banken ein wichtiges Projekt. In unserem White Paper lesen Sie Analysen, Praxisberichte und Meinungen zu wichtigen strategischen und praktischen Herausforderungen.
Jetzt kostenlos herunterladen!

Lisa Schachner

Ich betreue bei Management Circle die Veranstaltung Global Female Leaders und bin zusätzlich für die Themen Banken und Handelsmarken verantwortlich. Über aktuelle Themen, Trends und kreative Ideen informiere ich Sie gerne und werde dabei die internationale Perspektive nicht aus den Augen verlieren. Ich freue mich darauf Sie kennenzulernen!

Dieser Beitrag hat einen Kommentar

  1. Vielen Dank für das Ausführliche Eingehen auf meine Punkte aus dem vorherigen Beitrag.
    Es sind wieder viele verschiedene Punkte in diesem Artikel, die -jeder für sich genommen- eine eigene Diskussion auslösen könnte. Intelligenz, egal ob bei Lebewesen oder menschengeschaffenen Maschinen, ist eben ein super spannendes Thema!
    Ich will mich in meinem Kommentar daher auf einen Aspekt beschränken, um die Diskussion nicht zu breitflächig werden zu lassen.
    Was mir an diesem Artikel besonders aufgefallen ist, ist das Statement “ … Während momentane selbstlernende Systeme noch auf einen großen Datenberg angewiesen sind, um ihre algorithmische Kraft auszuspielen, können wir Menschen auch auf andere Art und Weise Neues aufnehmen. … “ Wirklich? Ich meine, welcher erwachsene Mensch hat nicht unglaubliche Datenmengen in seinem Leben verarbeitet? Der weitaus überwiegende Teil davon übrigens unbewusst (einfach weil die bewussten Kapazitäten des Gehirns doch recht begrenzt sind). Ergo kann ich keinen prinzipiellen Unterschied im reinen Lernvorgang erkennen – abgesehen natürlich von den physischen Speichermedien und ‚Prozessoren‘. KI emuliert menschliches Lernen, auf Basis von integrierten Schaltkreisen. Der abstrahierte Lernprozeß, d.h. die physischen Grundlagen der Prozesse einmal ausgeblendet, ist für mich zwischen Mensch und Computer nicht zu unterscheiden.
    Wir müssen uns des Weiteren der Tatsache bewußt sein, daß alle aktuellen KI Systeme ‚Schmalband KI-Systeme‘ sind, d.h. sie sind begrenzt, erfüllen nur eine genau definierte Funktionalität. Das könnte man mit einem ‚Subsystem‘, also einer logischen Funktion des Gehirns vergleichen. Beispielsweise der Steuerung der Atmung. Nur diese Steuerung alleine würden wahrscheinlich viele Menschen auch nicht als umwerfend intelligent bezeichnen. Der Mensch verfügt eben insgesamt über eine Breitband-Intelligenz, d.h. sehr viele einzelne Einheiten wirken auf sehr komplexe Art und Weise zusammen. Eine vergleichbare Breitband KI gibt es noch nicht. Ein fairer Vergleich (vergleichbarer Leistungslevel) zwischen Schmalband KI und Breitband Intelligenz des Menschen schließt sich also zum gegenwärtigen Zeitpunkt aus. Was nicht heißen soll, daß KI nicht in diese ‚Liga‘ aufsteigen kann. Das wird sie zweifellos tun – schneller vielleicht, als sich das viele vorstellen können.
    Auch beim Gehirn gibt es Subsysteme, die vorgegebene Regeln nicht brechen. Ich würde es sicher nicht lustig finden, wenn die (automatische) Atmung ihre Regel (Organismus O2 zuführen und CO2 entsorgen) plötzlich nicht mehr ausführt. Das Metasystem ‚Bewußtheit‘ kann dagegen die Regel schon für eine gewisse Zeit aufheben – z.B. wenn ich im Meer abtauche.
    Also auch hier sehe ich keine grundlegenden funktionalen Unterschiede, nur physische. Die sind allerdings noch gewaltig. Das Gehirn kommt mit nur 20 Watt aus! Für eine vergleichbare Rechenleistung (technisch: rund 36 Peta FLOPS – 36 Billiarden Gleitkomma Operationen pro Sekunde) braucht der Supercomputer Tianhe-2 (33 PFLOPS) deutlich über 10 Mega Watt – der Stromverbrauch einer Kleinstadt. Da gibt’s für uns Ingenieure noch ein bisschen was zu tun :)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Ist die Bankfiliale überflüssig?

Experten der Branche haben auf unserer Jahrestagung darüber diskutiert. Informieren Sie sich in unserem Rückblick über die Zukunft der Bankfiliale, neue Strategien und Geschäftsmodelle.

Jetzt herunterladen!

Download: Bankfiliale 2020 - Wie sieht die Zukunft aus?

Das verändert KI in der Customer Experience

Erfahren Sie jetzt von sieben Experten, wie die Zukunft der Customer Experience mit Hilfe von Künstlicher Intelligenz aussieht!

Jetzt mehr erfahren!

Das verändert KI in der Customer Experience