Kurze Einführung in die künstliche Intelligenz (KI)

Was macht uns eigentlich intelligent?

Dies ist eine der großen Fragen, mit denen sich die Menschheit beschäftigt. Intelligenz ist allerdings schwierig zu definieren. Viele Aspekte im menschlichen oder tierischen Verhalten würden wir intelligent nennen: Sprache, Kreativität, Logik und Lernen – alles wichtige Zutaten, die schon für sich genommen ganze Forschungszweige hervorgebracht haben. Richard Feynmann sagte einmal:

“Was ich nicht nachbauen kann, das habe ich nicht verstanden.”

Der Antrieb eines jeden Forschers in der künstlichen Intelligenz (KI) ist es, die vielschichtigen Aspekte von intelligenten Systemen nachzubilden und – vielleicht irgendwann – ein System zu bauen, das so intelligent wie der Mensch oder sogar intelligenter ist.

Allerdings konzentriert sich nur ein kleiner Teil der Community ernsthaft auf die Entwicklung einer “General AI”, also einer künstlichen Intelligenz, die im gesamten intellektuellen Aufgabenspektrum menschliche Performance liefern kann. Der Gedanke ist eher als Leitmotiv zu verstehen, eine Zukunftsvision, die die Forscher antreibt. Die meisten Arbeitsgruppen fokussieren auf einen Teilbereich und treiben die Entwicklung der KI in ihrer Nische voran. Die KI-Forschungslandschaft fächert sich in praktisch alle Aspekte auf, die Intelligenz ausmachen.

Jedes intelligente System muss zuallererst seine Umwelt wahrnehmen und geeignet repräsentieren. Dazu müssen oft große Mengen hochdimensionaler Datenreihen verarbeitet werden, um die relevanten Strukturen der Welt zu erkennen und intern abzubilden. Stellen wir uns einen Menschen vor, der Ansicht, Geruch, Klang und äußere Form eines Objektes, z.B. eines Laptops, erfasst. In seinem Gehirn werden die multimodalen Informationen zusammengeführt und eine Reihe von Neuronen repräsentiert all diese sensorischen Eindrücke. Präsentiert man ihm nur eine Teilmenge der assoziierten Reize (z.B. nur den Klang der gedrückten Tasten), so kann ein Mensch diese Reize zuordnen.

Mit Hilfe der (erlernten) internen Repräsentationen können intelligente Systeme logische Schlüsse ziehen und zielgerichtet Strategien zur Lösungen der erkannten oder vordefinierten Probleme erarbeiten. Der Mensch würde also bei der Wahrnehmung des Klangs der Tastatur nicht nur schließen, dass eine Person etwas auf dem Computer tippt, sondern unter Benutzung seines Kontextwissens auch wer es sein könnte, woran sie schreibt und wie lange es ungefähr noch dauert.

Auch eine auf die Zukunft ausgerichtete Planung eigener Handlungen und eine Erwartung, wie die Welt auf eigene Aktionen reagiert, gehört zu den zentralen kognitiven Leistungen intelligenter Agenten. Nicht nur Menschen, auch andere Tiere zeigen intelligentes Verhalten, das eine planerische Kapazität nahe legt. Schlaue Kolkraben können in Gegenwart von Artgenossen einfach nur so tun, als würden sie Futter verstecken. Sie antizipieren den Futterraub und beugen vor.

Da sich die Welt stetig ändert, muss ein intelligenter Agent lernfähig sein. Lernen und das Bilden eines Gedächtnisses sind zentrale Aspekte aller genannten Teilleistungen.

Schlussendlich gehört auch die Motorik und damit die Manipulation der Welt dazu, denn nur durch den geschlossenen Kreislauf von Handlung und Perzeption kann sich ein intelligentes System selbst und seinen Einfluss auf die Welt begreifen.

Das Feld der KI teilt sich in zwei methodische Hauptströmungen: die symbolische und die statistische KI. Die symbolische, auch regelbasierte KI ist seit den Anfängen der KI in den 1950ern bestrebt, zentrale kognitive Leistungen wie Logik, Deduktion und Planung in Computern abzubilden. Symbolisch bedeutet hier, dass Fakten, Ereignisse oder Aktionen mit konkreten und eindeutigen Repräsentationen erfasst werden. Auf diesen Symbolen können nun mathematisch genaue Operationen definiert werden, wie das bekannte Programmierparadigma “Wenn X, dann Y, sonst Z”.

Die symbolische KI kann zwar abstrakte Vorgänge modellieren und ist dazu noch gut vom Menschen lesbar. Dennoch: ein autonomer Roboter zum Beispiel muss auch mit der Unsicherheit umgehen können, die durch fehlerhafte, verrauschte oder unvollständige Daten zum Alltag eines jeden Tieres gehört. Was passiert, wenn ein bestimmter Fall nicht in der Programmlogik abgedeckt ist?

Die statistische KI versucht das Problem von den Daten her anzugehen. Ein Modell des Prozesses, sei es z. B. eine optimale Aktion eines Roboters oder die Klassifikation von Sensordaten, wird ausgehend von den Daten, bzw. durch Erfahrung “erlernt”.

Dieses, daher auch “Machine Learning” bezeichnete Feld, vereint Methoden der mathematischen Theorie und Optimierung, der Statistik und des Data Mining.

Der Grundgedanke ist hier, dass alle für das Problem relevanten Muster und Regeln in den Daten stecken. Ziel ist es also möglichst viele Daten aufzunehmen, diese statistisch auszuwerten und versteckte Muster aufzudecken. Ist ein Modell des relevanten Prozesses gelernt, so erlaubt es dem intelligenten System robuste Prädiktionen und das selbst für noch nie gesehene Eingaben. So kann man z. B. ein Gesichtserkennungssystem mit einigen Tausend Beispielbildern trainieren und dann selbst solche Gesichter erkennen, die nicht in der Trainingsmenge enthalten waren. Um abzuleiten, welche Bildstrukturen in welcher geometrischen Relation zueinander in einem Gesicht existieren, braucht man eben nicht jedes mögliche Gesicht sehen, sondern nur eine repräsentative Teilmenge.

In den vergangenen Jahrzehnten der KI-Forschung gab es mehrere Hypes, die auch von manchen beteiligten Forschern befeuert wurden, um die Wahrscheinlichkeit zu erhöhen, mit der eigenen Forschung gefördert zu werden. Oft konnte das Feld die fantastischen Versprechungen nicht erfüllen, die Förderagenturen, Medien und auch die Forscher selbst gern geglaubt hätten.

Obwohl wir seit den 1950ern unseren Zielen viel näher gekommen sind: Es gibt selbst heute noch keine Roboter, die selbstständig alle Arbeiten im Haus erledigen, keine KI, die mir Rede und Antwort stehen kann, egal welchen Themenkomplex ich wähle. Die KI-Forschung musste daher auch immer wieder sogenannte KI-Winter überstehen, also Perioden, in denen Fördergelder und das öffentliche Ansehen des Feldes auf ein klägliches Minimum sanken. Erinnern wir uns: Selbst die Benutzung des Begriffes “künstliche Intelligenz” wurde vor 15 Jahren noch sorgsam abgewogen und oft zugunsten weniger abgenutzter Begriffe, wie “intelligente Systeme” ersetzt.

Die Entwicklungen des letzten Jahrzehnts sind allerdings bemerkenswert. In nur wenigen Jahren sind sehr leistungsfähige künstliche Intelligenzen entstanden. Computersysteme gewannen gegen ihre menschlichen Rivalen in speziellen Domänen wie dem Antwort-Frage-Spiel “Jeopardy” oder dem strategischen Brettspiel “Go”. Autonome Fahrzeuge fahren unfallfrei mehrere Tausend Kilometer und Chatbots beeinflussen demokratische Wahlen. Für die Quantensprünge der letzten Jahre in vielen Teilgebieten sind sogenannte “tiefe neuronale Netze” verantwortlich. Diese sind zwar schon seit Jahrzehnten bekannt, können aber erst seit Kurzem zur Lösung schwieriger Probleme eingesetzt werden.

Letztlich waren es Fortschritte in der Theorie, aber vor allem auch die stete Weiterentwicklung der Computer-Hardware, die diesen Quantensprung ermöglichten. Speicherplatz wird immer erschwinglicher und die Rechenkraft immer größer, so dass genügend große Datenmengen aufgenommen und prozessiert werden können. Je komplexer das Problem, desto mehr Daten braucht man im Allgemeinen, um es in einem Modell abbilden zu können.

Es ist mathematisch bewiesen, dass neuronale Netze in der Lage sind, jede beliebige Abbildung zu approximieren, d.h. eine Eingabe x in die gewünschte Ausgabe f(x) zu überführen. Die Eingabe x kann ein hochdimensionale Eingabe wie ein Bild sein und f(x) z. B. eine Klassifikation des Bildes, wie “Gesicht”, “Hund” oder “Katze”. Tiefe neuronale Netze sind nichts anderes als ein leistungsfähiges Tool, um die für die Lösung des Problems relevanten Muster zu entdecken. Die Rechenpower unseres Jahrzehnts macht es möglich, genug Daten zu prozessieren, um interessante Probleme zu bewältigen. Dieses “Deep Learning” genannte Feld brachte in den letzten Jahren eine Reihe großer Umwälzungen hervor, die den State of the Art von KI-Systemen um einen großen Schritt nach vorne brachten.

Die Erkennung von Objekten in Bildern ist heutzutage durch Deep Learning so gut wie (oder besser als) die menschliche Referenz.

Deep Learning wird auch fleißig kombiniert mit schon bestehenden Methoden, wie dem Reinforcement Learning. Roboter, wie Drohnen und autonome Fahrzeuge, nutzen Deep Reinforcement Learning, um eine optimale Bewegungsplanung zu generieren. Systeme zur Sprachsynthese und zum Verstehen natürlicher Sprache sind aufgrund der Verfahren des Deep Learning erstaunlich leistungsfähig geworden.

Dennoch, die kognitiven Leistungen des Menschen sind noch lange nicht erreicht und es ist unklar, ob das Aufrüsten der Speicher und Prozessorpower allein daran etwas ändern werden. Hinzu kommt, dass die Entwicklung der konventionellen Rechnerarchitekturen durch physikalische Gesetzmäßigkeiten begrenzt ist. Die Leckströme und die Wärmeentwicklung in den immer kleineren CPU-Architekturen lässt die Chiphersteller immer weiter parallelisieren, also immer mehr statt immer schnellerer Kerne. Allerdings können wir keine substanziell kleineren Chiparchitekturen erwarten und damit ist durch den Platz im Rechnergehäuse auch die Strategie der Parallelisierung beschränkt.

Eine mögliche Lösung liegt in den sogenannten neuro-morphen Chips. Diese beinhalten analoge, bzw. hybride Schaltkreise, die die Erregung und Reizweiterleitung von Nervenzellen nachempfinden. Mit diesen Chips können wir keinen herkömmlichen Programmcode ausführen, aber Roboter oder auch immobile intelligente Systeme könnten spezialisierte Aufgaben, wie z.B. die Prozessierung von Sensordaten in eben diese hoch-spezialisierte Hardware auslagern. Und vielleicht fördert dies sogar unser Verständnis vom komplexen Zusammenspiel unserer eigenen Nervenzellen. Es wäre doch fantastisch, wenn wir durch die realistische Imitation unseres Gehirns nicht nur uns selbst besser verstehen, sondern zugleich damit noch Roboter erschaffen, die wir – jetzt aber wirklich! – intelligent nennen könnten.

Kommentare
Einen Kommentar schreiben
Entschuldigung

Ihr Browser ist leider nicht aktuell genug.
Um diese Webseite zu benutzen, benötigen Sie einen aktuellen Browser
Wir empfehlen einen der folgenden Browser in der aktuellsten Version zu installieren.

Auf iOS Geräten sollte mindestens die Betriebssystem Version iOS 9 installiert sein.

Mozilla Firefox Google Chrome Microsoft Edge Internet Explorer