Die Geschichte der Künstlichen Intelligenz

von Valentin Calomme, Data Scientist bei Mediaan

Künstliche Intelligenz (KI) scheint der neueste Trend zu sein. Heutzutage ist es unmöglich, dem Thema auszuweichen. Sei es bei Gesprächen mit Kunden, beim Ansehen der Nachrichten oder einfach beim Blick auf die Supercomputer, die in unseren Taschen stecken. Künstliche Intelligenz rückt schnell in unseren Alltag vor und etabliert sich. Aber wie „neu" ist diese neueste Technologie wirklich? Sie ist viel älter, als Sie sich vorstellen können. Schon lange bevor Ihr vernetztes Haus Lebensmittel per Drohnenlieferung bestellen konnte, phantasierte und sprach die Menschheit bereits über mechanische und künstliche Wesen, wie in antiken griechischen und ägyptischen Mythen zu sehen ist.

Mediaan nimmt Sie mit auf eine Reise, um die Entwicklung und Geschichte der künstlichen Intelligenz zu entdecken, beginnend mit den ersten Rechenmaschinen, den Taschenrechnern!


1900 - 20. Jahrhundert
Erste Formen von Rechenmaschinen, Taschenrechner!

Im 17. Jahrhundert stellten Wissenschaftler und Philosophen wie Hobbes, Leibniz und Descartes die These auf, dass alle menschlichen Überlegungen auf Berechnungen reduziert und daher von einer Maschine weitergeführt werden könnten. Diese Annahme treibt die KI-Forschung bis heute an. Sie führte zu den ers

ten Formen von Rechenmaschinen, den Taschenrechnern!Es dauerte jedoch noch mehr als 200 Jahre, bis die ersten Taschenrechner an die breite Öffentlichkeit verkauft und das automatisierte Rechnen allen zugänglich wurde. Etwa zur gleichen Zeit stellten Charles Babbage und Ada Lovelace Überlegungen zu ersten Computern an – Computer, wie wir sie heute kennen.


Künstliche Intelligenz als Bedrohung unserer Kultur

Nachdem die industrielle Revolution, die einst bekannte Welt verändert hatte und zu ihrem Abschluss kam, kehrten künstlich intelligente Wesen in die Kultur zurück und wurden als Bedrohung für den Menschen dargestellt.

Frankensteins Monster, das sich gegen seinen Schöpfer wendet, Rossum‘s Universal Robots (1920), die sich auflehnen und der Menschheit ein Ende setzen, oder sogar Roboter, die in „Der Herr der Welt“ (1934) als Kriegswaffen eingesetzt werden. Zur Rettung kam Isaac Asimov mit seinem Vorschlag der „Drei Gesetze der Robotik", einer Parodie der Newtonschen Bewegungsgesetze, die einen Schutz vor der Übernahme von Robotern bieten.


Eine Welle des Optimismus


Nachdem Alan Turing während des Zweiten Weltkrieges mit Hilfe des ersten vollwertigen Computers der Menschheit maßgeblich an der Entzifferung verschlüsselter Funksprüche beteiligt war, wurde die Welt von einer Welle des Optimismus erfasst. Maschinen und Computer konnten nicht nur nützlich sein, sondern auch Leben retten. 1950 schlug derselbe Alan Turing seinen berüchtigten Turing-Test vor und setzte damit einen formalen Maßstab für künstliche Intelligenz.

Ein paar Jahre später schuf Arthur Samuel (IBM), einer der Urväter des maschinellen Lernens, ein Programm für das Brettspiel Dame (Checkers-Variante), das in der Lage war, selbstständig zu lernen und sich zu verbessern.

1950 - Anfang der 90er Jahre

Die offizielle Geburt der Künstlichen Intelligenz als Fachgebiet

Im Jahr 1956 markierte die Dartmouth-Konferenz das, was gemeinhin als offizielle Geburt der künstlichen Intelligenz als akademisches Feld bezeichnet wird. Die ersten bedeutsamen Computersprachen wie FORTRAN, LISP oder COBOL wurden erfunden und sorgten für ein Allzeithoch an Begeisterung und Hoffnung.

Frank Rosenblatts Perceptron sowie Hubels und Wiesels Experimente zum visuellen Kortex von Katzen belegten, dass Maschinen das menschliche Gehirn nachahmen konnten. Joseph Weizenbaums Computerprogramm ELIZA (1966) war eines der ersten, das den Turing-Test erfolgreich bestand. Gleichzeitig wurde in Japan mit WABOT-1 der weltweit erste vollwertige menschenähnliche intelligente Roboter entwickelt.


Die Grenzen der Möglichkeiten


Unabhängig davon, dass die allgemeine Wirtschaftslage in den 1970er Jahren nicht gerade förderlich war, stießen viele der Erwartungen aus den Vorjahren stark an ihre Grenzen. Da KI-Forscher nicht in der Lage waren, ihre Versprechungen übermenschlicher Intelligenz einzulösen, wurde deren Finanzierung praktisch vollständig gekürzt, was als erster von zwei KI-„Wintern" in Erinnerung blieb.

Obwohl die KI an Popularität und reiner finanzieller Unterstützung verloren hatte, gewann sie in den 1970er Jahren etwas, das wohl viel wertvoller war: man fokussierte sich mehr auf die Verbesserung von Programmiersprachen, die ihrerseits zu unflexibel geworden waren. Zu diesem Zeitpunkt wurden Sprachen wie C, Prolog, SQL und Pascal entwickelt. Die Tatsache, dass diese Sprachen noch heute nicht nur lebendig sind, sondern den Grundstein der modernen Programmierung bilden, spricht für sich. Es war zwar Winter geworden, doch sollte er von einem lang anhaltenden Frühling abgelöst werden.


Künstliche Intelligenz als kostensparende Technologie


In den 80er Jahren überprüften Forscher ihre Ambitionen und stellten fest, dass sie anstelle einer allwissenden KI sehr effiziente Expertensysteme aufbauen konnten. Systeme, die in Bereichen wie Disposition, Lagerverwaltung oder Auftragsabwicklung unglaublich leistungsfähig sind. Das brachte den größten Unternehmen der Welt enorme Einsparungen. KI war keine theoretische Utopie für eine einzelne Forschergruppe mehr, sondern eine kostensparende Technologie, die von der Wirtschaft sehr geschätzt wurde. Und das Geld folgte.

Unternehmen begannen, sich auf die Finanzierung und den Aufbau von Infrastrukturen zu konzentrieren, die in der Lage waren, diese Systeme zu warten. Bessere Maschinen wurden gebaut, Sprachen wie C++, Perl oder sogar MATLAB, die eine groß angelegte Implementierung und Wartbarkeit ermöglichten, kamen auf den Markt. Zudem wurden neue Techniken entwickelt, die Daten und Logik zur Automatisierung von Prozessen nutzen konnten.


Der zweite KI-Krise


Der Begeisterungsanstieg hielt jedoch nicht lange an. Unternehmen wendeten große Geldsummen für KI-Forschung und speziell für diese Zwecke gebaute Maschinen auf, doch bald schon lohnte es sich nicht mehr. Programme ließen ihre Grenzen erkennen, da sie zu spezifisch und Verbesserungen zu aufwändig waren. Maschinen wurden von den neuesten Desktop-Computern von Apple und IBM in Punkto Geschwindigkeit und Leistung übertroffen.

Wie bereits zu Beginn des Jahrzehntes wurden die gesteckten Ziele nicht erreicht und jähe Zweifel gewannen die Oberhand über das gesamte Fachgebiet. Der zweite KI-Winter begann.

1990 – heute

Bereichsübergreifende Zusammenarbeit

Zum Glück erwies sich der Mangel an öffentlichem Interesse an diesem Fachgebiet als unglaublich vorteilhaft. Frei von unerreichbaren Zielen und öffentlicher Kontrolle konnten die Forscher in Ruhe arbeiten und Ergebnisse erzielen, die auch heute noch von enormer Relevanz sind.

Ein weiterer überraschender Effekt des Fehlens an finanziellen Mitteln war, dass KI-Forscher damit begannen, spezifischere Teilbereiche zu schaffen und mit Experten aus anderen Bereichen zusammenzuarbeiten, um ihre Forschung zu finanzieren. Durch diese bereichsübergreifende Zusammenarbeit wurde KI schlüssiger und wissenschaftlicher und vereinte Konzepte wie Wahrscheinlichkeitstheorie und klassische Optimierung. Ein großer Gewinn für das Fachgebiet.


Computer schlägt den besten Schachspieler der Welt

Obwohl KI in der Popkultur durch Filme wie Matrix, Terminator oder 2001: A Space Odyssey negativ dargestellt wurde, machte sie riesige Fortschritte. Die Kombination aus verbesserter Hardware, neuen Theoremen und Techniken sowie neuen Programmiersprachen des "Internetzeitalters" wie Python, Java, JavaScript, R oder PHP führte zu neuen Meilensteinen.

Deep Blue schlug in einem Spiel den Schachweltmeister Gary Kasparov, das für immer ein großer Sieg für die KI bleiben wird. Zum ersten Mal hatte KI in einer sehr publikumswirksamen Weise gezeigt, dass sie bei einer Aufgabe, die weithin als Inbegriff menschlicher Intelligenz angesehen wird, besser sein könnte als der Mensch. Unterdessen löste KI weiterhin sehr schwierige Probleme z. B. im Data Mining, der medizinischen Diagnose, der Bankensoftware oder der Spracherkennung – ohne zwangsläufig die verdiente Anerkennung dafür zu erhalten. Zur selben Zeit stellte Google und seine berüchtigte Suchmaschine der Welt vor.


Die Ära Social Media

Nach nahezu zwei Jahrzehnten, in denen Künstliche Intelligenz von der breiten Öffentlichkeit und der Geschäftswelt gemieden wurde, erlebte KI ein großes Comeback in der öffentlichen Wahrnehmung. Mit dem Heranwachsen der Millenium- und Internet-Generation, stieg in der Bevölkerung die Begeisterung für KI und Technologie wieder an. Im Jahr 2006 ging Facebook an die Börse, Twitter wurde gegründet, Youtube wurde von Google gekauft und eine neue Wirtschaftslandschaft war geboren.

Die Social-Media-Ära stellte die Geschäftswelt auf den Kopf. Viele Daten über Vorlieben und Abneigungen der Menschen waren nun verfügbar, alles musste schneller, besser und personalisierter werden. Die Welt wurde zu schnell und zu komplex für den Menschen allein. Man brauchte Hilfe und wandte sich wieder an die KI als Retter, da Begriffe wie "Deep Learning", "Data Science" oder gar "Big Data" zum Mainstream wurden.


Künstliche Intelligenz in unserem Alltag


In den letzten Jahren hat sich KI immer mehr in unseren Alltag integriert. Siri kann Besprechungen für einen planen. Netflix weiß, welche Filme man gut finden wird. Supermärkte bieten personalisierte Rabatte auf der Grundlage von Einkaufsgewohnheiten an. Facebook sagt einem, wer auf den eigenen Bildern zu sehen ist und wen man vielleicht kennt. Und Google weiß, was man will, bevor man überhaupt mit dem Tippen fertig ist.

Sogar in der Popkultur feierten die Nerds ein Comeback. Unternehmer wie Elon Musk, Bill Gates oder Steve Jobs gelten als moderne Helden. Und die gute Nachricht für mich und meine Kollegen: Der Beruf des Data -Scientist ist sogar der gefragteste Job des 21. Jahrhunderts.


Künstliche Intelligenz für Unternehmen


KI ist nicht nur in unserem Alltag präsent, sondern bietet auch große Chancen für die Geschäftswelt. Sie kann z. B. im Rechts- oder Gesundheitswesen eingesetzt werden. Unternehmen der Logistikbranche nutzen KI, um ihre Ressourcenplanung zu verbessern und zudem umweltfreundlicher zu werden. Digitale Agenten werden eingesetzt, um die Kundenbetreuung zu verbessern oder um Mitarbeiter zu unterstützen, damit sie ihre Arbeit besser erledigen. Dies sind nur einige der vielen Beispiele für den Einsatz von KI in der heutigen Geschäftswelt.

Ich glaube, wir können ehrlicherweise zu dem Schluss kommen, dass die Zukunft der künstlichen Intelligenz sehr vielversprechend aussieht.

Kommentare
Einen Kommentar schreiben
Entschuldigung

Ihr Browser ist leider nicht aktuell genug.
Um diese Webseite zu benutzen, benötigen Sie einen aktuellen Browser
Wir empfehlen einen der folgenden Browser in der aktuellsten Version zu installieren.

Auf iOS Geräten sollte mindestens die Betriebssystem Version iOS 9 installiert sein.

Mozilla Firefox Google Chrome Microsoft Edge Internet Explorer