"Denkende" Maschinen und woher sie kommen

Künstliche Intelligenz – die Geschichte

Für Banken liegen in der Nutzung von KI große Chancen – und ungenutzte Potenziale: Um zu verstehen, welchen Mehrwert die Anwendung von KI in unserer täglichen Arbeit haben kann, ist es hilfreich, die Idee hinter der Technologie sowie ihre Geschichte zu kennen.

Was ist eigentlich KI?

Wenn der Begriff "künstliche Intelligenz" (KI) heute fällt, sprechen wir normalerweise von Computern, die kognitive Funktionen simulieren, wie das die sonst dem Menschen zugeschrieben werden, wie das "Lernen" oder die "Problemlösung". Solche Maschinen werden mittlerweile für eine Vielzahl von Anwendungen genutzt, wie die Diagnose von Krankheiten oder die Suche nach Fehlern in technischen Systemen.

Bis zum Punkt, an dem künstliche Intelligenz einen sozialen und ökonomischen Nutzen stiften konnte, war es jedoch ein langer Weg. Bereits als die ersten Computer noch in den Kinderschuhen steckten, stellten Wissenschaftler Überlegungen an, wie "intelligente" Maschinen den Menschen in Zukunft unterstützen könnten.
 

Von den Ursprüngen bis zur digitalen Revolution

In den späten 30er, 40er und frühen 50er Jahren trafen verschiedene Ideen zusammen, die den Grundstein für die Erforschung "denkender Maschinen" legten. Sowohl neurologisch als auch mathematisch wurde überlegt, ob die Konstruktion eines elektrischen Gehirns möglich sei. Amerikanische Wissenschaftler zeigten 1943, dass Netzwerke aus künstlichen Neuronen einfache logische Funktionen ausführen können. Sie beschrieben zum ersten Mal, was Forscher später als neuronales Netz bezeichneten.In den späten 1930er, 1940er und frühen 1950er trafen verschiedene Ideen zusammen, die den Grundstein für die Erforschung "denkender Maschinen" legten. Es wurden neurologische und mathematische Überlegungen angestellt, ob es möglich sein könnte, ein elektronisches Gehirn zu konstruieren. Amerikanische Wissenschaftler zeigten 1943, dass Netzwerke aus künstlichen Neuronen einfache logische Funktionen ausführen könnten. Sie waren die ersten, die das beschrieben, was spätere Forscher als neuronales Netz bezeichneten.

1950 veröffentlichte der Logiker und Mathematiker Alan Turing einen bahnbrechenden Aufsatz, in dem er über die Möglichkeit spekulierte, denkende Maschinen zu schaffen. Er stellte fest, dass "Denken" schwer zu definieren ist, und entwickelte seinen berühmten Turing-Test. Seine These: Wenn eine Maschine dazu fähig ist, ein Gespräch so zu führen, dass das Gegenüber sie nicht von einem Menschen unterscheiden kann, dann kann man davon ausgehen, dass die Maschine "denkt". Mit dieser Vereinfachung des Problems zeigte Turing, dass eine "denkende" Maschine zumindest plausibel war. 1950 veröffentlichte der Logiker und Mathematiker Alan Turing einen bahnbrechenden Aufsatz, in dem er über die Möglichkeit spekulierte, denkende Maschinen zu schaffen. Er stellte fest, dass "Denken" schwer zu definieren ist, und entwickelte seinen berühmten Turing-Test. Seine These: Wenn eine Maschine dazu fähig ist, ein Gespräch so zu führen kann, dass das Gegenüber sie nicht von einem Menschen unterscheiden kann, dann kann man davon ausgehen, dass die Maschine "denkt". Mit dieser Vereinfachung des Problems zeigte Turing, dass eine "denkende" Maschine zumindest plausibel war.

Schon die frühe KI-Forschung stellte die These auf, dass die Konstruktion eines künstlichen Gehirns möglich sei.

Glossar

Künstliche neuronale Netze

Netzwerke aus künstlichen Neuronen simulieren die Funktion von biologischen Nervenzellen. Neuronale Netze sind ein Teilbereich des Maschinellen Lernens. Ihr Name und ihre Struktur sind vom menschlichen Gehirn inspiriert.
 

Maschinelles Lernen

Die Bezeichnung umfasst Computersysteme, die in der Lage sind, zu lernen und sich selbst anzupassen. Diese Systeme benutzen Algorithmen und statistische Modelle, um Daten zu analysieren und aus Mustern Schlüsse zu ziehen.

Kickstart für KI

Als Geburtsstunde des Forschungsgebiets der KI wird weithin eine Konferenz im Jahr 1956 am Dartmouth College im US-amerikanischen Hanover, New Hampshire, bezeichnet. Das Projekt, an dem elf Mathematiker und andere Wissenschaftler mitwirkten, dauerte etwa sechs bis acht Wochen und war im Wesentlichen eine erweiterte Brainstorming-Sitzung. Die Hauptthese der Konferenz lautete, dass jeder Aspekt der Intelligenz so genau definierbar sei, dass eine Maschine ihn simulieren können.

Die Programme, die in den Jahren nach dem Dartmouth-Workshop entwickelt wurden, waren für damalige Verhältnisse erstaunlich: Computer lösten Algebraaufgaben, bewiesen Theoreme in der Geometrie und lernten Englisch zu sprechen. Nur wenige hätten damals geglaubt, dass ein derartig "intelligentes" Verhalten von Maschinen überhaupt möglich sei. Forscher äußerten sich damals sehr optimistisch.

Unter anderem wurden Aussagen getroffen wie:

  • "Innerhalb von zehn Jahren wird ein digitaler Computer ein wichtiges neues mathematisches Theorem entdecken.“ – H. A. Simon and Allen Newell, 1958

  • "Maschinen werden innerhalb von zwanzig Jahren in der Lage sein, jede Arbeit zu verrichten, die ein Mensch tun kann.“ – H. A. Simon, 1965

  • "In drei bis acht Jahren werden wir eine Maschine mit der allgemeinen Intelligenz eines durchschnittlichen Menschen haben.“ Marvin Minsky, 1970

Maschinen mit Expertise

In den 1970er Jahren stellte sich jedoch heraus, dass die Vorhersagen der Forscher zu ambitioniert gewesen waren. Sie hatten die Schwierigkeit der Probleme, vor denen sie standen, nicht erkannt. Ihr enormer Optimismus hatte die Erwartungen ins Unermessliche gesteigert und als die versprochenen Ergebnisse ausblieben, wurden die Mittel für die Forschung gekürzt. Trotz dieser Schwierigkeiten wurden in den 70er Jahren neue Ideen in der Programmierung und dem logischen Denken erforscht.

Beispielsweise wurde mit "MYCIN“ in den frühen 70ern einer der Vorreiter der sogenannten "Expertensysteme“ entwickelt. Das Programm, das Blutkrankheiten diagnostizierte, wurde durch seinen gesellschaftlichen Mehrwert als durchaus nützlich angesehen – etwas, das KI bis zu diesem Punkt nicht erreicht hatte.

Die ersten „Expertenmaschinen“ galten aufgrund ihres gesellschaftlichen Mehrwerts als Durchbruch.

Glossar

Expertensystem

Der Begriff bezeichnet eine Software, die auf Datenbanken mit Expertenwissen zurückgreift, um Ratschläge zu erteilen oder Entscheidungen in einem stark eingegrenzten Bereich zu treffen – zum Beispiel der Diagnose von Krankheiten.

Wissensverarbeitung

Der Bereich innerhalb der KI-Forschung setzt voraus, dass intelligentes Verhalten in hohem Maße von der Beschäftigung mit dem – manchmal recht detaillierten – Wissen in einem bestimmten Feld abhängt.

Das 1980 fertiggestellte Expertensystem "XCON" war ein enormer Erfolg und sparte dem Unternehmen "Digital Equipment Corporation“ jährlich 40 Millionen Dollar ein. So begannen Unternehmen auf der ganzen Welt, Expertensysteme zu entwickeln und einzusetzen. Bis 1985 gaben sie über eine Milliarde Dollar dafür aus.

 

Neue Ansätze und große Erfolge

In den darauffolgenden Jahren stagnierte die Entwicklung der KI abermals. Ein Grund dafür war, dass kommerzielle Anbieter schlichtweg noch nicht in der Lage waren, eine breite Palette von praktikablen Lösungen zu entwickeln. Ein neuer Ansatz musste her – und der kam mit der frühen digitalen Revolution in den 90ern, die immer mehr Computerleistung mit sich brachte. Zu den Durchbrüchen in dieser Periode gehörten unter anderem Suchmaschinen- und Spracherkennungssoftware.

Im 21. Jahrhundert wurden schließlich durch den Zugang zu großen Datenmengen ("Big Data"), schnelleren Computern sowie durch die Weiterentwicklung des maschinellen Lernens entscheidende Fortschritte erzielt. 2016 erreichte der Markt für KI-bezogene Produkte, Hardware und Software ein Volumen von mehr als 8 Milliarden Dollar. Die New York Times berichtete, dass das Interesse an KI einen "Rausch“ erzeugt hatte.

Der Zugang zu großen Datenmengen war ein Beschleuniger in der Weiterentwicklung der KI.

Glossar

Deep Learning

Eine Form des Maschinellen Lernens, bei dem mehrschichtige neuronale Netze das Verhalten des menschlichen Gehirns nachahmen, um aus Beispielen zu lernen. Ein Anwendungsbeispiel für Deep Learning ist die Erkennung der Merkmale von Bildern.

Big Data

Extrem große Datensätze, die computergestützt analysiert werden können, um Muster, Trends und Zusammenhänge zu erkennen, insbesondere im Zusammenhang mit menschlichem Verhalten.

 

Die Nutzung von Big Data und KI-Modellen begann, in neue Bereiche vorzudringen, insbesondere in die Ökonomie. Zudem sorgten Deep-Learning-Technologien für rapide Fortschritte bei Bildverarbeitungssoftware, Textanalyse und Spracherkennung. Ab 2018 wurden erste Versuche gestartet, mit Modellen wie "OpenAI" und "DeepMind“ eine Künstliche Intelligenz zu entwickeln, die generelle Problemlösungskompetenz aufweist und nicht auf eine bestimmte Anwendung beschränkt ist.

 

Was bringt die Zukunft?

Simulationen zeigen, dass bis 2030 etwa 70 Prozent der Unternehmen eine Art von KI-Technologie nutzen werden. Der Grund dafür ist einfach. Ob es um Voraussagen bezüglich des Klimawandels, den Auswahlprozess für Bewerbungen oder die optimierte Vermarktung von Finanzprodukten geht: KI reduziert Fehler, automatisiert sich wiederholende Aufgaben, unterstützt bei wichtigen Entscheidungen und gestaltet dadurch viele Prozesse effizienter.

Auch für Mitarbeitende in der Bank kann der Einsatz von KI-Software den Arbeitsalltag enorm erleichtern und mehr Freiraum für die wesentlichen Aufgaben schaffen. Smart Data und KI sind mehr als Technologietrends – und sie nehmen an Fahrt auf! Deshalb gilt: Je früher Banken mit den smarten Tools von Atruvia durchstarten, desto besser. Atruvia steht Banken bei der Transformation zur Seite und unterstützt sie mit Leistungen, die optimal auf ihren Betrieb und ihre Wünsche zugeschnitten sind.