Einführung in die KI

Veröffentlicht am 21. Dezember 2025 um 16:33

Künstliche Intelligenz (KI) ist längst ein fester Bestandteil unseres Alltags geworden. Ob in der Medizin, Qualitätssicherung, Kunst oder Werbung – die Einsatzmöglichkeiten sind vielfältig und ständig wachsend. Alles deutet darauf hin, dass KI in der Zukunft eine noch zentralere Rolle spielen wird. Dass Sie, liebe Leserin oder lieber Leser, hier sind, zeigt, dass Sie das Potenzial bereits erkannt haben. Egal ob in der Schule, Ausbildung, im Studium oder Berufsleben – die Begegnung mit Künstlicher Intelligenz ist heute nahezu unvermeidlich. Wenn Sie verstehen, wie diese Technologie funktioniert, eröffnen sich Ihnen ganz neue Möglichkeiten: Sie können Anwendungsfelder in Ihrem Umfeld identifizieren und vorhandene Daten – beispielsweise aus Excel-Tabellen – effizient nutzen. KI kann diese Daten analysieren, sortieren, klassifizieren oder sogar Prognosen für zukünftige Ereignisse liefern. Damit kann sie Ihnen Arbeit abnehmen oder wertvolle Unterstützung bei Ihren täglichen Aufgaben bieten. Auch wenn Sie selbst keine KI-Entwicklerin oder kein KI-Entwickler werden sollten, ist ein solides Verständnis in diesem Bereich äußerst nützlich. Es ermöglicht Ihnen, in Projekten besser einzuschätzen, wann und wie KI sinnvoll eingesetzt werden kann. Zudem können Sie die Ergebnisse und Vorschläge von KI-Systemen fundierter bewerten, da Sie das Prinzip dahinter kennen. Und nicht zuletzt: Es macht einfach Spaß, Programme zu entwickeln, die den Eindruck von Intelligenz vermitteln!

Was ist eine künstliche Intelligenz ?

Die Encyclopedia Britannica ([www.britannica.com](https://www.britannica.com)) definiert Künstliche Intelligenz (KI) bzw. Artificial Intelligence (AI) wie folgt:
»Artificial intelligence (AI) is the ability of a computer or a robot controlled by a computer to perform tasks that are usually carried out by humans because they require human intelligence and discernment. Although no AI exists that can perform the full range of tasks an ordinary human is capable of, some AIs are able to match or even surpass humans in specific tasks.«
Auch das Europäische Parlament ([www.europarl.europa.eu](https://www.europarl.europa.eu)) liefert eine prägnante Definition:
„Künstliche Intelligenz bezeichnet die Fähigkeit von Maschinen, menschliche Kompetenzen wie logisches Denken, Lernen, Planen und Kreativität nachzuahmen.“ Auch in der Literatur finden Sie ähnliche Formulierungen. Nach diesen Definitionen kann man somit auch das Navigationsgerät im Auto als künstliche Intelligenz interpretieren. Es ist in der Tat nicht einfach, die KI eindeutig zu definieren.

Das kann schon ein gewiefter Algorithmus sein, um den schnellsten Weg von A nach B zu finden. Wir können aber festhalten, dass es darum geht, menschliche Intelligenz in irgendeiner Form zu imitieren.
Das maschinelle Lernen (Machine Learning, ML) ist eine Teilmenge der künstlichen Intelligenz. Darunter fallen selbst lernende Programme ohne vorgegebenen Algorithmus.

Um das Konzept zu veranschaulichen, nehmen wir folgendes Beispiel: Sie trainieren ein Programm, das die Summe zweier Zahlen berechnen soll. Dafür geben Sie verschiedene Kombinationen ein, wie z. B. 1 + 3 = 4, 2 + 2 = 4 oder 2 + 6 = 8.

Das Programm versucht bereits während der Eingabe der Zahlen, eine Mustererkennung vorzunehmen und das Ergebnis vorherzusagen, noch bevor Sie es selbst eintippen. Immer wenn Sie das Ergebnis eingeben, überprüft das System, ob seine Vorhersage korrekt war (Trainingsphase). Sobald das Programm durch diesen Prozess eine korrekte Verknüpfung gefunden hat und diese auch bei weiteren Zahlenkombinationen zuverlässig funktioniert (Testphase), ist das maschinelle Lernen abgeschlossen. Ab diesem Punkt müssen Sie nur noch die Summanden eingeben, und das Programm liefert automatisch die richtige Summe. Der entscheidende Vorteil: Es ist kein expliziter Algorithmus nötig, um die Berechnung durchzuführen. Die KI lernt eigenständig anhand der Trainings- und Testdaten, wie sie die richtige Verknüpfung herstellen kann. Das maschinelle Lernen lässt sich je nach Fachliteratur in verschiedene Unterkategorien einordnen. Wir wollen uns hier auf drei Unterkategorien einigen.

  • Supervised Learning
    Beim überwachten Lernen benötigt das System Trainingsdaten, um zu lernen. Zum Beispiel: Sie haben Bilder von Hunden und Katzen, die zuvor von einer Person korrekt zugeordnet wurden (dies wird als »Labeln« bezeichnet). Die Trainingsdaten bestehen aus Bildern und den entsprechenden Labels. Mit diesen Daten trainieren Sie das Programm, sodass es anschließend in der Lage ist, neue Bilder eigenständig als Hund oder Katze zu klassifizieren. Auch das zuvor beschriebene Beispiel mit den Summanden gehört in diese Kategorie.
  • Unsupervised Learning
    Das unüberwachte Lernen wird häufig eingesetzt, um Muster in großen Datenmengen zu erkennen und diese zu kategorisieren. Ein Beispiel: Aus Sensordaten einer Maschine können automatisch die Zustände »kritisch« oder »unkritisch« identifiziert werden.
  • Reinforcement Learning
    Beim verstärkenden Lernen geht es beispielsweise um Anwendungen in der Spieleentwicklung. Hier lernt eine Figur eigenständig, die richtigen Spielzüge auszuführen. Bei falschen Aktionen erhält sie negatives Feedback, während erfolgreiche Züge belohnt werden, sodass der Lernprozess optimiert wird.

Geschichte der Künstlichen Intelligenz

Die Faszination für Maschinen, die menschliche Fähigkeiten imitieren, ist keine neue Idee. Schon der griechische Philosoph Aristoteles (384–322 v. Chr.) schrieb in seinem Werk »Politik« über die Vorstellung, dass Automaten eines Tages die Arbeit von Sklaven übernehmen könnten:

»Denn wenn es möglich wäre, dass jedes Werkzeug auf Geheiß oder von selbst seine Arbeit verrichtete – wie die Statuen des Dädalos oder die Dreifüße des Hephaistos, von denen der Dichter berichtet, dass sie sich eigenständig zu den Göttern begaben – und wenn so auch das Weberschiff selbstständig webte und die Zither von allein spielte, dann bräuchten weder die Künstler Gehilfen noch die Herren ihre Sklaven.«

Auch der Universalgelehrte Ismael al-Dschazari (1136–1206) brachte diese Ideen in die Realität und entwarf für seine Dienstherren beeindruckende mechanische Apparate. Dazu gehörten ein wasserbetriebener Pfau und musizierende Automaten mit wechselnden Gesichtsausdrücken. Ebenso skizzierte Leonardo da Vinci (1452–1519) Entwürfe für Roboterritter mit Gelenkverbindungen aus Flaschenzügen. Es ist erstaunlich, welche visionären Gedanken diese Vordenker*innen – und viele andere – schon in ihrer Zeit hatten.

Seit den 1940er-Jahren hat die moderne Technologie enorme Fortschritte gemacht, und einige bedeutende Meilensteine zeigen, wie rasant sich die Entwicklung seither beschleunigt hat:

  • Im Jahr 1943 veröffentlichten der Neuropsychologe Warren McCulloch und der Logiker Walter Pitts die bahnbrechende Arbeit »A Logical Calculus of the Ideas Immanent in Nervous Activity«. Dieses Werk gilt als Grundstein für das Konzept künstlicher neuronaler Netze, mit denen wir uns im weiteren Verlauf dieses Buches noch genauer beschäftigen werden.

 

  • Im Jahr 1956 wurde in den USA eine Konferenz mit dem Titel »The Dartmouth Summer Research Project on Artificial Intelligence« abgehalten. Hier tauschten sich Wissenschaftler über dieses neuartige Forschungsfeld aus, und der Begriff »künstliche Intelligenz« wurde erstmals schriftlich definiert.

 

  • Im Jahr 1959 prägte der Ingenieur Arthur Samuel den Begriff »Machine Learning« mit der Veröffentlichung seines wegweisenden Aufsatzes »Some Studies in Machine Learning Using the Game Checkers«. Sein entwickeltes Programm, das auf maschinellem Lernen basierte, war in der Lage, Dame gegen Menschen sowie gegen sich selbst zu spielen.

 

  • Im Jahr 1979 schrieb Hans Berliner, Wissenschaftler an der Carnegie Mellon University in Pittsburgh, Geschichte: Sein Programm BKG 9.8 besiegte den amtierenden Weltmeister im Backgammon. Es war das erste Mal, dass ein Computerprogramm einen amtierenden Weltmeister in diesem Spiel schlagen konnte.

 

  • Im Jahr 1997 gelang IBMs Supercomputer Deep Blue ein historischer Erfolg: Er besiegte den amtierenden Schachweltmeister Garri Kasparow. Deep Blue beeindruckte mit seiner Fähigkeit, bis zu 200 Millionen Schachstellungen pro Sekunde zu analysieren und mehr als sechs Züge im Voraus zu berechnen.

 

  • Im Jahr 2016 gelang dem Programm AlphaGo des Unternehmens DeepMind ein historischer Erfolg: Es besiegte den amtierenden Weltmeister Lee Sedol im komplexen Strategiespiel Go. Die schier unvorstellbare Zahl möglicher Züge in diesem Spiel übersteigt sogar die Anzahl der Atome im gesamten Universum.

 

  • Im Jahr 2022 brachte das Unternehmen Open AI den Chatbot Chat GPT auf den Markt – eine KI, die eine völlig neue Qualitätsstufe erreicht. Mit Chat GPT lassen sich Unterhaltungen führen, die denen mit einem Menschen erstaunlich ähneln. Der Chatbot beherrscht vielseitige Fähigkeiten: Er kann Inhalte vereinfachen, zusammenfassen, Texte verfassen, programmieren und sogar philosophieren. Tests haben gezeigt, dass Chat GPT in der Lage ist, Prüfungen auf dem Niveau von Elite-Universitäten zu bestehen.

Die technologische Entwicklung der letzten 80 Jahre ist beeindruckend, und Künstliche Intelligenz (KI) spielt in vielen Bereichen, wie beispielsweise der Medizin, eine entscheidende Rolle. Dennoch dürfen wir die damit verbundenen Risiken nicht ignorieren. So sorgt KI in sozialen Medien dafür, dass Nutzern gezielt ausgewählte Nachrichten und Inhalte präsentiert werden. Doch was bedeutet das für unseren freien Willen, wenn wir von klein auf in einer solchen Informationsblase leben?

Sind unsere Entscheidungen dann wirklich noch objektiv, oder können wir den jahrelang gezielten Einfluss durch solche Inhalte überhaupt ausblenden?

Wollen wir wirklich zulassen, dass KI Menschen kategorisiert und beurteilt, etwa bei Bewerbungsprozessen? Oft mangelt es in solchen Anwendungen nämlich an echter Objektivität.  »Das künstliche neuronale Netz« – Ein Blick auf die Unterschiede zwischen Korrelation und Kausalität.

Diese Beispiele verdeutlichen nur einige der Gefahren, die uns bewusst sein sollten. Trotzdem dürfen wir nicht den Fehler machen, die Augen vor diesen Entwicklungen zu verschließen oder sie als reine Modeerscheinung abzutun. Der Fortschritt ist unaufhaltsam und eröffnet enorme Chancen. KI hat längst in allen Industriezweigen Einzug gehalten. Unser Fokus sollte daher auf den positiven Aspekten liegen. Ein besseres Verständnis dieser Technologien wird nicht nur unser Urteilsvermögen schärfen, sondern uns auch dabei helfen, ihre Potenziale sinnvoll zu nutzen.