KI-Modelle

Logik und Wissensrepräsentation

  ·  2 min read

Künstliche Intelligenz (KI) und deren Systeme oder Maschinen sind fähig, menschenähnliche Intelligenz nachzuahmen, Aufgaben auszuführen und dabei aus Erfahrungen zu lernen. KI-Modelle sind die algorithmischen, auf Daten trainierten mathematischen Bausteine dieser Systeme, die Muster zu erkennen, Vorhersagen machen und Entscheidungen treffen.

🤖 Maschinelles Lernen #

Machine Learning, ML ist der wichtigste Teilbereich der KI und die Hauptmethode, um Computersysteme zu trainieren, Muster in Daten zu erkennen und Entscheidungen zu treffen, ohne explizit für jede Situation programmiert worden zu sein.

Algorithmen und Modelle: ML nutzt statistische und mathematische Modelle, um aus Daten zu lernen.

Tiefes Lernen (Deep Learning, DL): Eine Unterkategorie des ML, die Neuronale Netze mit vielen (mehreren) Schichten verwendet (daher “tief”). Diese Tiefe ermöglicht das automatische Extrahieren komplexer Merkmale aus rohen Daten, wie z.B. Bildern, Text oder Ton.

Überwachtes Lernen (Supervised Learning): Das Modell lernt anhand von gelabelten Daten (Eingabe und erwartete Ausgabe sind bekannt). Beispiele sind Klassifikations- und Regressionsprobleme.

Unüberwachtes Lernen (Unsupervised Learning): Das Modell identifiziert Muster oder Strukturen in ungelabelten Daten. Beispiele sind Clustering und Dimensionsreduktion.

Bestärkendes Lernen (Reinforcement Learning): Ein Agent lernt durch Versuch und Irrtum in einer Umgebung, indem er Belohnungen oder Strafen erhält, um ein Ziel zu maximieren.

Neuronale Netze #

Neuronale Netze (Neural Networks, NN) sind eine spezielle Art der Machine-Learning-Modelle, die lose an die Struktur des menschlichen Gehirns angelehnt sind. Sie bestehen aus verbundenen Knoten (“Neuronen”), die in Schichten organisiert sind.

Convolutional Neural Networks (CNNs): Spezialisiert auf die Verarbeitung von gitterartigen Daten, primär Bild- und Videoerkennung.

Recurrent Neural Networks (RNNs) / Long Short-Term Memory (LSTMs) / Transformers: Spezialisiert auf sequentielle Daten, wie z.B. Text (Natural Language Processing) und Zeitreihen. Transformer sind die Basis für moderne, leistungsstarke Large Language Models (LLMs) wie GPT-4.

🗣️ Natürlicher Sprache #

Natural Language Processing, NLP ermöglicht es Computern, menschliche Sprache (geschrieben und gesprochen) zu verstehen, zu interpretieren und zu generieren.

Schlüsseltechnologien: Tokenisierung, Parsing, Stimmungsanalyse, Maschinelle Übersetzung, Spracherkennung und Textgenerierung (LLMs).

👁️ Computer Vision #

Computer Vision (CV) befasst sich damit, wie Computer digitale Bilder und Videos “sehen” und interpretieren können.

Anwendungen: Objekterkennung, Gesichtserkennung, Bildklassifikation, autonome Fahrzeuge und medizinische Bildanalyse. CNNs sind hier die zentrale Technologie.