Eine Programmierschnittstelle, die es Entwicklern erlaubt, ein KI-Modell in eigene Anwendungen einzubinden. Statt eine Oberfläche zu nutzen, schickt man einen Text per Programm an das Modell und bekommt die Antwort automatisiert zurück. Abgerechnet wird meist pro Token.
→ Erklärt in: Pfad 4 / Video 3 — "KI-APIs: Was steckt dahinter?"❓ KI-Glossar
39 Begriffe — von Einsteiger bis Experte. Verständlich erklärt für den Verbandsalltag.
Kein Eintrag gefunden.
Versuchen Sie einen anderen Suchbegriff.
Ein zentraler Mechanismus in Transformer-Modellen. Das Modell lernt, welche Wörter im Kontext für die Vorhersage des nächsten Wortes besonders relevant sind — es "achtet" auf die wichtigsten Stellen. Der wissenschaftliche Durchbruch: "Attention Is All You Need" (Google, 2017).
→ Hintergrund: Pfad 2 / Video 1 — "Wie lernt ein KI-Modell?"Der zentrale Lernmechanismus beim KI-Training: Wenn das Modell einen Fehler macht, wird dieser rückwärts durch das Netzwerk verfolgt. Die Gewichte, die den Fehler verursacht haben, werden minimal angepasst — millionenfach wiederholt. So lernt das Modell schrittweise, welche Verbindungen wichtig sind.
→ Erklärt in: Pfad 2 / Video 1 — "Wie lernt ein KI-Modell?"Systematische Verzerrungen in den Ausgaben eines KI-Modells, die aus unausgewogenen Trainingsdaten entstehen. Wenn ein Modell überwiegend auf Texten trainiert wurde, in denen bestimmte Berufe mit bestimmten Geschlechtern assoziiert werden, übernimmt es diese Assoziation. Bias ist keine Absicht — aber eine Verantwortung.
→ Erklärt in: Pfad 2 / Video 5 — "Welche Daten stecken drin?"Ein Computerprogramm, das Gespräche in natürlicher Sprache führt. Klassische Chatbots folgten starren Regeln ("Wenn Frage X, dann Antwort Y"). Moderne KI-Chatbots wie ChatGPT nutzen Sprachmodelle und können flexibel auf nahezu jede Eingabe antworten.
→ Erklärt in: Pfad 1 / Video 1 — "KI erklärt in 2 Minuten"Bei RAG-Systemen werden Dokumente in kleine Abschnitte (Chunks) zerlegt, um sie effizient durchsuchbar zu machen. Ein Chunk ist typischerweise 200–500 Wörter lang. Zu große Chunks verringern die Suchpräzision, zu kleine verlieren Kontext.
→ Erklärt in: Pfad 4 / Video 1 — "RAG erklärt: KI + eigene Daten"Die maximale Textmenge, die ein Sprachmodell auf einmal "sehen" und verarbeiten kann. Alles innerhalb dieses Fensters steht dem Modell zur Verfügung — alles außerhalb nicht. Moderne Modelle haben Kontextfenster von 128.000 Tokens und mehr, was etwa 100 Seiten Text entspricht.
→ Erklärt in: Pfad 2 / Video 4 — "Tokens, Kontext, Gedächtnis"Ein Teilgebiet des maschinellen Lernens, das künstliche neuronale Netze mit vielen Schichten ("tief") verwendet. Sprachmodelle sind eine Form von Deep Learning. Die "Tiefe" bezieht sich auf die Anzahl der Schichten im neuronalen Netz — mehr Schichten ermöglichen komplexere Muster.
→ Hintergrund: Pfad 2 / Video 1 — "Wie lernt ein KI-Modell?"Die europäische Verordnung zum Schutz personenbezogener Daten. Für den KI-Einsatz im Verband besonders relevant: Personenbezogene Daten dürfen nicht ohne Weiteres in KI-Tools eingegeben werden. Business-Versionen mit Datenschutzvertrag und europäischen Servern sind bei sensiblen Daten Pflicht, keine Option.
→ Erklärt in: Pfad 3 / Video 4 — "Grenzen setzen: Datenschutz"Die Umwandlung von Text in eine Liste von Zahlen (einen Vektor), die die Bedeutung des Textes mathematisch kodiert. Ähnliche Texte bekommen ähnliche Zahlen. Embeddings sind die Grundlage für Vektordatenbanken und RAG-Systeme — sie ermöglichen semantische Suche statt reiner Stichwortsuche.
→ Erklärt in: Pfad 4 / Video 1 — "RAG erklärt: KI + eigene Daten"Das Nachtraining eines bereits vortrainierten Sprachmodells auf einem kleineren, spezifischen Datensatz. Das Basismodell verändert sich dauerhaft. Sinnvoll, wenn ein sehr spezifischer Schreibstil oder Fachvokabular tief im Modell verankert werden soll. Für die meisten Verbände: gutes Prompting reicht.
→ Verwandtes Video: Pfad 3 / Video 1 — "Prompting-Grundregeln"Beschreibt, wie viele Beispiele im Prompt mitgegeben werden. Zero-Shot: keine Beispiele — das Modell erledigt die Aufgabe ohne Vorlage. Few-Shot: zwei bis fünf Beispiele — das Modell orientiert sich an Ihrem Stil. Few-Shot-Prompting verbessert die Ausgabequalität erheblich bei spezifischen Anforderungen.
→ Erklärt in: Pfad 3 / Video 1 — "Prompting-Grundregeln"KI-Modelle haben kein dauerhaftes Gedächtnis. Jedes neue Gespräch startet bei null — das Modell erinnert sich nicht an die letzte Sitzung. Innerhalb eines Gesprächs ist das Kontextfenster das "Kurzzeitgedächtnis": Alles, was darin steht, kann das Modell berücksichtigen. Was herausfällt, ist vergessen.
→ Erklärt in: Pfad 2 / Video 4 — "Tokens, Kontext, Gedächtnis"KI-Systeme, die neue Inhalte erzeugen — Texte, Bilder, Audio, Video oder Code. Im Unterschied zu klassischer KI, die nur klassifiziert oder vorhersagt, produziert generative KI originäre Ausgaben. ChatGPT, Midjourney und DALL-E sind bekannte Beispiele.
→ Erklärt in: Pfad 1 / Video 1 — "KI erklärt in 2 Minuten"Milliarden von Zahlenwerten, die die gelernten Verbindungen eines KI-Modells speichern. Beim Training werden diese Gewichte minimal angepasst, bis das Modell gute Vorhersagen trifft. Die Gewichte sind das "Wissen" des Modells — eine mathematische Zusammenfassung aller Trainingsdaten.
→ Erklärt in: Pfad 2 / Video 1 — "Wie lernt ein KI-Modell?"Eine Modellfamilie von OpenAI, die auf der Transformer-Architektur basiert. GPT-3 (2020) zeigte erstmals beeindruckende Sprachfähigkeiten. GPT-4 (2023) trieb die Verbreitung weiter. "Pre-trained" bedeutet: auf riesigen Textmengen vortrainiert, bevor es für Endnutzer freigegeben wird.
→ Erklärt in: Pfad 1 / Video 3 — "ChatGPT, Claude, Gemini"Wenn ein Sprachmodell selbstsicher falsche oder erfundene Informationen ausgibt — zum Beispiel nicht existierende Quellen, falsche Statistiken oder fiktive Gerichtsurteile. Keine Absicht: KI wählt das wahrscheinlichste Wort, nicht das wahre. Regel: Fakten immer prüfen.
→ Erklärt in: Pfad 2 / Video 3 — "Halluzinationen — warum KI lügt"Der Oberbegriff für Computersysteme, die Aufgaben ausführen, für die bisher menschliche Intelligenz nötig war — Sprachverstehen, Mustererkennung, Entscheidungen treffen. KI "denkt" nicht wie ein Mensch — sie erkennt statistische Muster in riesigen Datenmengen und nutzt diese für Vorhersagen.
→ Erklärt in: Pfad 1 / Video 1 — "KI erklärt in 2 Minuten"Beschreibt, wie selbstsicher ein Sprachmodell eine Antwort formuliert — unabhängig davon, ob sie stimmt. KI hat keinen internen Wahrheitscheck: Eine falsche Aussage kann genauso flüssig und überzeugend klingen wie eine richtige. Deshalb gilt: Fakten immer unabhängig prüfen, egal wie sicher die Antwort klingt.
→ Erklärt in: Pfad 2 / Video 3 — "Halluzinationen — warum KI lügt"Ein Sprachmodell mit Milliarden von Parametern, trainiert auf riesigen Textmengen. "Large" bezieht sich auf die Modellgröße und die Datenmenge. ChatGPT, Claude und Gemini sind LLMs. Sie können Texte generieren, zusammenfassen, übersetzen und beantworten — ohne für jede Aufgabe neu trainiert zu werden.
→ Erklärt in: Pfad 1 / Video 2 — "Was ist ein Sprachmodell?"Ein Teilgebiet der KI, bei dem Systeme aus Daten lernen, anstatt explizit programmiert zu werden. Das System erkennt Muster in Trainingsdaten und verbessert sich durch Fehlerkorrektur. Deep Learning und Sprachmodelle sind Formen des maschinellen Lernens.
→ Erklärt in: Pfad 2 / Video 1 — "Wie lernt ein KI-Modell?"Im KI-Kontext: die komprimierte Darstellung von erlerntem Wissen, gespeichert als Millionen oder Milliarden von Zahlenwerten (Gewichte). Wie eine Landkarte ist ein Modell eine vereinfachte Abbildung der Wirklichkeit — hilfreich, aber keine vollständige Kopie.
→ Erklärt in: Pfad 1 / Video 2 — "Was ist ein Sprachmodell?"Modelle, die mehrere Eingabetypen verarbeiten können — Text, Bilder, Audio oder Video. GPT-4o, Gemini und Claude sind multimodal: Sie können Bilder analysieren, beschreiben und im Kontext von Text verstehen. Praktisch: Screenshots, Diagramme oder Fotos direkt einreichen.
→ Erklärt in: Pfad 4 / Video 2 — "Multimodale KI: Mehr als nur Text"Sprachmodelle, deren Gewichte öffentlich verfügbar sind und lokal betrieben werden können. Bekannte Beispiele: Llama (Meta), Mistral (Frankreich), Phi (Microsoft). Vorteil: Daten verlassen nicht das eigene System. Nachteil: Infrastruktur und Wartung erfordern technisches Know-how.
→ Verwandtes Video: Pfad 1 / Video 3 — "ChatGPT, Claude, Gemini — was ist der Unterschied?"Die Zahlenwerte (Gewichte) im neuronalen Netz, die beim Training angepasst werden und das erlernte Wissen kodieren. Ein "7B"-Modell hat 7 Milliarden Parameter. GPT-4 hat geschätzte Billionen. Mehr Parameter bedeuten oft mehr Fähigkeiten — aber auch höhere Rechenanforderungen.
→ Hintergrund: Pfad 1 / Video 2 — "Was ist ein Sprachmodell?"Die Texteingabe, die Sie einem KI-Modell geben — eine Frage, ein Auftrag, ein Kontext oder eine Kombination davon. Die Qualität des Prompts bestimmt maßgeblich die Qualität der Antwort. "Garbage in, garbage out" — aber auch: ein präzises Briefing liefert präzise Ergebnisse.
→ Erklärt in: Pfad 2 / Video 2 — "Was ist ein Prompt?"Die gezielte Gestaltung von Prompts, um konsistent hochwertige Ergebnisse aus Sprachmodellen zu erzielen. Techniken: Rolle zuweisen, Kontext geben, Beispiele liefern (Few-Shot), Format vorgeben, schrittweise denken lassen (Chain of Thought). Eine der wertvollsten praktischen Fähigkeiten im KI-Umgang.
→ Erklärt in: Pfad 3 / Video 1 — "Prompting-Grundregeln"Eine einfache Formel für gute Prompts: Rolle (Wer soll die KI sein?), Kontext (Was ist die Ausgangslage?), Aufgabe (Was soll sie tun?), Format (Wie soll das Ergebnis aussehen?). Vier Elemente, die aus einer vagen Anfrage ein präzises Briefing machen — und konsistent bessere Ergebnisse liefern.
→ Erklärt in: Pfad 2 / Video 2 — "Was ist ein Prompt?"Eine Architektur, die ein Sprachmodell mit einer eigenen Wissensdatenbank kombiniert. Bei einer Anfrage werden die relevantesten Dokumentenabschnitte gesucht und zusammen mit der Frage an das Modell übergeben. Ergebnis: Antworten auf Basis eigener Dokumente — ohne Feintuning und mit Quellenangabe.
→ Erklärt in: Pfad 4 / Video 1 — "RAG erklärt: KI + eigene Daten"Ein KI-System, das auf riesigen Textmengen trainiert wurde, um das nächste Wort in einer Sequenz vorherzusagen. Durch dieses einfache Ziel lernt es erstaunlich viel über Sprache, Fakten, Logik und Kontext. Großes Sprachmodell (LLM) = Sprachmodell mit sehr vielen Parametern.
→ Erklärt in: Pfad 1 / Video 2 — "Was ist ein Sprachmodell?"Eine Hintergrundanweisung, die vor dem eigentlichen Gespräch an das Modell übergeben wird und dessen Verhalten dauerhaft für die Session festlegt. Beim Aufbau eigener KI-Anwendungen: hier werden Rolle, Ton, Einschränkungen und Kontext definiert. In ChatGPT: "Custom Instructions".
→ Hintergrund: Pfad 3 / Video 5 — "Eigene Workflows bauen"Ein Parameter, der steuert, wie "kreativ" oder vorhersehbar die Ausgabe eines Modells ist. Wert 0: deterministisch und präzise — immer dieselbe Antwort. Wert 1+: variabler und kreativer — aber auch fehleranfälliger. Für präzise Faktenarbeit: niedrig. Für Kreativtexte: höher.
→ Hintergrund: Pfad 4 / Video 3 — "KI-APIs: Was steckt dahinter?"Die kleinste Verarbeitungseinheit eines Sprachmodells — keine Wörter, sondern Wortfragmente. "Mitgliederversammlung" = etwa 4 Tokens. "KI" = 1 Token. Kontextfenster und API-Kosten werden in Tokens gemessen. Daumenregel: 1.000 Tokens ≈ 750 deutsche Wörter.
→ Erklärt in: Pfad 2 / Video 4 — "Tokens, Kontext, Gedächtnis"Der Prozess, bei dem ein Modell aus Daten lernt, und die Datenmenge, die dabei verwendet wird. KI-Modelle werden auf Billionen von Textzeichen trainiert — Wikipedia, Bücher, Webseiten, Code. Das Training verändert die Gewichte des Modells und findet auf spezialisierter Hardware statt.
→ Erklärt in: Pfad 2 / Video 1 — "Wie lernt ein KI-Modell?"Das Datum, bis zu dem ein Modell Daten für sein Training genutzt hat. Ereignisse nach diesem Datum sind dem Modell unbekannt. Wichtig für Verbände: Gesetzesänderungen, Wahlergebnisse oder neue Förderprogramme nach dem Cutoff müssen manuell eingegeben oder mit aktuellen Tools ergänzt werden.
→ Erklärt in: Pfad 2 / Video 5 — "Welche Daten stecken drin?"Die automatische Umwandlung von gesprochener Sprache in geschriebenen Text. Tools wie Zoom, Teams oder spezialisierte Dienste erstellen Transkripte von Meetings und Gesprächen. Diese Rohtranskripte lassen sich per KI-Prompt in strukturierte Protokolle, Zusammenfassungen oder Aufgabenlisten umwandeln.
→ Erklärt in: Pfad 3 / Video 2 — "KI für Texte & Protokolle"Eine neuronale Netzarchitektur, die 2017 von Google vorgestellt wurde ("Attention Is All You Need"). Der Durchbruch: ein Attention-Mechanismus, der Beziehungen zwischen allen Wörtern eines Textes gleichzeitig berechnet. Fast alle modernen Sprachmodelle basieren auf dieser Architektur.
→ Hintergrund: Pfad 1 / Video 4 — "Warum redet gerade alle Welt darüber?"Eine spezialisierte Datenbank, die Embeddings (Vektoren) speichert und effizient nach ähnlichen Einträgen suchen kann. Grundlage für RAG-Systeme: Wenn eine Frage gestellt wird, sucht die Datenbank die semantisch ähnlichsten Dokumentabschnitte. Bekannte Systeme: Pinecone, Chroma, Weaviate.
→ Hintergrund: Pfad 4 / Video 1 — "RAG erklärt: KI + eigene Daten"Ein strukturierter, wiederholbarer Ablauf bei dem KI-Tools für eine wiederkehrende Aufgabe eingesetzt werden. Beispiel: Transkript empfangen → Protokoll-Prompt anwenden → Ergebnis prüfen → versenden. Gute Workflows erhöhen Konsistenz und sparen Zeit — besonders bei monatlich wiederkehrenden Aufgaben.
→ Erklärt in: Pfad 3 / Video 5 — "Eigene Workflows bauen"