Ein generativer Klassifikator in der Sprachverarbeitung ist ein Modell, das die Wahrscheinlichkeitsverteilung der Daten modelliert, um Klassifikationsaufgaben zu lösen. Im Gegensatz zu diskriminativen Klassifikatoren, die direkt die Entscheidungsgrenze zwischen Klassen lernen, modellieren generative Klassifikatoren die gemeinsame Verteilung der Eingabedaten und der Klassenbezeichnungen. Ein bekanntes Beispiel für einen generativen Klassifikator ist das Naive Bayes-Modell. Dieses Modell berechnet die Wahrscheinlichkeit einer Klasse gegeben die Eingabedaten, indem es die bedingte Wahrscheinlichkeit der Eingabedaten gegeben die Klasse und die apriorische Wahrscheinlichkeit der Klasse verwendet. Mathematisch ausgedrückt: \[ P(C|X) = \frac{P(X|C) \cdot P(C)}{P(X)} \] Hierbei ist \( P(C|X) \) die Wahrscheinlichkeit der Klasse \( C \) gegeben die Eingabedaten \( X \), \( P(X|C) \) die Wahrscheinlichkeit der Eingabedaten \( X \) gegeben die Klasse \( C \), \( P(C) \) die apriorische Wahrscheinlichkeit der Klasse \( C \), und \( P(X) \) die Gesamtwahrscheinlichkeit der Eingabedaten \( X \). Generative Klassifikatoren sind besonders nützlich, wenn es darum geht, die zugrunde liegende Struktur der Daten zu verstehen oder wenn man mit unvollständigen Daten arbeitet. Sie können auch verwendet werden, um neue Datenpunkte zu generieren, die der gleichen Verteilung wie die Trainingsdaten folgen.