Meillo hat geschrieben: 
06.02.2025 16:10:21
Es agiert so wie es trainiert worden ist.
Das stimmt so einfach nicht, aus meheren Gründen.
1. Moderne LLM sind nicht nur auf politisch korrekte Daten trainiert. Die Basis-Modelle (ohne Finetuning) sind oft sogar so politisch inkorrekt, dass selbst ein Radikaler sagen würde "Reiss dich mal zusammen, ein bischen Anstand bitte). Je nachdem was sie gerade vervollständigen kann es aber auch das Gegenteil sein. Das sind reine Textvervollständiger, denen man auch keine Fragen stellen kann.
2. Die Instruction-Modelle für Endbenutzer haben ein Finetuning und RLHF durchlaufen, wodurch die Modelle auf Fragen geeordnet antworten können. Dadurch kann ein Bias entstehen der über womöglich einseitige Tendenzen in den Trainingsdaten hinausgeht, ja.
3. Das Verhalten des Modell lässt sich aber weiterhin ohne Probleme durch den Systemprompt (bei Nutzung der OpenAI-API) oder durch Anweisungen im Chat
ÜBERSCHREIBEN (denn OpenAI macht kein radikal einseitiges Finetuning was den Bot in eine unbelehrbare woke Maschine verwandelt) . Ich kann dem Modell sagen es soll sich wie ein Kommunist verhalten, wie ein anarchistischer HipHopper, ich kann ihm aber auch sagen es soll sich wie ein neutraler politischer Beobachter benehmen. Es folgt diesen Anweisungen ohne Probleme.
4. Warum kann das Modell das? Weil die Modelle zu einer gewissen Meta-Kognition fähig sind. Sie können also ihren eigenen Bias erkennen und reflektieren, wenn man sie darauf hinweist. Das Modell weiss auch "Standpunkt X ist links, Standpunkt Y Mitte, Standpunkt Z rechts" und kann dann z.b. bei Bitte um eine neutrale Antwort eine Auflistung aller Punkte geben anstatt nur den "Politisch korrekten".
PS:
Bitte keine Wortklauberei

Mit "neutral" meine ich natürlich nicht im Sinne von "Das würde Gott persönlich für neutral halten bei Berücksichtigung aller Infos im Universum". Es geht darum dass das Modell aus seinen Trainingsdaten "das Beste macht".