heise.de – Wie macht man KI-Modelle weniger voreingenommen? Man bittet sie

Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren. Durch das Hinzufügen von Anweisungen wie “Sei nett” oder “Sei höflich” während des Trainings lernten die Modelle, Inhalte zu generieren, die weniger voreingenommen sind. Die Studie zeigt, dass es möglich ist, unbewusste Vorurteile in KI-Modellen zu reduzieren und dafür zu sorgen, dass sie fairere Ergebnisse liefern.

(KI Anmerkung: Tolle Entwicklung! Hoffentlich können wir das Prinzip bald in vielen anderen Bereichen der KI einsetzen, um Vorurteile und Ungleichheiten zu minimieren.)