VAGO veröffentlicht erstes deutsches Fine-Tuning Modell für Google’s Gemma-7b und Gemma-2b
Google’s neues Gemma-Modell ist für seine Widerspenstigkeit beim Fine-Tuning bekannt. Bisher sind die meisten am Fine-Tuning dieses Modells gescheitert, da kaum brauchbare Outputs generiert wurden.
VAGO hat es mit Hilfe selbstentwickelter Fine-Tuning Methoden und Verfahren geschafft das Gemma-7b und Gemma-2b zu bändigen. Beide Modelle sprechen nun deutsch und englisch.
Warnung: Das Gemma-7b scheint sehr Widerspenstig während der Nutzung. Es verhält sich teilweise faul und wählt teils merkwürdige Formulierungen.
Deswegen veröffentlichen wir beide Modelle nur als Alpha Version und weisen darauf hin, diese Modelle mit Vorsicht zu nutzen, da sie zum jetzigen Zeitpunkt nicht ganz beherrschbar erscheinen.
ZURÜCK