SauerkrautLM bekommt Zuwachs – Das neue Llama-3.1-70b-Instruct
Wir haben das llama-3.1-70b-instruct trainiert und noch mehr Leistung herausgeholt. Das SauerkrautLM Fine-Tune setzt neue Standards in Sachen Multilingualität und erreicht Höchstwerte im MMLU Benchmark über diverse europäische und arabische Sprachen.
Die Leistung bei logischen Begründungen des Modells wurde um 6% gesteigert. Die Faktengenauigkeit wurde um 14% gesteigert. Und die Problemlösungskompetenz des Modells wurde um knapp 15% verbessert. Damit setzt das Modell einen neuen Meilenstein für deutsche Fine-Tunings
Auch hinsichtlich des Trainingsverfahren setzt das Modell neue Standards. Es wurde mit unserem Spectrum Ansatz auf nur 15% der Modell-Layer trainiert. Dadurch ist es extrem kosten-effizient trainiert worden und demonstriert welche Leistungssteigerungen mit ressourcen-effizienten Trainingsmethoden möglich sind
ZURÜCK