Fine-tunede Qwen3-modeller slår GPT-5, Claude og Gemini på smale oppgaver
Fine-tunede Qwen3-modeller på 0,6 til 8 milliarder parametre slår GPT-5, Claude og Gemini på smale oppgaver som klassifisering og spørsmål-svar — med bare 50 treningseksempler og kun open-weight lærere. Ny systematisk benchmarkstudie viser at fine-tuning matter mer enn valg av grunnmodell.