🚨 Ny artikkel
Å trene en LLM til å snakke lavressursspråk
(EACL-workshop, 2026)
Tulu snakkes av 2M+ personer i kysten av Karnataka, og LLM-er kan i praksis ikke snakke det. Vi nådde 85 % grammatikknøyaktighet uten å finjustere noe eller samle et eneste nytt treningseksempel.
🔥 Ny forskning: Kan kodeagenter faktisk optimalisere GPU-inferenskode?
Vi bygde ISO-Bench: 54 reelle optimaliseringsoppgaver fra @vllm_project & @sgl_project og fant ut at agenter ofte forstår problemet, men ikke kan utføre løsningen.
🚨 Sjokkerende: Kvaliteten på responsen du får fra LLM-en avhenger av språket du bruker!
Vår nye artikkel avslører hvordan LLM-er sammenfletter språk med kultur, noe som fører til kulturelt forskjellige svar kun basert på språket i søket 👇
Tatt opp ved LM4UC, AAAI!