Bara en mild påminnelse om att ingen borde använda ollama > långsammare än llama.cpp på Windows > långsammare än MLX på Mac > sladd, värdelös förpackning > bokstavliga kodtjuvar Alternativ? > LMSTUDIO > llama.cpp > exllamav2/v3 > vllm > sglang > trt-llm Bokstavligen vad som helst är bättre än ollama