Ingen borde använda ollama förresten > långsammare än llama.cpp på Windows > långsammare än MLX på Mac > sladd, värdelös förpackning Alternativ? > LMSTUDIO > llama.cpp > exllamav2/v3 > vllm > sglang Som bokstavligen vad som helst är bättre än Ollama haha