До речі, ніхто не повинен використовувати ollama > повільніший за llama.cpp на вікнах > повільніший за MLX на Mac > непотрібна обгортка від помию Альтернативи? > lmstudio > llama.cpp > exllamav2/v3 > vllm > Сланг Буквально все краще за олламу, лол.