1375 shaares
Un wrapper pour utiliser les LLMs open source (LlaMa, Mistral, etc)
La CLI reprend l'interface de Docker avec des ollama pull llama2 ou ollama run llama2.
ça tourne dans le CPU et demande pas mal de RAM (32Go pour les modèles en version 13B)