1306 shaares
1 result
tagged
ai-ops
Un wrapper pour utiliser les LLMs open source (LlaMa, Mistral, etc)
La CLI reprend l'interface de Docker avec des ollama pull llama2
ou ollama run llama2
.
ça tourne dans le CPU et demande pas mal de RAM (32Go pour les modèles en version 13B)