Utilisation de LLaMA.cpp
Apprenez à configurer et utiliser LLaMA.cpp comme backend IA local pour Arcania
Vous pouvez consulter la documentation complète de llama.cpp ici.
Étapes d'Installation
-
Clonez le dépôt :
-
Téléchargez le modèle : Par exemple, nous utiliserons le modèle OpenChat 3.5, qui est celui utilisé sur l'instance de démonstration. Il existe de nombreux modèles au choix.
Rendez-vous sur TheBloke/openchat_3.5-GGUF et téléchargez l'un des modèles, comme
openchat_3.5.Q5_K_M.gguf
. Placez ce fichier dans le répertoire./models
. -
Compilez le serveur :
-
Lancez le serveur : Consultez la documentation llama.cpp pour plus d'informations sur les options du serveur. Ou exécutez
./server --help
.
Configuration
Activez le serveur dans le client :