DocumentationDémarrerPlateforme IkigeniaLearning HubArcaniaGuidesUtilisation de LlamaCPP

Utilisation de LLaMA.cpp

Apprenez à configurer et utiliser LLaMA.cpp comme backend IA local pour Arcania

Vous pouvez consulter la documentation complète de llama.cpp ici.

Étapes d'Installation

  1. Clonez le dépôt :

    git clone https://github.com/ggerganov/llama.cpp
    cd llama.cpp
  2. Téléchargez le modèle : Par exemple, nous utiliserons le modèle OpenChat 3.5, qui est celui utilisé sur l'instance de démonstration. Il existe de nombreux modèles au choix.

    Rendez-vous sur TheBloke/openchat_3.5-GGUF et téléchargez l'un des modèles, comme openchat_3.5.Q5_K_M.gguf. Placez ce fichier dans le répertoire ./models.

  3. Compilez le serveur :

    make llama-server
  4. Lancez le serveur : Consultez la documentation llama.cpp pour plus d'informations sur les options du serveur. Ou exécutez ./server --help.

    ./llama-server -t 4 -c 4096 -ngl 35 -b 512 --mlock -m models/openchat_3.5.Q5_K_M.gguf

Configuration

Activez le serveur dans le client :

paramètres -> ChatBot -> ChatBot Backend -> LLaMA.cpp