Utilisation de LLaVA avec LLaMA.cpp
Apprenez à configurer et utiliser LLaVA/BakLLaVA avec LLaMA.cpp pour les capacités de vision
LLaVA / BakLLaVA peut être utilisé avec LLaMA.cpp.
Vous pouvez consulter la documentation complète de llama.cpp ici.
Étapes d'Installation
-
Clonez le dépôt :
-
Téléchargez le modèle : Par exemple, nous utiliserons le modèle BakLLaVA-1, qui est celui utilisé sur l'instance de démonstration.
Rendez-vous sur mys/ggml_bakllava-1 et téléchargez soit la version
q4
soitq5
, ainsi que le fichiermmproj-model-f16.gguf
.Le fichier
mmproj-model-f16.gguf
est nécessaire pour le modèle de vision. -
Compilez le serveur :
-
Lancez le serveur : Consultez la documentation llama.cpp pour plus d'informations sur les options du serveur. Ou exécutez
./server --help
.
Configuration
Activez le serveur dans le client :