Utilisation d'Ollama
Apprenez à configurer et utiliser Ollama comme backend IA local pour Arcania
Vous pouvez consulter la documentation complète d'Ollama ici.
Étapes d'Installation
Linux et WSL2
curl https://ollama.ai/install.sh | sh
Mac OSX
Windows
Pas encore pris en charge
Processus de Configuration
-
Démarrez le serveur :
ollama serve
-
Téléchargez un modèle : Par exemple, nous utiliserons Mistral 7B. Il existe de nombreux modèles disponibles dans la bibliothèque.
ollama run mistral
-
Activez le serveur dans le client :
paramètres -> ChatBot -> ChatBot Backend -> Ollama