Utilisation d'Ollama
Apprenez à configurer et utiliser Ollama comme backend IA local pour Arcania
Vous pouvez consulter la documentation complète d'Ollama ici.
Étapes d'Installation
Linux et WSL2
Mac OSX
Windows
Pas encore pris en charge
Processus de Configuration
-
Démarrez le serveur :
-
Téléchargez un modèle : Par exemple, nous utiliserons Mistral 7B. Il existe de nombreux modèles disponibles dans la bibliothèque.
-
Activez le serveur dans le client :