DocumentationDémarrerPlateforme IkigeniaLearning HubArcaniaGuidesUtilisation d'Ollama

Utilisation d'Ollama

Apprenez à configurer et utiliser Ollama comme backend IA local pour Arcania

Vous pouvez consulter la documentation complète d'Ollama ici.

Étapes d'Installation

Linux et WSL2

curl https://ollama.ai/install.sh | sh

Mac OSX

Télécharger

Windows

Pas encore pris en charge

Processus de Configuration

  1. Démarrez le serveur :

    ollama serve
  2. Téléchargez un modèle : Par exemple, nous utiliserons Mistral 7B. Il existe de nombreux modèles disponibles dans la bibliothèque.

    ollama run mistral
  3. Activez le serveur dans le client :

    paramètres -> ChatBot -> ChatBot Backend -> Ollama