DocumentationDémarrerPlateforme IkigeniaLearning HubArcaniaGuidesUtilisation de LM Studio

Utilisation de LM Studio

Apprenez à configurer et utiliser LM Studio comme backend IA local pour Arcania

Vous pouvez consulter la documentation complète de LM Studio ici.

Étapes d'Installation

  1. Installez LM Studio Rendez-vous sur le site de LM Studio et suivez les instructions pour installer l'interface graphique.

  2. Téléchargez un modèle Depuis l'interface, téléchargez un modèle depuis la bibliothèque LM Studio. Si vous ne savez pas lequel choisir, essayez TheBloke/openchat_3.5.gguf version openchat_3.5.Q5.K_M.gguf.

  3. Démarrez le serveur Dans la partie gauche de l'interface, cliquez sur le bouton "Local Server". Puis, dans le menu déroulant en haut de l'écran, sélectionnez le modèle que vous avez téléchargé.

    Ensuite, dans le panneau des Options du Serveur, assurez-vous que Cross-Origin-Resource-Sharing (CORS) est activé.

    Enfin, cliquez sur "Start Server".

Configuration

  1. Sélectionnez ChatGPT comme backend :

    paramètres -> ChatBot -> ChatBot Backend -> ChatGPT
  2. Configurez les paramètres ChatGPT :

    paramètres -> ChatBot -> ChatGPT

    Définissez OpenAI URL sur http://localhost:8080 et OpenAI Key sur default. Si vous avez modifié le port dans l'interface de LM Studio, utilisez ce port à la place de 8080.