Utilisation de LM Studio
Apprenez à configurer et utiliser LM Studio comme backend IA local pour Arcania
Vous pouvez consulter la documentation complète de LM Studio ici.
Étapes d'Installation
-
Installez LM Studio Rendez-vous sur le site de LM Studio et suivez les instructions pour installer l'interface graphique.
-
Téléchargez un modèle Depuis l'interface, téléchargez un modèle depuis la bibliothèque LM Studio. Si vous ne savez pas lequel choisir, essayez
TheBloke/openchat_3.5.gguf
versionopenchat_3.5.Q5.K_M.gguf
. -
Démarrez le serveur Dans la partie gauche de l'interface, cliquez sur le bouton "Local Server". Puis, dans le menu déroulant en haut de l'écran, sélectionnez le modèle que vous avez téléchargé.
Ensuite, dans le panneau des Options du Serveur, assurez-vous que Cross-Origin-Resource-Sharing (CORS) est activé.
Enfin, cliquez sur "Start Server".
Configuration
-
Sélectionnez ChatGPT comme backend :
-
Configurez les paramètres ChatGPT :
Définissez
OpenAI URL
surhttp://localhost:8080
etOpenAI Key
surdefault
. Si vous avez modifié le port dans l'interface de LM Studio, utilisez ce port à la place de8080
.