仅本页所有页面
由 GitBook 提供支持
1 / 86

Français

Cherry Studio

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Tutoriels de base

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Tutoriels des bases de connaissances

Loading...

Loading...

Loading...

Loading...

Tutoriels avancés

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Contribution au projet

Loading...

Loading...

Questions et retours

Loading...

Loading...

Loading...

Loading...

Contact

Loading...

Loading...

À propos

Loading...

Autres contenus

Loading...

Loading...

Présentation du projet

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Suivez-nous sur les réseaux sociaux : Twitter (X), Xiaohongshu, Weibo, Bilibili, Douyin

Rejoignez notre communauté : Groupe QQ (575014769), Telegram, Discord, Groupe WeChat (cliquez pour voir)


Cherry Studio est une plateforme tout-en-un d'assistant IA intégrant des fonctionnalités comme les conversations multi-modèles, la gestion de base de connaissances, la création artistique IA, la traduction, etc. Son design hautement personnalisable, ses puissantes capacités d'extension et son interface conviviale en font une solution idéale pour les utilisateurs professionnels et passionnés d'IA. Qu'ils soient débutants ou développeurs, tous trouveront dans Cherry Studio des fonctions IA adaptées pour améliorer leur productivité et créativité.


Fonctionnalités principales et caractéristiques

1. Fonctions de conversation basiques

  • Réponses multiples : Permet de générer simultanément des réponses à une même question via plusieurs modèles, facilitant la comparaison des performances. Voir Interface de conversation.

  • Regroupement automatique : L'historique des conversations est automatiquement organisé par assistant pour un accès rapide.

  • Exportation des conversations : Permet d'exporter des conversations complètes ou partielles vers Markdown, Word, etc.

  • Paramètres personnalisables : Au-delà des paramètres basiques, possibilité de définir des paramètres personnalisés.

  • Marché d'assistants : Propose des milliers d'assistants spécialisés par secteur (traduction, programmation, rédaction), avec création personnalisée.

  • Rendu multi-formats : Prise en charge du rendu Markdown, des formules mathématiques et de la prévisualisation HTML.

2. Intégration de fonctions spécifiques

  • Création artistique IA : Panneau dédié pour générer des images via descriptions textuelles.

  • Micro-applications IA : Outils IA web gratuits intégrés sans changer de navigateur.

  • Traduction : Prise en charge de la traduction contextuelle, de dialogue et de prompts.

  • Gestion des fichiers : Fichiers organisés par catégories (conversations, créations artistiques, bases de connaissances).

  • Recherche globale : Recherche rapide dans l'historique et les bases de connaissances.

3. Gestion unifiée multi-fournisseurs

  • Agrégation de modèles : Prise en charge des modèles d'OpenAI, Gemini, Anthropic, Azure, etc.

  • Récupération automatique : Liste complète des modèles disponible en un clic.

  • Rotation des clés API : Utilisation cyclique de multiples clés pour éviter les limitations.

  • Avatars adaptés : Attribution automatique d'avatars spécifiques à chaque modèle.

  • Fournisseurs personnalisés : Compatibilité avec des services tiers respectant les normes OpenAI/Gemini/Anthropic.

4. Interface et disposition personnalisables

  • CSS personnalisé : Personnalisation globale du style visuel.

  • Disposition de conversations : Mode liste ou bulles, avec styles de messages personnalisés.

  • Avatars personnalisés : Pour l'application et les assistants.

  • Barre latérale modifiable : Masquage ou réorganisation des fonctionnalités selon les besoins.

5. Système de base de connaissances locale

  • Formats multiples : Prise en charge de PDF, DOCX, PPTX, XLSX, TXT, MD.

  • Sources variées : Fichiers locaux, URLs, sitemaps ou contenu manuel.

  • Exportation : Partage des bases de connaissances traitées.

  • Vérification intégrée : Test de segmentation après import.

6. Fonctions de focus spécifiques

  • Q&R rapides : Assistants contextuels activables depuis n'importe quelle application.

  • Traduction rapide : Traduction instantanée de mots/textes externes.

  • Synthèse de contenu : Résumé rapide de longs textes.

  • Explications simplifiées : Clarification en un clic sans prompts complexes.

7. Protection des données

  • Sauvegardes multiples : Locales, WebDAV et planifiées.

  • Sécurité des données : Utilisation entièrement locale avec modèles locaux pour éviter les fuites.


Avantages du projet

  1. Accessibilité : Interface adaptée aux débutants pour se concentrer sur le travail ou la création.

  2. Documentation complète : Guides détaillés et FAQ pour résoudre rapidement les problèmes.

  3. Amélioration continue : Mises à jour régulières basées sur les retours utilisateurs.

  4. Ouverture et extensibilité : Code source ouvert pour personnalisations avancées.


Cas d'utilisation

  • Gestion de connaissances : Construction et interrogation de bases dédiées (recherche, éducation).

  • Conversations multi-modèles : Génération rapide d'informations et de contenu.

  • Traduction et automatisation : Fonctions de traduction et traitement documentaire.

  • Création artistique IA : Génération d'images par descriptions textuelles.

Star History

Star History

Suivez-nous sur les réseaux sociaux

Agents

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Agents

La page Agents est une place d'assistants où vous pouvez sélectionner ou rechercher le modèle prédéfini souhaité. En cliquant sur une carte, vous ajouterez l'assistant à la liste des assistants dans la page de conversation.

Vous pouvez également modifier et créer vos propres assistants sur cette page.

  • Cliquez sur Mon espace, puis sur Créer un agent pour commencer à créer votre propre assistant.

Le bouton en haut à droite de la zone de saisie des prompts est un bouton d'optimisation de prompt par IA. Le cliquer remplacera le texte original. Le modèle utilisé est le .

modèle d'assistant par défaut global

Xiaohongshu

Bilibili

Weibo

Douyin

Twitter (X)

Cover
Cover
Cover
Cover
Cover

Guide d'installation

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Guide d'installation

Paramètres généraux

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Paramètres généraux

Sur cette page, vous pouvez configurer la langue de l'interface logicielle, définir un proxy, etc.

Génération d'images

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Peinture

La fonction de peinture prend actuellement en charge les modèles de DMXAPI, TokenFlux, AiHubMix et SiliconFlow. Vous pouvez créer un compte sur SiliconFlow et l'ajouter comme fournisseur de services pour l'utiliser.

Pour toute question sur les paramètres, passez votre souris sur le ? dans la zone correspondante pour voir les explications.

Davantage de fournisseurs de services seront ajoutés ultérieurement. Restez à l'écoute !

OneAPI

Ce document a été traducido del chino por IA y aún no ha sido revisado.

OneAPI

  • Connectez-vous et accédez à la page des jetons

  • Créez un nouveau jeton (vous pouvez aussi utiliser le jeton par défaut ↑)

  • Copiez le jeton

  • Ouvrez les paramètres des fournisseurs de CherryStudio, cliquez sur Ajouter en bas de la liste des fournisseurs

  • Entrez un nom de note, sélectionnez OpenAI comme fournisseur, puis cliquez sur OK

  • Entrez la clé que vous venez de copier

  • Retournez à la page où vous avez obtenu la clé API, copiez l'adresse racine dans la barre d'adresse du navigateur, par exemple :

  • Lorsque l'adresse est IP+port, entrez http://IP:port, par exemple : http://127.0.0.1:3000

  • Distinguer strictement http et https - n'utilisez pas https si SSL n'est pas activé

  • Ajoutez les modèles (cliquez sur Gérer pour obtenir automatiquement ou saisissez manuellement) et activez l'interrupteur en haut à droite pour commencer à utiliser.

L'interface peut varier selon le thème OneAPI, mais la méthode d'ajout reste identique aux étapes ci-dessus.

Configuration et utilisation de MCP

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Configuration et utilisation de MCP

  1. Ouvrez les paramètres de Cherry Studio.

  2. Trouvez l'option Serveur MCP.

  3. Cliquez sur Ajouter un serveur.

  4. Remplissez les paramètres du serveur MCP (). Les éléments à remplir peuvent inclure :

    • Nom : Un nom personnalisé, par exemple fetch-server

    • Type : Sélectionnez STDIO

    • Commande : Saisissez uvx

    • Paramètres : Saisissez mcp-server-fetch

    • (Peut inclure d'autres paramètres selon le serveur spécifique)

  5. Cliquez sur Sauvegarder.

Après avoir effectué cette configuration, Cherry Studio téléchargera automatiquement le serveur MCP requis - fetch server. Une fois le téléchargement terminé, vous pourrez commencer à l'utiliser ! Remarque : Si la configuration de mcp-server-fetch échoue, essayez de redémarrer votre ordinateur.

Activer le service MCP dans la zone de discussion

  • Le serveur MCP a été ajouté avec succès dans les paramètres Serveur MCP

Démonstration de l'effet

Comme le montre l'image ci-dessus, après avoir intégré la fonction fetch de MCP, Cherry Studio peut mieux comprendre l'intention de la requête de l'utilisateur, obtenir des informations pertinentes sur Internet et fournir des réponses plus précises et complètes.

Copiez uniquement https://xxx.xxx.com, sans le contenu après "/"
lien de référence

Partenariats commerciaux

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Collaboration Commerciale

Contact : M. Wang 📮 : [email protected] 📱 : 18954281942 (numéro non destiné au service client)

Pour les questions d'utilisation, rejoignez notre groupe d'échange utilisateurs via le lien en bas de page d'accueil du site officiel, ou contactez-nous par email à [email protected]

Vous pouvez également soumettre des issues sur GitHub : https://github.com/CherryHQ/cherry-studio/issues

Pour un accompagnement personnalisé, rejoignez notre communauté "Knowledge Planet" (星球) : https://wx.zsxq.com/group/48888118185118?group_id=48888118185118&secret=797qkk5sx94p84zr7fxp8h27rn6c35j7&inviter_id=414151881428448&inviter_sid=91n362kab4&share_from=InviteUrl&keyword=sJyfK&type=group

Détails de la licence commerciale : https://docs.cherry-ai.com/contact-us/questions/cherrystudio-xu-ke-xie-yi

Présentation des fonctionnalités

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Aperçu des fonctionnalités

Planification du projet

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Planification du projet

Liste des tâches

Ce document a été traducido del chino por IA y aún no ha sido revisado.

{% hint style="danger" %}
Attention : La génération d'images Gemini nécessite d'utiliser l'interface de conversation, car Gemini est un générateur d'images multimodal interactif qui ne prend pas non plus en charge le réglage des paramètres.
{% endhint %}

Téléchargement du client

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Version stable actuelle : v1.4.8

Téléchargement direct

Version Windows

Remarque : Windows 7 n'est pas compatible avec Cherry Studio.

Version d'installation (Setup)

Version x64

Lignes principales :

【Site officiel de Cherry Studio】 【GitHub】

Lignes secondaires :

【Ligne 1】 【Ligne 2】 【Ligne 3】

Version ARM64

Lignes principales :

【Site officiel de Cherry Studio】 【GitHub】

Lignes secondaires :

【Ligne 1】 【Ligne 2】 【Ligne 3】

Version portable (Portable)

Version x64

Lignes principales :

【Site officiel de Cherry Studio】 【GitHub】

Lignes secondaires :

【Ligne 1】 【Ligne 2】 【Ligne 3】

Version ARM64

Lignes principales :

【Site officiel de Cherry Studio】 【GitHub】

Lignes secondaires :

【Ligne 1】 【Ligne 2】 【Ligne 3】


Version macOS

Version pour puces Intel (x64)

Lignes principales :

【Site officiel de Cherry Studio】 【GitHub】

Lignes secondaires :

【Ligne 1】 【Ligne 2】 【Ligne 3】

Version pour Apple Silicon (ARM64, puces de la série M)

Lignes principales :

【Site officiel de Cherry Studio】 【GitHub】

Lignes secondaires :

【Ligne 1】 【Ligne 2】 【Ligne 3】


Version Linux

Version x86_64

Lignes principales :

【Site officiel de Cherry Studio】 【GitHub】

Lignes secondaires :

【Ligne 1】 【Ligne 2】 【Ligne 3】

Version ARM64

Lignes principales :

【Site officiel de Cherry Studio】 【GitHub】

Lignes secondaires :

【Ligne 1】 【Ligne 2】 【Ligne 3】


Téléchargement via un service de stockage en cloud

Quark

OneAPI et projets connexes

Ce document a été traducido del chino por IA y aún no ha sido revisado.

OneAPI et ses projets affiliés

Personnalisation

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Paramètres personnalisés

Interface de conversation

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Interface de Conversation

Assistant et Sujets

Assistant

L'assistant permet de personnaliser le modèle sélectionné via des paramètres tels que des prompts prédéfinis et des réglages de paramètres, afin de mieux répondre à vos attentes opérationnelles.

L'assistant système par défaut préconfigure des paramètres génériques (sans prompt). Vous pouvez l'utiliser directement ou trouver des préréglages adaptés dans la page des agents.

Sujets

L'assistant est l'ensemble parent des sujets. Un assistant peut contenir plusieurs sujets (conversations). Tous les sujets partagent les paramètres et prompts de l'assistant.

Boutons de la boîte de dialogue

Nouveau sujet Crée un nouveau sujet sous l'assistant actuel.

Télécharger une image ou un document Nécessite un modèle prenant en charge les images. Les documents sont automatiquement convertis en texte comme contexte pour le modèle.

Recherche Web Requiert une configuration dans les paramètres. Les résultats sont fournis au modèle comme contexte. Voir Mode en ligne.

Base de connaissances Active la base de connaissances. Voir Tutoriel sur les bases de connaissances.

Serveur MCP Active la fonctionnalité du serveur MCP. Voir Tutoriel MCP.

Générer une image Non affiché par défaut. Pour les modèles prenant en charge la génération d'images (ex: Gemini), cliquez manuellement pour activer.

Pour des raisons techniques, vous devez activer manuellement ce bouton pour générer des images. Il sera retiré après optimisation.

Choisir un modèle Bascule vers un modèle spécifié pour la suite de la conversation, en conservant le contexte.

Phrases rapides Définissez des phrases fréquentes dans les paramètres pour une insertion rapide, avec prise en charge des variables.

Effacer les messages Supprime tous les contenus du sujet actuel.

Étendre Agrandit la boîte de dialogue pour la saisie de textes longs.

Effacer le contexte Réinitialise le contexte du modèle sans supprimer les contenus visibles.

Estimation des Tokens Affiche : Contexte actuel, Contexte maximal (∞ = illimité), Caractères saisis, et Tokens estimés.

Ceci est une estimation uniquement. Les Tokens réels varient selon les modèles.

Traduire Traduit le contenu de la boîte de saisie en anglais.

Paramètres de conversation

Paramètres du modèle

Synchronisés avec les Paramètres du modèle de l'assistant. Voir Paramètres de l'assistant.

Seuls les paramètres du modèle s'appliquent à l'assistant actuel. Les autres paramètres sont globaux (ex: le style de messages en bulles s'applique à tous les sujets).

Paramètres des messages

Séparateur de messages:

Utilise une ligne pour séparer le contenu des messages des boutons d'action.

Utiliser des polices serif:

Change le style de police. Modifiable via CSS personnalisé.

Afficher les numéros de ligne:

Affiche les numéros de ligne pour les blocs de code générés.

Blocs de code pliables:

Plie automatiquement les blocs de code longs.

Retour à la ligne dans les blocs de code:

Active le retour à la ligne automatique pour les lignes de code longues.

Repli automatique des réflexions:

Replie automatiquement le processus de réflexion des modèles qui le supportent.

Style des messages:

Bascule entre le style "bulles" ou "liste".

Style du code:

Change le style d'affichage des blocs de code.

Moteur de formules mathématiques:

  • KaTeX : Rendu plus rapide, optimisé pour les performances.

  • MathJax : Rendu plus lent mais prend en charge davantage de symboles et commandes.

Taille de police des messages:

Ajuste la taille des polices dans l'interface.

Paramètres de saisie

Afficher l'estimation des Tokens:

Affiche les Tokens estimés pour le texte saisi (indication uniquement).

Coller les longs textes comme fichiers:

Affiche les longs textes collés sous forme de fichiers pour réduire les interférences.

Rendu Markdown des messages saisis:

Désactivé : Ne rend que les réponses du modèle. Activé : Rend aussi les messages envoyés.

Traduction par triple espace:

Traduit le contenu saisi en anglais après trois appuis sur la barre d'espace.

Attention : Cela remplace le texte original.

Langue cible:

Définit la langue pour la traduction du bouton Traduire et du triple espace.

Paramètres de l'assistant

Sélectionnez le nom de l'assistant → Menu contextuel → Paramètres correspondants

Modifier l'assistant

Les paramètres s'appliquent à tous les sujets sous cet assistant.

Paramètres du prompt

Nom:

Nom personnalisable pour identifier facilement l'assistant.

Prompt:

Consultez les modèles dans la page des agents pour rédiger votre prompt.

Paramètres du modèle

Modèle par défaut:

Définit un modèle par défaut pour l'assistant. Sinon, utilise le modèle global (Modèle par défaut).

Priorité : Modèle de l'assistant > Modèle global.

Réinitialisation automatique du modèle:

Activé : Les nouveaux sujets utilisent le modèle par défaut de l'assistant. Désactivé : Ils conservent le modèle du dernier sujet.

Exemple : Modèle par défaut = gpt-3.5-turbo. Pendant une conversation, bascule vers gpt-4o.

  • Activé → Nouveau sujet : gpt-3.5-turbo

  • Désactivé → Nouveau sujet : gpt-4o

Température:

Contrôle la créativité des réponses (défaut: 0.7) :

  • Faible (0-0.3) : Réponses précises. Idéal pour le code ou l'analyse.

  • Moyenne (0.4-0.7) : Équilibre créativité/cohérence. Recommandé pour les discussions.

  • Élevée (0.8-1.0) : Sorties créatives mais moins cohérentes.

Top P (Noyau d'échantillonnage):

Défaut: 1. Valeur basse = réponses prévisibles, haute = diversité lexicale.

Comportement :

  • Faible (0.1-0.3) : Vocabulaire restreint. Bon pour la documentation technique.

  • Moyen (0.4-0.6) : Équilibre diversité/précision.

  • Élevé (0.7-1.0) : Réponses très diverses.

  • Ces paramètres peuvent être combinés

  • Expérimentez pour trouver les réglages optimaux

  • Ces plages sont indicatives. Consultez la documentation des modèles.

Taille du contexte (fenêtre)

Nombre de messages conservés dans le contexte. Plus élevé = plus de Tokens consommés :

  • 5-10 : Conversations standards

  • >10 : Tâches complexes nécessitant une mémoire étendue

  • Important : Plus de messages = plus de Tokens

Activer la limite de longueur (MaxToken)

Limite de Tokens par réponse. Ce paramètre impacte directement la longueur et qualité des réponses.

Exemple : Pour tester la connectivité d'un modèle, MaxToken=1 suffit.

La plupart des modèles supportent 32k Tokens max (certains 64k+). À adapter selon les besoins :

Recommandations :

  • Discussions : 500-800

  • Textes courts : 800-2000

  • Génération de code : 2000-3600

  • Textes longs : 4000+ (si modèle compatible)

Attention : Les réponses peuvent être tronquées si MaxToken est trop bas.

Sortie en flux continu (Stream)

Envoie les réponses au fur et à mesure (effet "machine à écrire"). Désactivé : Réponse complète en une fois.

Désactivez pour les modèles incompatibles (ex: o1-mini).

Paramètres personnalisés

Ajoute des paramètres personnalisés à la requête (ex: presence_penalty). Documentation : Cliquez ici

  • Priorité sur les paramètres intégrés (les doublons sont écrasés)

  • Utilisez nom_paramètre:undefined pour exclure un paramètre

  • Certains fournisseurs ont des paramètres exclusifs

Prétraitement des documents pour la base de connaissances

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Le prétraitement des documents de la base de connaissances nécessite la mise à niveau de Cherry Studio vers la version v1.4.8 ou ultérieure.

Configuration du fournisseur de services OCR

Après avoir cliqué sur "Obtenir la clé API", l'adresse de demande s'ouvrira dans votre navigateur. Cliquez sur "Demander maintenant", remplissez le formulaire pour obtenir votre clé API, puis saisissez-la dans le champ correspondant.

Configuration du prétraitement des documents

Dans la base de connaissances créée, effectuez la configuration ci-dessus pour finaliser la configuration du prétraitement des documents.

Téléversement de documents

Vous pouvez utiliser la recherche en haut à droite pour vérifier les résultats de la base de connaissances

Utilisation dans les conversations

Astuce pour la base de connaissances : Lors de l'utilisation de modèles plus performants, modifiez le mode de recherche de la base de connaissances en "reconnaissance d'intention". Cette méthode permet une description plus précise et complète de votre question.

Activation de la reconnaissance d'intention

Installation de l'environnement MCP

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Installation de l'environnement MCP

MCP (Model Context Protocol) est un protocole open source conçu pour fournir des informations contextuelles aux modèles de langage à grande échelle (LLM) de manière standardisée. Pour plus de détails sur le MCP, consultez

Utilisation de MCP dans Cherry Studio

Voici un exemple avec la fonction fetch pour illustrer l'utilisation de MCP dans Cherry Studio. Les détails complets sont disponibles dans la .

Préparation : installation d'uv et bun

Cherry Studio utilise actuellement exclusivement et intégrés, sans réutiliser les versions déjà installées sur votre système.

Dans Paramètres > Serveur MCP, cliquez sur le bouton Installer pour télécharger et installer automatiquement. Comme le téléchargement s'effectue directement depuis GitHub, il peut être lent et présente un risque élevé d'échec. L'installation réussie est confirmée par la présence de fichiers dans les répertoires mentionnés ci-dessous.

Répertoires d'installation des exécutables :

Windows: C:\Users\<nom_utilisateur>\.cherrystudio\bin

macOS/Linux: ~/.cherrystudio/bin

En cas d'échec d'installation :

Vous pouvez créer des liens symboliques (soft links) vers les commandes correspondantes de votre système dans ce répertoire. Si le répertoire n'existe pas, créez-le manuellement. Vous pouvez également télécharger manuellement les exécutables :

Bun: UV:

Paramètres

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Configuration

Retours et suggestions

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Feedback & Suggestions

Groupe de discussion Telegram

Les membres du groupe de discussion partagent leurs expériences d'utilisation et vous aident à résoudre vos problèmes

Rejoignez le groupe Telegram pour obtenir de l'aide : https://t.me/CherryStudioAI

Groupe QQ

Les membres du groupe QQ s'entraident et partagent des liens de téléchargement

Groupe QQ (1025067911)

Problèmes GitHub

Idéal pour documenter des points que les développeurs pourraient oublier ou pour participer à des discussions

Signaler des problèmes sur GitHub : https://github.com/CherryHQ/cherry-studio/issues/new/choose

Email

Si vous ne trouvez pas d'autre canal de feedback, contactez les développeurs pour obtenir de l'aide

Contacter les développeurs par email : [email protected]

Configuration des raccourcis clavier

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Configuration des raccourcis clavier

Sur cette interface, vous pouvez activer (désactiver) et configurer les raccourcis clavier de certaines fonctionnalités. Suivez les instructions spécifiques affichées sur l'interface pour effectuer les réglages.

Contribuer à la documentation

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Contribuer à la Documentation

Contactez par e-mail [email protected] pour obtenir l'accès éditeur

Sujet : Demande d'accès éditeur à Cherry Studio Docs Corps : Indiquez vos motivations

Configuration des services de modèles

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Configuration du service de modèle

Fichiers

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Documents

L'interface de documents affiche tous les fichiers associés aux conversations, dessins, bases de connaissances, etc. Vous pouvez gérer et consulter ces fichiers de manière centralisée sur cette page.

documentation
uv
bun
https://github.com/oven-sh/bun/releases
https://github.com/astral-sh/uv/releases
Répertoire bin

Google Gemini

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Google Gemini

Obtenir une clé API

  • Avant d'obtenir la clé API Gemini, vous devez disposer d'un projet Google Cloud (si vous en avez déjà un, cette étape peut être ignorée)

  • Accédez à pour créer un projet, saisissez le nom du projet et cliquez sur "Créer un projet"

  • Sur la page officielle des , cliquez sur Clé > Créer une clé API

  • Copiez la clé générée et ouvrez les de CherryStudio

  • Localisez le fournisseur Gemini, entrez la clé que vous venez d'obtenir

  • Cliquez sur "Gérer" ou "Ajouter" en bas, ajoutez les modèles pris en charge et activez le commutateur du fournisseur en haut à droite pour commencer à l'utiliser.

  • En Chine (à l'exception de Taïwan), le service Google Gemini n'est pas directement accessible ; vous devrez résoudre les problèmes de proxy par vos propres moyens.

SiliconCloud

Ce document a été traducido del chino por IA y aún no ha sido revisado.

SiliconFlow

1. Configurer le service de modèles SiliconCloud

1.2 Cliquez sur Paramètres en bas à gauche, sélectionnez【SiliconFlow】dans Services de modèles

1.2 Obtenir la clé API SiliconCloud

  1. Connectez-vous à (l'inscription est automatique lors de la première connexion)

  2. Accédez aux pour créer ou copier une clé existante

1.3 Cliquez sur Gérer pour ajouter des modèles

2. Utilisation du service de modèles

  1. Cliquez sur le bouton "Conversation" dans le menu de gauche

  2. Saisissez du texte dans la zone de saisie pour commencer à discuter

  3. Changez de modèle via le menu déroulant en haut

Configuration des modèles par défaut

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Paramètres des modèles par défaut

Modèle d'assistant par défaut

Lorsqu'aucun modèle d'assistant par défaut n'est défini pour un assistant, le modèle configuré ici sera sélectionné par défaut dans ses nouvelles conversations.

L'optimisation des mots d'incitation (prompts) et l'assistant de sélection de texte utilisent également le modèle défini ici.

Modèle de dénomination des sujets

Après chaque conversation, un modèle est appelé pour générer un nom de sujet à la conversation. Le modèle configuré ici est celui utilisé pour cette dénomination.

Modèle de traduction

Les fonctions de traduction dans les champs de saisie de conversation, de peinture IA, ainsi que le modèle de traduction dans l'interface de traduction utilisent tous le modèle configuré ici.

Modèle d'assistant rapide

Modèle utilisé pour les fonctions d'assistant rapide. Voir détails dans

Configuration interne MCP

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Configuration MCP intégrée

@cherry/mcp-auto-install

Installation automatique du service MCP (version bêta)

@cherry/memory

Implémentation de base de mémoire persistante basée sur un graphe de connaissances local. Cela permet au modèle de mémoriser les informations pertinentes de l'utilisateur entre différentes conversations.

@cherry/sequentialthinking

Implémentation d'un serveur MCP fournissant des outils pour la résolution dynamique et réflexive de problèmes grâce à un processus de pensée structuré.

@cherry/brave-search

Implémentation d'un serveur MCP intégrant l'API de recherche Brave, offrant une double fonctionnalité de recherche web et locale.

@cherry/fetch

Serveur MCP pour récupérer le contenu de pages web via URL.

@cherry/filesystem

Serveur Node.js implémentant le protocole de contexte de modèle (MCP) pour les opérations sur le système de fichiers.

Base de connaissances

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Base de connaissances

Pour l'utilisation de la base de connaissances, consultez le tutoriel avancé : .

Données de la base de connaissances

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Notes sur le stockage des données

Toutes les données ajoutées à la base de connaissances de Cherry Studio sont stockées localement. Lors de l'ajout, une copie du document est placée dans le répertoire de stockage des données de Cherry Studio.

Base de données vectorielle :

Lorsqu'un document est ajouté à la base de connaissances de Cherry Studio, il est découpé en plusieurs segments. Ces segments sont ensuite traités par un modèle d'incorporation.

Lors de l'utilisation d'un grand modèle pour des questions-réponses, les segments de texte pertinents pour la question sont recherchés et transmis ensemble au grand modèle de langage pour traitement.

Si vous avez des exigences concernant la confidentialité des données, il est recommandé d'utiliser une base de données d'incorporation locale et un grand modèle de langage local.

NewAPI

Ce document a été traducido del chino por IA y aún no ha sido revisado.

NewAPI

  • Connectez-vous et ouvrez la page des jetons

  • Cliquez sur "Ajouter un jeton"

  • Entrez le nom du jeton et cliquez sur "Soumettre" (configurez d'autres paramètres si nécessaire)

  • Accédez aux paramètres des fournisseurs de CherryStudio, cliquez sur Ajouter en bas de la liste des fournisseurs

  • Saisissez un nom de référence, sélectionnez "OpenAI" comme fournisseur, puis cliquez sur "Confirmer"

  • Collez la clé copiée précédemment

  • Revenez à la page de l'API Key, copiez l'adresse racine dans la barre d'adresse du navigateur. Exemple :

  • Lorsque l'adresse est au format IP + port, saisissez http://IP:port (ex: http://127.0.0.1:3000)

  • Distinguez strictement http et https : n'utilisez pas https si SSL n'est pas activé

  • Ajoutez les modèles (cliquez sur "Gérer" pour une détection automatique ou saisissez manuellement), puis activez le commutateur en haut à droite pour les utiliser.

FAQ

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Foire Aux Questions (FAQ)

1. mcp-server-time

Solution

Dans la colonne "Paramètres", saisissez :

Effacement des paramètres CSS

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Effacer les paramètres CSS

Utilisez cette méthode lorsque des paramètres CSS incorrects sont appliqués ou si vous ne pouvez pas accéder à l'interface après avoir défini des CSS.

  • Ouvrez la console, cliquez sur la fenêtre CherryStudio, puis appuyez sur le raccourci Ctrl+Shift+I (macOS : command+option+I).

  • Dans la console qui s'ouvre, cliquez sur Console

  • Saisissez manuellement document.getElementById('user-defined-custom-css').remove() – le copier-coller ne fonctionnera probablement pas.

  • Appuyez sur Entrée pour confirmer et effacer les paramètres CSS, puis retournez dans les paramètres d'affichage de CherryStudio pour supprimer le code CSS problématique.

MEMORY_FILE_PATH=/path/to/your/file.json
BRAVE_API_KEY=YOUR_API_KEY
Assistant rapide
Tutoriel sur la base de connaissances
Google Cloud
Clés API
Paramètres du fournisseur
https://turso.tech/libsql
Diagramme du processus de traitement de la base de connaissances
Copiez uniquement https://xxx.xxx.com sans inclure le "/" ni ce qui suit
mcp-server-time
--local-timezone
<votre fuseau horaire standard, par exemple : Asia/Shanghai>
Capture d'écran d'erreur

Paramètres des données

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Cette interface permet d'effectuer des sauvegardes et restaurations locales ou cloud, de consulter le répertoire des données locales et de vider le cache, d'exporter les paramètres et de configurer des connexions tierces.

Sauvegarde des données

Actuellement, la sauvegarde prend en charge trois méthodes : sauvegarde locale, sauvegarde WebDAV et sauvegarde dans un stockage compatible S3 (stockage d'objets). Pour des explications détaillées et des tutoriels, veuillez consulter les documents suivants :

  • Tutoriel de sauvegarde WebDAV

  • Sauvegarde dans un stockage compatible S3

Paramètres d'exportation

Les paramètres d'exportation permettent de configurer les options d'exportation affichées dans le menu. Vous pouvez également définir le chemin par défaut pour l'export Markdown, le style d'affichage, etc.

Connexions tierces

Cette section configure la connexion entre Cherry Studio et des applications tierces pour exporter rapidement le contenu des conversations vers vos outils de gestion des connaissances. Actuellement pris en charge : Notion, Obsidian, SiYuan Note, YuQue et Joplin. Tutoriels de configuration :

  • Configuration pour Notion

  • Configuration pour Obsidian

  • Configuration pour SiYuan Note

Politique de confidentialité

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Politique de Confidentialité

Bienvenue sur Cherry Studio (ci-après dénommé "ce logiciel" ou "nous"). Nous accordons une grande importance à la protection de votre vie privée. Cette politique de confidentialité explique comment nous traitons et protégeons vos informations personnelles et vos données. Veuillez lire attentivement et comprendre cette politique avant d'utiliser ce logiciel :

1. Portée des informations collectées

Pour optimiser l'expérience utilisateur et améliorer la qualité du logiciel, nous ne collectons que les informations non personnelles suivantes de manière anonyme :

• Informations sur la version du logiciel ; • Activité et fréquence d'utilisation des fonctionnalités du logiciel ; • Journaux de plantages et d'erreurs anonymes ;

Ces informations sont totalement anonymes, ne concernent aucune donnée d'identification personnelle et ne peuvent être associées à vos informations personnelles.

2. Informations que nous ne collectons pas

Pour protéger au maximum votre vie privée, nous nous engageons explicitement à :

• Ne pas collecter, conserver, transmettre ou traiter les informations de clé API des services de modèles que vous saisissez dans ce logiciel ; • Ne pas collecter, conserver, transmettre ou traiter les données de conversation générées lors de votre utilisation de ce logiciel, y compris mais sans s'y limiter : contenu des discussions, informations d'instruction, données de base de connaissances, données vectorielles et autres contenus personnalisés ; • Ne pas collecter, conserver, transmettre ou traiter des informations sensibles permettant d'identifier personnellement un individu.

3. Explication des interactions de données

Ce logiciel utilise la clé API des fournisseurs de services de modèles tiers que vous avez demandée et configurée vous-même, afin d'effectuer les appels aux modèles correspondants et d'assurer les fonctionnalités de conversation. Les services de modèles que vous utilisez (par exemple, grands modèles, interfaces API, etc.) sont fournis par le fournisseur tiers que vous avez choisi et relèvent entièrement de sa responsabilité. Cherry Studio agit uniquement comme un outil local fournissant des fonctions d'appel d'interface avec les services de modèles tiers.

Par conséquent :

• Toutes les données de conversation générées entre vous et les services de grands modèles sont indépendantes de Cherry Studio. Nous ne participons ni au stockage des données, ni à toute forme de transmission ou de transit de données ; • Vous devez consulter et accepter vous-même la politique de confidentialité et les politiques associées du fournisseur de services de modèles tiers correspondant. Ces politiques de confidentialité sont accessibles sur les sites officiels de chaque fournisseur.

4. Déclaration de politique de confidentialité des fournisseurs de services de modèles tiers

Vous assumez vous-même les risques potentiels pour la vie privée liés à l'utilisation des services de fournisseurs de modèles tiers. Pour les politiques de confidentialité spécifiques, les mesures de sécurité des données et les responsabilités associées, veuillez consulter le contenu pertinent sur le site officiel du fournisseur de services de modèles choisi. Nous déclinons toute responsabilité à cet égard.

5. Mises à jour et modifications de la politique

Cette politique peut être ajustée lors des mises à jour des versions du logiciel. Veuillez la consulter régulièrement. En cas de modification substantielle de la politique, nous vous en informerons par des moyens appropriés.

6. Nous contacter

Si vous avez des questions concernant le contenu de cette politique ou les mesures de protection de la vie privée de Cherry Studio, n'hésitez pas à nous contacter à tout moment.

Nous vous remercions d'avoir choisi et fait confiance à Cherry Studio. Nous continuerons à vous offrir une expérience produit sûre et fiable.

Mini-programmes

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Mini-programmes

Dans la page des mini-programmes, vous pouvez utiliser les versions web des applications liées à l'IA des principaux fournisseurs directement dans le client. Actuellement, l'ajout et la suppression personnalisés ne sont pas pris en charge.

Guide d'utilisation MCP

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Tutoriel d'utilisation MCP

​
​
SiliconCloud
Clés API
​
​

Windows

Windows 版本安装教程

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Windows

Ouvrir le site officiel

Remarque : Windows 7 ne prend pas en charge l'installation de Cherry Studio.

Cliquez sur Télécharger pour choisir la version appropriée

Ouvrir le site officiel

Attendre la fin du téléchargement

Navigateur Edge en cours de téléchargement

Si le navigateur indique que le fichier n'est pas approuvé, choisissez de le conserver

Choisir de conserver → Faire confiance à Cherry-Studio

Ouvrir le fichier

Liste des téléchargements d'Edge

Installation

Interface d'installation du logiciel

Alibaba Bailian

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Alibaba Cloud Bailian

  1. Connectez-vous à Alibaba Cloud Bailian. Si vous n'avez pas de compte Alibaba Cloud, vous devrez en créer un.

  2. Cliquez sur le bouton Créer mon API-KEY en haut à droite.

Création d'une clé API dans Alibaba Cloud Bailian
  1. Dans la fenêtre contextuelle, sélectionnez l'espace d'affaires par défaut (ou personnalisez-le si vous le souhaitez). Vous pouvez éventuellement ajouter une description.

Fenêtre contextuelle de création de clé API dans Alibaba Cloud Bailian
  1. Cliquez sur le bouton Confirmer en bas à droite.

  2. Vous devriez alors voir une nouvelle ligne apparaître dans la liste. Cliquez sur le bouton Afficher à droite.

    Affichage d'une clé API dans Alibaba Cloud Bailian
  3. Cliquez sur le bouton Copier.

    Copie d'une clé API dans Alibaba Cloud Bailian
  4. Rendez-vous dans Cherry Studio. Accédez à Paramètres → Services de modèle → Alibaba Cloud Bailian, trouvez le champ Clé API et collez-y la clé copiée.

    Saisie d'une clé API dans Alibaba Cloud Bailian
  5. Vous pouvez ajuster les paramètres selon les instructions dans Services de modèle, puis commencer à l'utiliser.

Si les modèles d'Alibaba Cloud Bailian n'apparaissent pas dans la liste, vérifiez que vous avez bien ajouté les modèles selon les instructions dans Services de modèle et que vous avez activé ce fournisseur.

Configuration de la liste noire de recherche

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Configuration des listes noires pour la recherche Web

Cherry Studio prend en charge deux méthodes de configuration des listes noires : manuelle et par ajout de flux d'abonnement. Les règles de configuration font référence à ublacklist.

Configuration manuelle

Vous pouvez ajouter des règles aux résultats de recherche ou cliquer sur l'icône de la barre d'outils pour bloquer des sites spécifiques. Les règles peuvent être spécifiées en utilisant : des motifs de correspondance (exemple : *://*.example.com/*) ou des expressions régulières (exemple : /example\.(net|org)/).

Configuration des flux d'abonnement

Vous pouvez également vous abonner à des ensembles de règles publics. Ce site répertorie certains abonnements : https://iorate.github.io/ublacklist/subscriptions

Voici quelques liens de flux d'abonnement recommandés :

Nom
Lien
Type

https://git.io/ublacklist

Chinois

https://raw.githubusercontent.com/laylavish/uBlockOrigin-HUGE-AI-Blocklist/main/list_uBlacklist.txt

Généré par IA

Configuration des flux d'abonnement

Paramètres d'affichage

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Paramètres d'affichage

Sur cette page, vous pouvez configurer le thème de couleur du logiciel, la mise en page ou utiliser un CSS personnalisé pour effectuer des réglages personnalisés.

Sélection du thème

Vous pouvez définir ici le mode de couleur par défaut de l'interface (mode clair, mode sombre ou suivre le système).

Paramètres de conversation

Ces paramètres concernent la disposition de l'interface de conversation.

Position des conversations

Basculement automatique vers la conversation

Lorsque ce paramètre est activé, cliquer sur le nom d'un assistant bascule automatiquement vers sa page de conversation.

Afficher l'heure de création

Affiche la date et l'heure de création sous chaque conversation lorsque activé.

CSS personnalisé

Permet d'apporter des modifications d'interface personnalisées. Pour plus de détails, consultez le tutoriel avancé sur le CSS personnalisé.

Mode connecté

如何在 Cherry Studio 使用联网模式

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Mode en ligne

Exemples de situations nécessitant une connexion Internet :

  • Informations temporelles : comme les prix des contrats à terme sur l'or d'aujourd'hui/cette semaine/à l'instant, etc.

  • Données en temps réel : comme la météo, les taux de change, etc.

  • Connaissances émergentes : comme les nouvelles choses, concepts, technologies, etc.

I. Comment activer le mode en ligne

Dans la fenêtre de question de Cherry Studio, cliquez sur l'icône 【Globe terrestre】 pour activer le mode en ligne.

II. Remarque importante : deux modes de connexion Internet

Mode 1 : Les modèles des opérateurs possèdent une fonction de recherche en ligne intégrée

Dans ce cas, après avoir activé le mode en ligne, vous pouvez directement utiliser le service, c'est très simple.

Vous pouvez rapidement vérifier si un modèle prend en charge la connexion Internet en cherchant une petite icône de carte après son nom dans la partie supérieure de l'interface de question-réponse.

Sur la page de gestion des modèles, cette méthode vous permet également de distinguer rapidement les modèles prenant en charge le mode en ligne.

Opérateurs de modèles avec fonction de recherche en ligne actuellement pris en charge par Cherry Studio

  • Google Gemini

  • OpenRouter (tous les modèles prennent en charge la connexion Internet)

  • Tencent Hunyuan

  • Zhipu AI

  • Alibaba Cloud Bailian, etc.

Remarque importante : Il existe un cas particulier où même sans l'icône de globe terrestre, un modèle peut accéder à Internet, comme expliqué dans le tutoriel ci-dessous.


Mode 2 : Les modèles sans fonction de recherche utilisent le service Tavily pour accéder à Internet

Lorsqu'un modèle ne possède pas de fonction de recherche intégrée (pas d'icône de globe après son nom), mais que vous avez besoin d'informations en temps réel, utilisez le service de recherche Internet Tavily.

Lors de la première utilisation du service Tavily, une fenêtre contextuelle vous guidera dans la configuration. Suivez simplement les instructions !

Après avoir cliqué "Obtenir la clé", vous serez redirigé vers le site officiel de Tavily. Inscrivez-vous, connectez-vous, créez une clé API, puis copiez-la dans Cherry Studio.

Besoin d'aide pour l'inscription ? Consultez le tutoriel dans ce même répertoire.

Document de référence pour Tavily :

L'interface suivante indique une inscription réussie.

Testez à nouveau : les résultats montrent une recherche Internet fonctionnelle, avec un nombre de résultats par défaut de 5.

Remarque : Tavily impose des limites d'utilisation gratuite mensuelle. Le dépassement entraîne des frais.

PS : Si vous détectez des erreurs, n'hésitez pas à nous contacter.

Installation automatique de MCP

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Installation automatique du MCP

L'installation automatique du MCP nécessite la mise à niveau de Cherry Studio en version v1.1.18 ou ultérieure.

Introduction à la fonctionnalité

En complément de l'installation manuelle, Cherry Studio intègre l'outil @mcpmarket/mcp-auto-install, offrant une méthode plus pratique pour installer un serveur MCP. Il suffit d'entrer la commande appropriée dans une conversation avec un modèle prenant en charge les services MCP.

Rappel de la phase de test :

  • @mcpmarket/mcp-auto-install est actuellement en phase de test

  • L'efficacité dépend de "l'intelligence" du modèle : certaines configurations s'appliquent automatiquement, d'autres exigent des ajustements manuels dans les paramètres MCP

  • La source de recherche actuelle est @modelcontextprotocol, modifiable via configuration (voir ci-dessous)

Instructions d'utilisation

Par exemple, saisissez :

Le système identifie automatiquement votre requête et complète l'installation via @mcpmarket/mcp-auto-install. Cet outil prend en charge divers types de serveurs MCP, notamment :

  • filesystem (système de fichiers)

  • fetch (requête réseau)

  • sqlite (base de données)

  • etc.

La variable MCP_PACKAGE_SCOPES permet de personnaliser les sources de recherche des services MCP (valeur par défaut : @modelcontextprotocol).

Présentation de la bibliothèque @mcpmarket/mcp-auto-install

Référence de configuration par défaut :

@mcpmarket/mcp-auto-install est un package npm open source. Consultez ses détails et sa documentation dans le . @mcpmarket représente la collection officielle des services MCP de Cherry Studio.

ByteDance (Doubao)

Ce document a été traducido del chino por IA y aún no ha sido revisado.

ByteDance (Doubao)

  • Connectez-vous à

  • Cliquez directement

Obtenir une clé API

  • Cliquez sur dans la barre latérale

  • Créez une clé API

  • Après création réussie, cliquez sur l'icône en forme d'œil à côté de votre clé API pour l'afficher et la copier

  • Collez la clé API copiée dans CherryStudio, puis activez le commutateur du fournisseur de service.

Activer et ajouter des modèles

  • Activez les modèles nécessaires dans de la console Ark. Vous pouvez activer la série Doubao, DeepSeek ou d'autres modèles selon vos besoins.

  • Dans le , localisez l'ID de modèle correspondant au modèle requis.

  • Accédez aux de Cherry Studio et sélectionnez Volc Engine

  • Cliquez sur "Ajouter" et collez l'ID de modèle obtenu dans la zone de texte ID de modèle

  • Ajoutez les modèles un par un en suivant ce processus

Adresse API

L'adresse API peut s'écrire de deux manières

  • La première est celle par défaut du client : https://ark.cn-beijing.volces.com/api/v3/

  • La deuxième écriture est : https://ark.cn-beijing.volces.com/api/v3/chat/completions#

Les deux formats sont équivalents. Gardez celui par défaut, aucune modification n'est nécessaire.

Concernant la différence entre les terminaisons par / et #, consultez la section sur l'adresse API des paramètres du fournisseur dans la documentation :

Huawei Cloud

Ce document a été traducido del chino por IA y aún no ha sido revisado.

WuWenXinQiong

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Infini-AI(无问芯穹)

Vous vivez peut-être cette situation : 26 articles utiles épinglés sur WeChat jamais relus, plus de 10 fichiers éparpillés dans votre dossier "Ressources d'apprentissage", cherchant désespérément une théorie lue il y a six mois avec seulement quelques mots-clés en tête. Quand le volume quotidien d'information dépasse la capacité de traitement de votre cerveau, 90% des connaissances précieuses sont oubliées en 72 heures. Désormais, avec l'API de la plateforme de grands modèles Infini-AI + Cherry Studio, vous pouvez créer une base de connaissances personnelle transformant articles WeChat oubliés et contenus fragmentés en savoir structuré, accessible avec précision.

I. Construction de votre base de connaissances personnelle

1. Service API Infini-AI : le « cerveau réflexif » de votre base, fiable et performant

En tant que « cerveau réflexif » de la base de connaissances, la plateforme Infini-AI propose des versions de modèles comme DeepSeek R1 version complète, offrant un service API stable. Actuellement, l'utilisation est gratuite après inscription, sans conditions. Elle prend en charge les modèles d'embedding populaires (bge, jina) pour construire votre base, tout en intégrant continuellement les derniers modèles open-source puissants, incluant des capacités multimodales (images, vidéos, audio).

2. Cherry Studio : construisez votre base sans code

Cherry Studio est un outil IA intuitif. Alors que le développement traditionnel d'une base RAG nécessite 1 à 2 mois, cet outil offre l'avantage d'une configuration zéro code. Importez en un clic des contenus aux formats Markdown/PDF/web. L'analyse d'un fichier de 40MB prend 1 minute. Ajoutez également des dossiers locaux, des articles sauvegardés dans WeChat ou des notes de cours.

II. 3 étapes pour créer votre assistant de savoir personnel

Étape 1 : Préparatifs

  1. Téléchargez Cherry Studio sur le site officiel (https://cherry-ai.com/)

  2. Créez un compte : connectez-vous à la plateforme Infini-AI (https://cloud.infini-ai.com/genstudio/model?cherrystudio)

  3. Obtenez votre clé API : dans la « Place des modèles », choisissez deepseek-r1, cliquez sur Créer et copiez la clé API + le nom du modèle

Étape 2 : Dans les paramètres de Cherry Studio, sélectionnez "Infini-AI", saisissez votre clé API et activez le service

Après ces étapes, choisissez le modèle dans l'interface pour utiliser le service API Infini-Ai dans Cherry Studio. Pour plus de simplicité, vous pouvez définir un « modèle par défaut ».

Étape 3 : Ajoutez une base de connaissances

Sélectionnez un modèle d'embedding (série bge ou jina) de la plateforme Infini-AI.

III. Test réel par un utilisateur

  • Après import de ressources d'apprentissage : "Synthétisez les dérivations clés du chapitre 3 du livre 'Machine Learning'"

Résultat généré :

Assistant rapide

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Assistant Rapide

L'Assistant Rapide est un outil pratique proposé par Cherry Studio qui vous permet d'accéder rapidement aux fonctionnalités d'IA dans n'importe quelle application, permettant ainsi des opérations instantanées comme poser des questions, traduire, résumer et expliquer.

Activer l'Assistant Rapide

  1. Ouvrir les paramètres : Accédez à Paramètres -> Raccourcis -> Assistant Rapide.

  2. Activer l'interrupteur : Localisez et activez le bouton correspondant à Assistant Rapide.

  1. Configurer un raccourci clavier (optionnel) :

    • Raccourci par défaut Windows : Ctrl + E

    • Raccourci par défaut macOS : ⌘ + E

    • Vous pouvez personnaliser le raccourci ici pour éviter les conflits ou l'adapter à vos habitudes.

Utiliser l'Assistant Rapide

  1. Invoquer : Dans n'importe quelle application, appuyez sur votre raccourci configuré (ou le raccourci par défaut) pour ouvrir l'Assistant Rapide.

  2. Interagir : Dans la fenêtre de l'Assistant Rapide, vous pouvez directement effectuer les opérations suivantes :

    • Poser des questions rapides : Interrogez l'IA sur n'importe quel sujet.

    • Traduire du texte : Saisissez le texte à traduire.

    • Résumer du contenu : Entrez un texte long pour en obtenir un résumé.

    • Expliquer des concepts : Saisissez des termes ou concepts nécessitant une explication.

  3. Fermer : Appuyez sur ESC ou cliquez n'importe où en dehors de la fenêtre pour fermer.

L'Assistant Rapide utilise le .

Astuces et conseils

  • Conflits de raccourcis : Si le raccourci par défaut entre en conflit avec une autre application, modifiez-le.

  • Découvrir plus de fonctionnalités : Au-delà des fonctions documentées, l'Assistant Rapide peut supporter d'autres opérations comme la génération de code ou la conversion de style. Explorez pendant l'utilisation.

  • Retours et améliorations : Si vous rencontrez des problèmes ou avez des suggestions, contactez l'équipe Cherry Studio via les .

Tutoriel d'enregistrement et de connexion Tavily

如何注册tavily?

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Tutoriel d'enregistrement et de connexion en ligne de Tavily

1. Site officiel de Tavily

Certains utilisateurs peuvent rencontrer des vitesses de chargement lentes. Si vous utilisez un proxy, activez-le pour améliorer les performances.

2. Étapes détaillées d'inscription sur Tavily

Accédez au site officiel ci-dessus ou, depuis Cherry Studio > Paramètres > Recherche Web > Cliquez sur "Obtenir une clé", ce qui vous redirigera directement vers la page de connexion/d'inscription de Tavily.

Si c'est votre première utilisation, vous devez d'abord créer un compte (Sign up) avant de pouvoir vous connecter (Log in). Par défaut, vous serez redirigé vers la page de connexion.

  1. Cliquez sur "S'inscrire", entrez votre e-mail habituel ou utilisez votre compte Google/GitHub, puis définissez un mot de passe (procédure standard).

  1. 🚨🚨🚨ÉTAPE CRUCIALE Après l'inscription, une vérification en deux étapes est nécessaire : scannez le QR code pour générer un code à usage unique.

Deux solutions :

  1. Téléchargez l'application Microsoft Authenticator (légèrement complexe)

  2. Utilisez le mini-programme WeChat : Authentificateur Tencent (simple, recommandé)

  1. Sur WeChat, recherchez le mini-programme : Authentificateur Tencent

3. 🎉 Inscription réussie 🎉

Après ces étapes, l'interface ci-dessous s'affiche : copiez votre clé dans Cherry Studio pour commencer à l'utiliser.

Informations de référence sur les modèles courants

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Références courantes des modèles

  • Les informations ci-dessous sont fournies à titre indicatif uniquement. En cas d'erreur, merci de nous contacter pour correction. Les spécifications contextuelles et les détails des modèles peuvent varier selon les fournisseurs.

  • Dans les données client, les unités "k" doivent être converties en valeurs numériques (théoriquement 1k = 1024 tokens ; 1m = 1024k tokens). Par exemple, 8k = 8×1024=8192 tokens. Il est recommandé de multiplier par 1000 lors de l'utilisation pratique pour éviter les erreurs : 8k = 8×1000=8000, 1m=1×1000000=1000000.

  • Les modèles marqués avec "-" comme "Sortie maximale" n'ont pas d'information officielle disponible concernant leur limite de production.

Nom du modèle
Entrée max
Sortie max
Appels de fonction
Capacités
Fournisseur
Description

Recommandations de polices

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Recommandations de polices

Guide de configuration Notion

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Tutoriel de configuration Notion

Cherry Studio permet d'importer des sujets dans la base de données Notion.

Première étape

Accédez au site pour créer une application

Deuxième étape

Créez une application

Nom : Cherry Studio

Type : Sélectionnez le premier

Icône : Vous pouvez sauvegarder cette image

Troisième étape

Copiez la clé secrète et collez-la dans les paramètres de Cherry Studio

Quatrième étape

Ouvrez le site , créez une nouvelle page, sélectionnez le type base de données en bas, nommez-la Cherry Studio, et connectez comme indiqué

Cinquième étape

Si l'URL de votre base de données Notion ressemble à ceci :

https://www.notion.so/<long_hash_1>?v=<long_hash_2>

Alors l'ID de la base de données Notion est la partie <long_hash_1>

Sixième étape

Remplissez le Nom du champ de titre de la page :

Si votre interface est en anglais : saisissez Name Si votre interface est en chinois : saisissez 名称

Septième étape

Félicitations, la configuration Notion est terminée ✅ Vous pouvez désormais exporter du contenu Cherry Studio vers votre base de données Notion

Guide de configuration SiYuan Notes

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Tutoriel de configuration de SiYuan Note

Permet d'exporter des sujets et messages vers SiYuan Note.

Étape 1

Ouvrez SiYuan Note et créez un carnet

Étape 2

Ouvrez les paramètres du carnet et copiez l'ID du carnet

Étape 3

Collez l'ID du carnet dans les paramètres de Cherry Studio

Étape 4

Entrez l'adresse de SiYuan Note

  • Local Généralement http://127.0.0.1:6806

  • Auto-hébergé Votre domaine http://note.domain.com

Étape 5

Copiez le Jeton d'API de SiYuan Note

Collez-le dans les paramètres de Cherry Studio et vérifiez

Étape 6

Félicitations, la configuration de SiYuan Note est terminée ✅ Vous pouvez maintenant exporter le contenu de Cherry Studio vers votre SiYuan Note

OpenAI

Ce document a été traducido del chino por IA y aún no ha sido revisado.

OpenAI

Obtenir une clé API

  • Sur la page officielle des , cliquez sur + Create new secret key

  • Copiez la clé générée, puis ouvrez les de CherryStudio

  • Dans la section du fournisseur OpenAI, collez la clé obtenue

  • Cliquez sur "Gérer" ou "Ajouter" en bas, ajoutez les modèles pris en charge et activez l'interrupteur du fournisseur de services en haut à droite pour l'utiliser.

  • En Chine (à l'exception de Taïwan), les services OpenAI ne sont pas directement accessibles, un proxy est nécessaire ;

  • Un solde est requis.

Contribuer au code

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Contribuer au code

Nous sommes heureux d'accueillir les contributions à Cherry Studio ! Vous pouvez contribuer de plusieurs manières :

  1. Contribuer au code : Développer de nouvelles fonctionnalités ou optimiser le code existant.

  2. Corriger des bugs : Soumettre des corrections pour les bogues que vous découvrez.

  3. Gérer les problèmes : Aider à administrer les issues GitHub.

  4. Conception du produit : Participer aux discussions de design.

  5. Rédiger la documentation : Améliorer les manuels utilisateurs et guides.

  6. Participation communautaire : Rejoindre les discussions et aider les utilisateurs.

  7. Promouvoir l'utilisation : Faire connaître Cherry Studio.

Comment participer

Envoyez un email à

Objet : Demande pour devenir contributeur Corps : Raison de votre candidature

# Huawei Cloud

I. Créez un compte et connectez-vous sur [Huawei Cloud](https://auth.huaweicloud.com/authui/login)  
II. Cliquez sur [ce lien](https://console.huaweicloud.com/modelarts/?region=cn-southwest-2#/model-studio/homepage) pour accéder à la console ModelArts  
III. Autorisation  

<details>
<summary>Procédure d'autorisation (ignorer si déjà autorisé)</summary>

1. Après avoir accédé au lien (II), suivez les instructions pour accéder à la page d'autorisation (cliquez sur Utilisateur IAM → Nouvelle délégation → Utilisateur standard)  
![](<../../.gitbook/assets/image (49).png>)  
2. Après avoir cliqué sur Créer, revenez à la page du lien (II)  
3. Un message indique des autorisations d'accès insuffisantes, cliquez sur "Cliquez ici" dans le message  
4. Ajoutez l'autorisation existante et confirmez  

![](<../../.gitbook/assets/image (50).png>)  
Note : Cette méthode convient aux débutants, pas besoin de lire beaucoup de contenu, suivez simplement les instructions. Si vous parvenez à obtenir l'autorisation du premier coup, utilisez votre propre méthode.  
</details>

IV. Cliquez sur Gestion de l'authentification dans la barre latérale, créez une clé API (secret) et copiez-la  
<figure><img src="../../.gitbook/assets/微信截图_20250214034650.png" alt=""><figcaption></figcaption></figure>  

Puis créez un nouveau fournisseur dans CherryStudio  
<figure><img src="../../.gitbook/assets/image (1) (2).png" alt="" width="300"><figcaption></figcaption></figure>  

Après création, saisissez la clé secrète  

V. Cliquez sur Déploiement de modèles dans la barre latérale et récupérez tous  
<figure><img src="../../.gitbook/assets/微信截图_20250214034751.png" alt=""><figcaption></figcaption></figure>  

VI. Cliquez sur Appel  
<figure><img src="../../.gitbook/assets/image (1) (2) (1).png" alt=""><figcaption></figcaption></figure>  

Copiez l'adresse à ①, collez-la dans l'adresse du fournisseur CherryStudio et ajoutez un "#" à la fin  
et ajoutez un "#" à la fin  
et ajoutez un "#" à la fin  
et ajoutez un "#" à la fin  
et ajoutez un "#" à la fin  

Pourquoi ajouter un "#" ? [Voir ici](https://docs.cherry-ai.com/cherrystudio/preview/settings/providers#api-di-zhi)  
> Bien sûr, vous pouvez aussi ignorer cela et suivre simplement le tutoriel;  
> Vous pouvez également utiliser la méthode de suppression de v1/chat/completions pour remplir. Utilisez votre méthode si vous savez comment faire, sinon suivez strictement le tutoriel.  

<figure><img src="../../.gitbook/assets/image (2) (3).png" alt=""><figcaption></figcaption></figure>  

Copiez ensuite le nom du modèle à ②, dans CherryStudio cliquez sur le bouton "+Ajouter" pour créer un nouveau modèle  
<figure><img src="../../.gitbook/assets/image (4) (3).png" alt=""><figcaption></figcaption></figure>  

Saisissez le nom du modèle tel quel, sans modifications ou guillemets. Copiez exactement comme dans l'exemple.  
<figure><img src="../../.gitbook/assets/image (3) (3).png" alt=""><figcaption></figcaption></figure>  

Cliquez sur Ajouter un modèle pour terminer.  

{% hint style="info" %}
Dans Huawei Cloud, chaque modèle ayant une adresse différente, chaque modèle nécessite un nouveau fournisseur. Répétez simplement les étapes ci-dessus.  
{% endhint %}

360gpt-pro

8k

-

Non supporté

Dialogue

360AI_360gpt

Modèle phare de la série 360 Brain, optimisé pour tâches complexes multidisciplinaires.

gemini-2.0-pro-exp-02-05

2m

8k

Non supporté

Dialogue, Reconnaissance image

Google_gemini

Modèle expérimental Gemini 2.0 Pro publié en février 2024, supportant un contexte de 2M tokens.

qwen-vl-max-latest

32k

2k

Supporté

Dialogue, Reconnaissance image

千问_qwen

Version multilingue avancée pour tâches complexes nécessitant compréhension visuelle et textuelle.

glm-4v-flash

2k

1k

Non supporté

Dialogue, Reconnaissance image

智谱_glm

Modèle gratuit avec capacités avancées de compréhension d'images.

[email protected]
帮我安装一个 filesystem mcp server
// `axun-uUpaWEdMEMU8C61K` correspond à l'ID de service, personnalisable
"axun-uUpaWEdMEMU8C61K": {
  "name": "mcp-auto-install",
  "description": "Automatically install MCP services (Beta version)",
  "isActive": false,
  "registryUrl": "https://registry.npmmirror.com",
  "command": "npx",
  "args": [
    "-y",
    "@mcpmarket/mcp-auto-install",
    "connect",
    "--json"
  ],
  "env": {
    "MCP_REGISTRY_PATH": "Détails sur https://www.npmjs.com/package/@mcpmarket/mcp-auto-install"
  },
  "disabledTools": []
}
dépôt officiel npm
Saisir la commande pour installer le serveur MCP
Interface de configuration du serveur MCP
Volc Engine
ici pour accéder
Gestion des clés API
Gestion des activations
document de liste des modèles
paramètres des services de modèles
cliquez ici
Exemple de liste des ID de modèle de Volc Engine
Exemple de cURL dans la documentation officielle
modèle de conversation global par défaut
retours
Illustration de l'activation de l'Assistant Rapide
Illustration de l'interface de l'Assistant Rapide

Monaspace

Police anglaise Usage commercial autorisé

GitHub a lancé une famille de polices open source appelée Monaspace, proposant cinq styles différents : Neon (moderne), Argon (humaniste), Xenon (serif), Radon (script) et Krypton (mécanique).

MiSans Global

Multilingue Usage commercial autorisé

MiSans Global est un projet de police personnalisée pour langues mondiales, dirigé par Xiaomi et développé conjointement avec Monotype et HanYi Foundries.

Il s'agit d'une vaste famille de polices couvrant plus de 20 systèmes d'écriture et prenant en charge plus de 600 langues.

Notion Integrations
Notion
Cliquez sur le signe plus pour créer une application
Remplissez les informations de l'application
Cliquez pour copier la clé secrète
Collez la clé dans les paramètres de données
Créez une nouvelle page et sélectionnez le type base de données
Entrez le nom de la page et sélectionnez "Connecter à l'application"
Copiez l'ID de la base de données
Entrez l'ID de la base de données et cliquez sur "Vérifier"
Remplissez le nom du champ de titre de la page
Exporter vers Notion
Voir les résultats de l'exportation
Cliquez pour créer un nouveau carnet
Ouvrir les paramètres du carnet
Cliquez sur le bouton Copier l'ID du carnet
Entrez l'ID du carnet dans les paramètres des données
Saisissez votre adresse SiYuan Note
Copier le jeton SiYuan Note
Entrez l'ID de base de données et cliquez sur Vérifier
Exporter vers SiYuan Note
Voir le résultat de l'exportation
clés API
Drawing
paramètres des fournisseurs de services
uBlacklist subscription compilation
uBlockOrigin-HUGE-AI-Blocklist
Cliquez sur l'icône Globe - Activer la connexion Internet
Indicateur - La fonction de connexion Internet est activée
Fenêtre contextuelle, cliquez : Configurer
Cliquez pour obtenir la clé
Copier la clé
Coller la clé - C'est terminé !
Connexion via Volcano Engine
Tutoriel d'enregistrement et de connexion Tavily
https://app.tavily.com/home
Création de compte
De nombreux utilisateurs bloquent à cette étape... Pas de panique
Mini-programme WeChat - rechercher - cliquer pour ouvrir
Scannez le QR code affiché sur Tavily
Obtenez un code numérique
Copiez le code dans Tavily
Sauvegardez le code de récupération (recommandé)

Ajouter un serveur MCP ModelScope

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Ajouter des serveurs ModelScope MCP

Pour utiliser les serveurs ModelScope MCP, il est nécessaire de mettre à jour Cherry Studio vers la version v1.2.9 ou ultérieure.

Dans la version v1.2.9, Cherry Studio a établi un partenariat officiel avec ModelScope (魔搭), simplifiant considérablement les étapes d'ajout des serveurs MCP. Cela évite les erreurs de configuration et permet de découvrir une multitude de serveurs MCP au sein de la communauté ModelScope. Suivez le guide ci-dessous pour apprendre à synchroniser les serveurs MCP ModelScope avec Cherry Studio.

Étapes d'opération

Point d'accès de synchronisation

Dans les paramètres, cliquez sur Configuration des serveurs MCP, puis sélectionnez Synchroniser les serveurs.

Découvrir les services MCP

Sélectionnez ModelScope et parcourez les services MCP disponibles.

Consulter les détails du serveur MCP

Connectez-vous à ModelScope et visualisez les détails du service MCP.

Connecter le serveur

Dans les détails du service MCP, choisissez l'option pour connecter le service.

Obtenir et coller le jeton API

Cliquez sur "Obtenir le jeton API" dans Cherry Studio pour être redirigé vers le site officiel de ModelScope. Copiez le jeton API et collez-le dans Cherry Studio.

Synchronisation réussie

Les serveurs MCP de ModelScope apparaissent désormais dans la liste de Cherry Studio et peuvent être utilisés dans les conversations.

Mise à jour incrémentielle

Pour ajouter de nouveaux serveurs MCP connectés ultérieurement via l'interface web de ModelScope, cliquez simplement sur Synchroniser les serveurs.

Grâce à ces étapes, vous maîtrisez désormais la synchronisation simplifiée des serveurs MCP ModelScope avec Cherry Studio. Ce processus élimine les configurations manuelles fastidieuses et les erreurs potentielles, tout en vous donnant accès à l'immense catalogue de serveurs MCP de la communauté ModelScope.

Explorez et utilisez ces puissants services MCP pour enrichir votre expérience Cherry Studio et découvrir de nouvelles possibilités !

Modification de l'emplacement de stockage

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Emplacement de stockage par défaut

Le stockage des données de Cherry Studio suit les conventions système. Les données sont automatiquement placées dans le répertoire utilisateur, aux emplacements spécifiques suivants :

macOS: /Users/username/Library/Application Support/CherryStudioDev

Windows: C:\Users\username\AppData\Roaming\CherryStudio

Linux: /home/username/.config/CherryStudio

Vous pouvez également visualiser cet emplacement ici :

Modifier l'emplacement de stockage (à titre informatif)

Méthode 1 :

Utilisez des liens symboliques. Quittez le logiciel, déplacez les données vers votre emplacement souhaité, puis créez un lien à l'emplacement d'origine pointant vers le nouvel emplacement.

Consultez les étapes détaillées ici : https://github.com/CherryHQ/cherry-studio/issues/621#issuecomment-2588652880

Méthode 2 : Modifiez l'emplacement via les paramètres de lancement, en exploitant les caractéristiques des applications Electron.

--user-data-dir Exemple : Cherry-Studio-*-x64-portable.exe --user-data-dir="%user_data_dir%"

Exemple :

PS D:\CherryStudio> dir


    目录: D:\CherryStudio


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----         2025/4/18     14:05                user-data-dir
-a----         2025/4/14     23:05       94987175 Cherry-Studio-1.2.4-x64-portable.exe
-a----         2025/4/18     14:05            701 init_cherry_studio.bat

init_cherry_studio.bat (encodage : ANSI)

@title Initialisation CherryStudio
@echo off

set current_path_dir=%~dp0
@echo Chemin actuel : %current_path_dir%
set user_data_dir=%current_path_dir%user-data-dir
@echo Chemin des données CherryStudio : %user_data_dir%

@echo Recherche de Cherry-Studio-*-portable.exe dans le chemin actuel
setlocal enabledelayedexpansion

for /f "delims=" %%F in ('dir /b /a-d "Cherry-Studio-*-portable*.exe" 2^>nul') do ( # Ce code s'adapte aux versions GitHub et officielles, modifiez si nécessaire
    set "target_file=!cd!\%%F"
    goto :break
)
:break
if defined target_file (
    echo Fichier trouvé : %target_file%
) else (
    echo Aucun fichier correspondant, arrêt du script
    pause
    exit
)

@echo Confirmez pour continuer
pause

@echo Lancement de CherryStudio
start %target_file% --user-data-dir="%user_data_dir%"

@echo Opération terminée
@echo on
exit

Structure du répertoire user-data-dir après initialisation :

PS D:\CherryStudio> dir .\user-data-dir\


    目录: D:\CherryStudio\user-data-dir


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----         2025/4/18     14:29                blob_storage
d-----         2025/4/18     14:07                Cache
d-----         2025/4/18     14:07                Code Cache
d-----         2025/4/18     14:07                Data
d-----         2025/4/18     14:07                DawnGraphiteCache
d-----         2025/4/18     14:07                DawnWebGPUCache
d-----         2025/4/18     14:07                Dictionaries
d-----         2025/4/18     14:07                GPUCache
d-----         2025/4/18     14:07                IndexedDB
d-----         2025/4/18     14:07                Local Storage
d-----         2025/4/18     14:07                logs
d-----         2025/4/18     14:30                Network
d-----         2025/4/18     14:07                Partitions
d-----         2025/4/18     14:29                Session Storage
d-----         2025/4/18     14:07                Shared Dictionary
d-----         2025/4/18     14:07                WebStorage
-a----         2025/4/18     14:07             36 .updaterId
-a----         2025/4/18     14:29             20 config.json
-a----         2025/4/18     14:07            434 Local State
-a----         2025/4/18     14:29             57 Preferences
-a----         2025/4/18     14:09           4096 SharedStorage
-a----         2025/4/18     14:30            140 window-state.json

Configuration de la base de connaissances Dify

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Configuration de la base de connaissances Dify

La base de connaissances Dify MCP nécessite de mettre à jour Cherry Studio vers la version v1.2.9 ou supérieure.

Ajouter un serveur MCP pour la base de connaissances Dify

  1. Ouvrez 搜索MCP.

  2. Ajoutez le serveur dify-knowledge.

Configurer la base de connaissances Dify

Il est nécessaire de configurer les paramètres et les variables d'environnement

  1. La clé de la base de connaissances Dify peut être obtenue de la manière suivante

Utiliser le MCP de la base de connaissances Dify

macOS

macOS 版本安装教程

Ce document a été traducido del chino por IA y aún no ha sido revisado.

macOS

  1. Tout d'abord, allez sur la page de téléchargement du site officiel et cliquez pour télécharger la version Mac, ou cliquez directement ci-dessous :

Veuillez télécharger la version correspondant à la puce de votre Mac

Si vous ne savez pas quelle version de puce utiliser pour votre Mac :

  • Cliquez sur le menu  dans le coin supérieur gauche de votre Mac

  • Dans le menu déroulant, cliquez sur "À propos de ce Mac"

  • Dans la fenêtre qui s'affiche, consultez les informations sur le processeur

S'il s'agit d'une puce Intel, téléchargez le paquet d'installation Intel

S'il s'agit d'une puce Apple M*, téléchargez le paquet d'installation pour puce Apple

  1. Une fois le téléchargement terminé, cliquez ici

  1. Faites glisser l'icône pour installer

Dans le Launchpad, cherchez l'icône de Cherry Studio et cliquez dessus. Si l'interface principale de Cherry Studio s'ouvre, l'installation a réussi.

GitHub Copilot

Ce document a été traducido del chino por IA y aún no ha sido revisado.

GitHub Copilot

Pour utiliser GitHub Copilot, vous devez d'abord disposer d'un compte GitHub et souscrire au service GitHub Copilot. L'abonnement gratuit est possible, mais la version gratuite ne prend pas en charge le dernier modèle Claude 3.7. Pour plus de détails, consultez le site officiel de GitHub Copilot.

Obtenir le Device Code

Cliquez sur « Se connecter à GitHub » pour obtenir le Device Code et copiez-le.

Obtenir le Device Code

Remplir le Device Code dans le navigateur et autoriser

Après avoir obtenu le Device Code, cliquez sur le lien pour ouvrir le navigateur. Connectez-vous à votre compte GitHub, saisissez le Device Code et autorisez l'accès.

Autorisation GitHub

Après autorisation réussie, revenez à Cherry Studio et cliquez sur « Connecter GitHub ». Une fois connecté, votre nom d'utilisateur et votre avatar GitHub s'afficheront.

Connexion GitHub réussie

Cliquer sur « Gérer » pour obtenir la liste des modèles

Cliquez sur le bouton « Gérer » ci-dessous pour récupérer automatiquement la liste des modèles actuellement pris en charge.

Obtenir la liste des modèles

Questions fréquentes

Échec d'obtention du Device Code, veuillez réessayer

Échec d'obtention du Device Code

Les requêtes actuelles utilisent Axios, qui ne prend pas en charge les proxy SOCKS. Utilisez un proxy système ou HTTP, ou ne configurez pas de proxy dans CherryStudio pour utiliser un proxy global. Assurez-vous d'abord que votre connexion réseau est normale pour éviter cet échec.

Vertex AI

暂时不支持Claude模型

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Vertex AI

Aperçu du tutoriel

1. Obtenir la clé API

  • Avant d'obtenir la clé API de Gemini, vous devez avoir un projet Google Cloud (si vous en avez déjà un, vous pouvez sauter cette étape)

  • Rendez-vous sur Google Cloud pour créer un projet, renseignez le nom du projet et cliquez sur Créer un projet

  • Accédez à la Console Vertex AI

  • Dans le projet créé, activez Vertex AI API

2. Configurer les autorisations d'accès à l'API

  • Ouvrez la page des autorisations du compte de service et créez un compte de service

  • Sur la page de gestion des comptes de service, trouvez le compte que vous venez de créer, cliquez sur Clés et créez une nouvelle clé au format JSON

  • Après création réussie, le fichier clé sera automatiquement enregistré sur votre ordinateur au format JSON. Veuillez le conserver en lieu sûr

3. Configurer Vertex AI dans Cherry Studio

  • Sélectionnez le fournisseur de services Vertex AI

  • Remplissez les champs correspondants du fichier JSON

Cliquez sur Ajouter un modèle, et vous pouvez commencer à l'utiliser avec plaisir !

Guide de la base de connaissances

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Tutoriel de la Base de Connaissances

Dans la version 0.9.1, CherryStudio introduit la fonction tant attendue de Base de Connaissances.

Voici le guide d'utilisation détaillé de CherryStudio, présenté étape par étape.

Ajouter un modèle d'embedding

  1. Recherchez des modèles dans le service de gestion des modèles. Vous pouvez cliquer sur "Modèles d'embedding" pour filtrer rapidement ;

  2. Trouvez le modèle nécessaire et ajoutez-le à Mes modèles.

Créer une base de connaissances

  1. Accès : Dans la barre d'outils gauche de CherryStudio, cliquez sur l'icône Base de connaissances pour accéder à la page de gestion ;

  2. Ajouter : Cliquez sur Ajouter pour commencer la création ;

  3. Nommage : Entrez le nom de la base de connaissances et ajoutez un modèle d'embedding (par exemple bge-m3) pour finaliser la création.

Ajouter des fichiers et vectorisation

  1. Ajout de fichier : Cliquez sur le bouton d'ajout pour ouvrir la sélection de fichiers ;

  2. Sélection : Choisissez des formats supportés (pdf, docx, pptx, xlsx, txt, md, mdx, etc.) ;

  3. Vectorisation : Le système traite automatiquement les fichiers. Lorsqu'un ✓ vert apparaît, la vectorisation est terminée.

Ajouter des données de diverses sources

CherryStudio prend en charge plusieurs méthodes d'import :

  1. Dossiers : Importer un dossier entier – les formats compatibles seront vectorisés automatiquement ;

  2. Liens web : URLs comme ;

  3. Sitemap : Fichiers XML de sitemap, ex : ;

  4. Texte brut : Saisie manuelle de contenu personnalisé.

Conseils :

  1. Les illustrations dans les documents importés ne peuvent pas être vectorisées automatiquement – convertissez-les manuellement en texte ;

  2. L'utilisation d'URLs peut échouer sur certains sites avec mécanismes anti-scraping (ou nécessitant une connexion). Testez toujours par une recherche après création ;

  3. Les sitemaps sont généralement disponibles à l'adresse [domaine]/sitemap.xml (ex : ) ;

  4. Pour les sites sans sitemap :

a) Générez un fichier sitemap via une IA ou un outil de création HTML ; b) Utilisez des liens publics directs (OSS, cloud). L'outil gratuit d' peut générer des liens directs après connexion.

Rechercher dans la base de connaissances

Après vectorisation, lancez une recherche :

  1. Cliquez sur "Rechercher dans la base de connaissances" en bas de page ;

  2. Saisissez votre requête ;

  3. Consultez les résultats ;

  4. Le score de correspondance est affiché pour chaque résultat.

Utiliser la base de connaissances dans les réponses

  1. Dans une nouvelle conversation, cliquez sur l'icône Base de connaissances dans la barre d'outils et sélectionnez une base ;

  2. Posez votre question : le modèle répondra en utilisant les données référencées ;

  3. Les sources utilisées sont attachées à la réponse pour consultation rapide.

Traduction

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Traduction

La fonction de traduction de Cherry Studio vous offre un service de traduction de texte rapide et précis, prenant en charge les traductions entre plusieurs langues.

Aperçu de l'interface

L'interface de traduction comprend principalement les éléments suivants :

  1. Zone de sélection de la langue source :

    • N'importe quelle langue : Cherry Studio détectera automatiquement la langue source et effectuera la traduction.

  2. Zone de sélection de la langue cible :

    • Menu déroulant : Choisissez la langue dans laquelle vous souhaitez traduire le texte.

  3. Bouton Paramètres :

    • Cliquez pour accéder aux .

  4. Défilement synchronisé :

    • Cliquez pour activer/désactiver la synchronisation du défilement (le défilement d'un côté entraîne le défilement de l'autre côté).

  5. Zone de saisie de texte (gauche) :

    • Saisissez ou collez le texte à traduire.

  6. Zone des résultats de traduction (droite) :

    • Affiche le texte traduit.

    • Bouton Copier : Cliquez pour copier le résultat dans le presse-papiers.

  7. Bouton Traduire :

    • Cliquez pour lancer la traduction.

  8. Historique des traductions (coin supérieur gauche) :

    • Cliquez pour consulter l'historique des traductions.

Étapes d'utilisation

  1. Sélectionnez la langue cible :

    • Dans la zone de sélection de la langue cible, choisissez la langue souhaitée.

  2. Saisissez ou collez le texte :

    • Entrez ou collez le texte à traduire dans la zone de gauche.

  3. Lancez la traduction :

    • Cliquez sur le bouton Traduire.

  4. Consultez et copiez les résultats :

    • Le résultat s'affiche dans la zone de droite.

    • Cliquez sur le bouton Copier pour transférer le texte dans le presse-papiers.

Foire aux questions (FAQ)

  • Q : Que faire si la traduction est inexacte ?

    • R : Bien que la traduction IA soit puissante, elle n'est pas parfaite. Pour les textes techniques ou contextes complexes, une relecture humaine est recommandée. Vous pouvez aussi essayer différents modèles.

  • Q : Quelles langues sont prises en charge ?

    • R : La fonction prend en charge de nombreuses langues principales. Consultez le site officiel ou les instructions dans l'application pour la liste complète.

  • Q : Peut-on traduire un fichier entier ?

    • R : L'interface actuelle est conçue pour des textes. Pour les fichiers, accédez à la page de conversation de Cherry Studio pour ajouter des fichiers à traduire.

  • Q : Que faire en cas de lenteur de traduction ?

    • R : La vitesse peut être affectée par le réseau, la longueur du texte ou la charge du serveur. Assurez-vous d'avoir une connexion stable et patientez.

Fournisseur personnalisé

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Fournisseurs Personnalisés

Cherry Studio intègre non seulement les principaux services de modèles d'IA, mais vous offre également une puissante capacité de personnalisation. Grâce à la fonctionnalité Fournisseurs d'IA personnalisés, vous pouvez facilement intégrer n'importe quel modèle d'IA dont vous avez besoin.

Pourquoi avez-vous besoin d'un fournisseur d'IA personnalisé ?

  • Flexibilité : Libérez-vous des limites des listes prédéfinies de fournisseurs, choisissez librement le modèle d'IA qui correspond le mieux à vos besoins.

  • Diversité : Essayez divers modèles d'IA de différentes plateformes, découvrez leurs avantages uniques.

  • Contrôle : Gérez directement vos clés API et adresses d'accès pour garantir la sécurité et la confidentialité.

  • Personnalisation : Intégrez des modèles déployés en privé pour répondre aux besoins de scénarios métiers spécifiques.

Comment ajouter un fournisseur d'IA personnalisé ?

En quelques étapes simples, vous pouvez ajouter votre fournisseur d'IA personnalisé à Cherry Studio :

  1. Ouvrir les paramètres : Dans la barre de navigation de gauche de l'interface Cherry Studio, cliquez sur "Paramètres" (icône d'engrenage).

  2. Accéder aux services de modèles : Dans la page des paramètres, sélectionnez l'onglet "Services de modèles".

  3. Ajouter un fournisseur : Sur la page "Services de modèles", vous verrez la liste des fournisseurs existants. Cliquez sur le bouton "+ Ajouter" sous la liste pour ouvrir la fenêtre contextuelle "Ajouter un fournisseur".

  4. Remplir les informations : Dans la fenêtre contextuelle, vous devez remplir les informations suivantes :

    • Nom du fournisseur : Attribuez un nom facilement identifiable à votre fournisseur personnalisé (exemple : MyCustomOpenAI).

    • Type de fournisseur : Sélectionnez le type de votre fournisseur dans la liste déroulante. Actuellement pris en charge :

      • OpenAI

      • Gemini

      • Anthropic

      • Azure OpenAI

  5. Enregistrer la configuration : Après avoir rempli les informations, cliquez sur le bouton "Ajouter" pour sauvegarder votre configuration.

Configurer un fournisseur d'IA personnalisé

Après l'ajout, vous devez trouver le fournisseur que vous venez d'ajouter dans la liste et effectuer une configuration détaillée :

  1. État d'activation : À l'extrémité droite de la liste des fournisseurs personnalisés se trouve un interrupteur d'activation. L'activer signifie que ce service personnalisé est activé.

  2. Clé API :

    • Saisissez la clé API (API Key) fournie par votre fournisseur de services d'IA.

    • Cliquez sur le bouton "Vérifier" à droite pour vérifier la validité de la clé.

  3. Adresse API :

    • Renseignez l'adresse d'accès API (Base URL) du service d'IA.

    • Veuillez consulter la documentation officielle de votre fournisseur d'IA pour obtenir l'adresse API correcte.

  4. Gestion des modèles :

    • Cliquez sur le bouton "+ Ajouter" pour ajouter manuellement l'ID du modèle que vous souhaitez utiliser sous ce fournisseur. Par exemple gpt-3.5-turbo, gemini-pro, etc.

    * Si vous n'êtes pas sûr du nom exact du modèle, référez-vous à la documentation officielle de votre fournisseur d'IA. * Cliquez sur le bouton "Gérer" pour modifier ou supprimer les modèles déjà ajoutés.

Commencer à utiliser

Une fois la configuration ci-dessus terminée, vous pouvez sélectionner votre fournisseur d'IA personnalisé et votre modèle dans l'interface de chat de Cherry Studio pour commencer à dialoguer avec l'IA !

Utiliser vLLM comme fournisseur d'IA personnalisé

vLLM est une bibliothèque d'inférence LLM rapide et facile à utiliser, similaire à Ollama. Voici comment l'intégrer à Cherry Studio :

  1. Installer vLLM : Suivez la documentation officielle de vLLM () pour l'installer.

  2. Lancer le service vLLM : Démarrez le service en utilisant l'interface compatible OpenAI fournie par vLLM. Deux méthodes principales sont disponibles :

    • Lancer via vllm.entrypoints.openai.api_server

    • Lancer via uvicorn

Assurez-vous que le service démarre avec succès et qu'il écoute sur le port par défaut 8000. Vous pouvez également spécifier le port du service vLLM avec le paramètre --port.

  1. Ajouter le fournisseur vLLM dans Cherry Studio :

    • Suivez les étapes décrites précédemment pour ajouter un nouveau fournisseur d'IA personnalisé.

    • Nom du fournisseur : vLLM

    • Type de fournisseur : Sélectionnez OpenAI.

  2. Configurer le fournisseur vLLM :

    • Clé API : vLLM ne nécessitant pas de clé API, vous pouvez laisser ce champ vide ou saisir n'importe quel contenu.

    • Adresse API : Renseignez l'adresse API du service vLLM. Par défaut, l'adresse est : http://localhost:8000/ (si un port différent est utilisé, modifiez-le en conséquence).

    • Gestion des modèles : Ajoutez le nom du modèle que vous avez chargé dans vLLM. Dans l'exemple python -m vllm.entrypoints.openai.api_server --model gpt2, vous devez saisir gpt2.

  3. Commencer à dialoguer : Vous pouvez désormais sélectionner le fournisseur vLLM et le modèle gpt2 dans Cherry Studio pour dialoguer avec le LLM alimenté par vLLM !

Astuces et conseils

  • Lire attentivement la documentation : Avant d'ajouter un fournisseur personnalisé, lisez attentivement la documentation officielle de votre fournisseur d'IA pour connaître les informations clés telles que la clé API, l'adresse d'accès et les noms de modèles.

  • Vérifier la clé API : Utilisez le bouton "Vérifier" pour confirmer rapidement la validité de votre clé API et éviter les erreurs.

  • Attention à l'adresse API : L'adresse API peut varier selon les fournisseurs et modèles d'IA, assurez-vous de saisir l'adresse correcte.

  • Ajouter les modèles selon les besoins : N'ajoutez que les modèles que vous utiliserez réellement, évitez d'en ajouter trop inutilement.

Comment poser des questions efficacement

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Méthodes pour poser des questions efficacement

Cherry Studio est un projet gratuit et open source. À mesure que le projet se développe, la charge de travail de l'équipe augmente également. Afin de réduire les coûts de communication et de résoudre vos problèmes rapidement et efficacement, nous vous demandons de suivre les étapes et méthodes ci-dessous avant de poser des questions. Cela permettra à l'équipe de consacrer plus de temps à la maintenance et au développement du projet. Merci pour votre coopération !

1. Consultation et recherche de la documentation

La plupart des problèmes fondamentaux peuvent être résolus en consultant attentivement la documentation :

  • Pour les questions sur les fonctionnalités et l'utilisation du logiciel, consultez la documentation ;

  • Les questions fréquentes sont répertoriées dans la page - vérifiez d'abord s'il existe une solution ;

  • Des problèmes plus complexes peuvent être résolus directement via la recherche ou en posant des questions dans la barre de recherche ;

  • Lisez attentivement le contenu des encadrés d'information dans chaque document - cela vous évitera de nombreux problèmes ;

  • Consultez ou recherchez des problèmes et solutions similaires sur la page de GitHub.

2. Recherche sur Internet, interroger l'IA

Pour les problèmes liés à l'utilisation des modèles mais non liés aux fonctionnalités du client (tels que les erreurs des modèles, des réponses inattendues, ou les paramètres), il est recommandé de :

  • Rechercher d'abord des solutions sur Internet,

  • Ou décrire le contenu de l'erreur et le problème à une IA pour trouver des solutions.

3. Poser des questions dans la communauté officielle ou ouvrir un issue sur GitHub

Si les deux premières étapes ne donnent pas de réponse ou ne résolvent pas votre problème :

  • Accédez à la chaîne officielle ,

  • ,

  • Ou (),

  • Et décrivez le problème en détail.

  1. Pour les erreurs de modèle : Fournissez une capture d'écran complète et les informations d'erreur de la console. Les informations sensibles peuvent être masquées, mais le nom du modèle, les paramètres et le contenu de l'erreur doivent figurer dans la capture. Méthode pour consulter les erreurs de la console : .

  2. Pour les bugs logiciels : Fournissez une description précise de l'erreur et des étapes détaillées de pour faciliter le débogage. Si le problème est intermittent, décrivez le contexte, l'environnement et les paramètres de configuration. Mentionnez également les informations sur la plateforme (Windows, Mac ou Linux) et la version du logiciel.

Demande de documentation ou suggestions

Contactez la chaîne Telegram @Wangmouuu, QQ (1355873789) ou envoyez un e-mail à : [email protected].

Fonctionnalités
Questions fréquentes
Issue
Telegram
Discord
Rejoindre directement
Cliquez ici
https://docs.siliconflow.cn/introduction
https://docs.siliconflow.cn/sitemap.xml
sitemap de CherryStudio
ocoolAI
paramètres des modèles par défaut
pip install vllm # si vous utilisez pip
uv pip install vllm # si vous utilisez uv
python -m vllm.entrypoints.openai.api_server --model gpt2
vllm --model gpt2 --served-model-name gpt2
https://docs.vllm.ai/en/latest/getting_started/quickstart.html
Exemple d'obtention du Device Code
Autorisation GitHub
Connexion GitHub réussie
Obtenir la liste des modèles
Échec d'obtention du Device Code

Guide de configuration Obsidian

数据设置→Obsidian配置

Ce document a été traducido del chino por IA y aún no ha sido revisado.

# Tutoriel de configuration d'Obsidian

Cherry Studio prend en charge l'intégration avec Obsidian pour exporter des conversations complètes ou des messages individuels vers une bibliothèque Obsidian.

{% hint style="warning" %}
Ce processus ne nécessite pas l'installation de plugiciels Obsidian supplémentaires. Cependant, puisque le principe d'importation de Cherry Studio vers Obsidian est similaire à Obsidian Web Clipper, il est recommandé de mettre à jour Obsidian vers la dernière version (la version actuelle d'Obsidian doit être supérieure à **1.7.2**). Ceci évite les [échecs d'importation lors de conversations trop longues](https://github.com/obsidianmd/obsidian-clipper/releases/tag/0.7.0).
{% endhint %}

## Tutoriel récent

{% hint style="info" %}
Comparée à l'ancienne version, la nouvelle fonction d'exportation vers Obsidian sélectionne automatiquement le chemin de la bibliothèque, sans nécessiter la saisie manuelle du nom de bibliothèque ou du dossier.
{% endhint %}

### Étape 1 : Configurer Cherry Studio

Ouvrez les _Paramètres_ de Cherry Studio → _Paramètres des données_ → Menu _Configuration d'Obsidian_. Les noms des bibliothèques Obsidian ouvertes localement apparaîtront dans la liste déroulante. Sélectionnez votre bibliothèque cible :

<figure><img src="../.gitbook/assets/image (142).png" alt=""><figcaption></figcaption></figure>

### Étape 2 : Exporter une conversation

#### Exporter une conversation complète

Retournez à l'interface de conversation de Cherry Studio, cliquez droit sur une conversation, sélectionnez _Exporter_, puis cliquez sur _Exporter vers Obsidian_ :

<figure><img src="../.gitbook/assets/image (143).png" alt=""><figcaption></figcaption></figure>

Une fenêtre s'affiche pour configurer les **Propriétés** de la note, l'**emplacement du dossier** dans Obsidian et le **mode de traitement** :

* **Bibliothèque** : Sélectionnez d'autres bibliothèques via le menu déroulant
* **Chemin** : Choisissez le dossier de destination via le menu déroulant
* Propriétés de la note Obsidian :
  * Étiquettes (tags)
  * Date de création (created)
  * Source (source)
* **Modes de traitement** disponibles :
  * **Nouveau (remplace si existant)** : Crée une nouvelle note dans le dossier spécifié, remplace les notes existantes homonymes
  * **Préfixer** : Ajoute le contenu au début d'une note existante homonyme
  * **Suffixer** : Ajoute le contenu à la fin d'une note existante homonyme

{% hint style="info" %}
Seul le premier mode inclut les propriétés. Les deux autres modes ne les conservent pas.
{% endhint %}

<figure><img src="../.gitbook/assets/image (144).png" alt=""><figcaption><p>Configurer les propriétés de la note</p></figcaption></figure>

<figure><img src="../.gitbook/assets/image (145).png" alt=""><figcaption><p>Sélectionner le chemin</p></figcaption></figure>

<figure><img src="../.gitbook/assets/image (146).png" alt=""><figcaption><p>Choisir le mode de traitement</p></figcaption></figure>

Après sélection, cliquez sur **Confirmer** pour exporter la conversation vers le dossier cible d'Obsidian.

#### Exporter un message individuel

Cliquez sur le _menu à trois barres_ sous un message → _Exporter_ → _Exporter vers Obsidian_ :

<figure><img src="../.gitbook/assets/image (147).png" alt=""><figcaption><p>Exporter un message individuel</p></figcaption></figure>

La même fenêtre de configuration que pour une conversation complète s'affiche. Suivez les [instructions ci-dessus](obsidian.md#dao-chu-wan-zheng-dui-hua) pour finaliser.

### Exportation réussie

🎉 Félicitations ! Vous avez terminé la configuration d'intégration Obsidian et mené à bien le processus d'exportation.

<figure><img src="../.gitbook/assets/image (140).png" alt=""><figcaption><p>Exportation vers Obsidian</p></figcaption></figure>

<figure><img src="../.gitbook/assets/image (139).png" alt=""><figcaption><p>Vérifier le résultat</p></figcaption></figure>

***

## Ancien tutoriel (pour Cherry Studio < v1.1.13)

### Étape 1 : Préparer Obsidian

Ouvrez une bibliothèque Obsidian et créez un `dossier` pour les conversations exportées (exemple : dossier Cherry Studio) :

<figure><img src="../.gitbook/assets/image (127).png" alt=""><figcaption></figcaption></figure>

Notez le nom de `bibliothèque` encadré en bas à gauche.

### Étape 2 : Configurer Cherry Studio

Dans _Paramètres_ → _Paramètres des données_ → _Configuration d'Obsidian_, saisissez le nom de `bibliothèque` et de `dossier` obtenus à l'[étape 1](obsidian.md#di-yi-bu) :

<figure><img src="../.gitbook/assets/image (129).png" alt=""><figcaption></figcaption></figure>

Le champ `Étiquettes globales` est optionnel pour définir les étiquettes des notes exportées.

### Étape 3 : Exporter une conversation

#### Conversation complète

Cliquez droit sur une conversation → _Exporter_ → _Exporter vers Obsidian_ :

<figure><img src="../.gitbook/assets/image (138).png" alt=""><figcaption><p>Exporter une conversation complète</p></figcaption></figure>

Configurer les **Propriétés** et le **mode de traitement** (identique à la version récente).

#### Message individuel

Cliquez sur le _menu à trois barres_ → _Exporter_ → _Exporter vers Obsidian_ :

<figure><img src="../.gitbook/assets/image (141).png" alt=""><figcaption><p>Exporter un message individuel</p></figcaption></figure>

### Exportation réussie

🎉 Félicitations ! Profitez de l'intégration Obsidian 🎉

<figure><img src="../.gitbook/assets/image (140).png" alt=""><figcaption><p>Exportation vers Obsidian</p></figcaption></figure>

<figure><img src="../.gitbook/assets/image (139).png" alt=""><figcaption><p>Vérifier le résultat</p></figcaption></figure>

Vulgarisation des connaissances

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Vulgarisation des connaissances

Que sont les tokens ?

Les tokens sont l'unité fondamentale de traitement du texte par les modèles d'IA, on peut les comprendre comme les plus petites unités de "pensée" du modèle. Ils ne correspondent pas exactement aux caractères ou mots tels que nous les concevons, mais représentent plutôt une méthode particulière de segmentation du texte spécifique au modèle.

1. Segmentation du chinois

  • Un caractère chinois est généralement encodé en 1-2 tokens

  • Par exemple : "你好" ≈ 2-4 tokens

2. Segmentation de l'anglais

  • Les mots courants représentent généralement 1 token

  • Les mots longs ou peu courants sont décomposés en plusieurs tokens

  • Par exemple :

    • "hello" = 1 token

    • "indescribable" = 4 tokens

3. Caractères spéciaux

  • Les espaces, signes de ponctuation occupent également des tokens

  • Un saut de ligne représente généralement 1 token

Les Tokenizers varient selon les fournisseurs de services, et peuvent même différer entre les modèles d'un même fournisseur. Ces explications visent uniquement à clarifier le concept de token.


Qu'est-ce qu'un Tokenizer ?

Le Tokenizer (outil de segmentation) est l'outil qui permet aux modèles d'IA de convertir du texte en tokens. Il détermine comment découper le texte d'entrée en unités minimales compréhensibles par le modèle.

Pourquoi les Tokenizers diffèrent-ils selon les modèles ?

1. Données d'entraînement différentes

  • Corpus différents entraînant des optimisations distinctes

  • Prise en charge variable des langues multiples

  • Optimisations spécifiques à certains domaines (médical, juridique, etc.)

2. Algorithmes de segmentation différents

  • BPE (Byte Pair Encoding) - Série GPT d'OpenAI

  • WordPiece - Google BERT

  • SentencePiece - Adapté aux scénarios multilingues

3. Objectifs d'optimisation différents

  • Certains privilégient la compression

  • D'autres la préservation sémantique

  • D'autres encore la vitesse de traitement

Impact concret

Un même texte peut produire différents nombres de tokens selon les modèles :

Entrée : "Hello, world!"
GPT-3 : 4 tokens
BERT : 3 tokens
Claude : 3 tokens

Qu'est-ce qu'un modèle d'embedding (Embedding Model) ?

Concept de base : Un modèle d'embedding est une technique convertissant des données discrètes dimensionnelles élevées (texte, images...) en vecteurs continus de basse dimension. Cette conversion permet aux machines de mieux comprendre et traiter des données complexes. Imaginez transformer un puzzle complexe en un simple point de coordonnées qui conserve les caractéristiques clés du puzzle. Dans l'écosystème des grands modèles, il agit comme un "traducteur", transformant des informations humainement compréhensibles en formes numériques calculables par l'IA.

Mode de fonctionnement : En traitement du langage naturel, le modèle d'embedding projette les mots dans un espace vectoriel où les termes sémantiquement proches se regroupent naturellement. Par exemple :

  • Les vecteurs de "roi" et "reine" seront proches

  • Les termes comme "chat" et "chien" formeront un autre groupe

  • Des mots sans lien sémantique comme "voiture" et "pain" seront éloignés

Principaux scénarios d'application :

  • Analyse de texte : classification documentaire, analyse des sentiments

  • Systèmes de recommandation : suggestions de contenu personnalisées

  • Traitement d'images : recherche d'images similaires

  • Moteurs de recherche : optimisation de la recherche sémantique

Avantages clés :

  1. Réduction dimensionnelle : simplification des données complexes

  2. Cohérence sémantique : préservation des informations sémantiques essentielles

  3. Efficacité computationnelle : accélération significative de l'entraînement et de l'inférence

Valeur technique : Les modèles d'embedding sont des composants fondamentaux des systèmes d'IA modernes. Ils fournissent des représentations de données de haute qualité pour les tâches d'apprentissage automatique, constituant une technologie clé dans le développement du traitement du langage naturel et de la vision par ordinateur.


Fonctionnement du modèle d'Embedding dans la recherche de connaissances

Flux de travail de base :

  1. Phase de prétraitement de la base de connaissances

  • Segmentation des documents en chunks (blocs de texte) appropriés

  • Conversion de chaque chunk en vecteur via le modèle d'embedding

  • Stockage des vecteurs et du texte original dans une base de données vectorielle

  1. Phase de traitement des requêtes

  • Conversion de la question utilisateur en vecteur

  • Recherche de contenu similaire dans la base vectorielle

  • Fourniture des résultats pertinents comme contexte au LLM


Qu'est-ce que MCP (Model Context Protocol) ?

MCP est un protocole open source visant à fournir des informations contextuelles aux grands modèles de langage (LLM) de manière standardisée.

  • Analogie : Imaginez MCP comme une "clé USB" pour l'IA. De même qu'une clé USB stocke divers fichiers accessibles sur ordinateur, le serveur MCP peut "brancher" différents "plugins" contextuels. Les LLM peuvent ainsi accéder à ces composants selon leurs besoins, enrichissant leurs capacités par un contexte élargi.

  • Comparaison avec les outils fonctionnels : Les outils fonctionnels traditionnels étendent les capacités des LLM, mais MCP propose une abstraction de niveau supérieur. Alors que les outils fonctionnels sont spécifiques à certaines tâches, MCP offre un mécanisme contextuel modulaire et universel.

Avantages clés de MCP

  1. Standardisation : Interface et format de données unifiés pour une collaboration transparente

  2. Modularité : Décomposition de l'information contextuelle en modules indépendants (plugins)

  3. Flexibilité : Sélection dynamique des plugins contextuels par les LLM

  4. Évolutivité : Architecture ouverte à de nouveaux types de plugins contextuels


Vulgarisation des connaissances

Sauvegarde sur stockage S3 compatible

Ce document a été traducido del chino por IA y aún no ha sido revisado.

La sauvegarde des données de Cherry Studio prend en charge le stockage compatible S3 (stockage objet). Les services de stockage compatibles S3 courants incluent : AWS S3, Cloudflare R2, Alibaba Cloud OSS, Tencent Cloud COS et MinIO.

Grâce au stockage compatible S3, vous pouvez synchroniser les données entre plusieurs appareils via la méthode : Ordinateur A →sauvegarde\xrightarrow{\text{sauvegarde}}sauvegarde​ Stockage S3 →restauration\xrightarrow{\text{restauration}}restauration​ Ordinateur B.

Configuration du stockage compatible S3

  1. Créez un compartiment de stockage d'objets (Bucket) et notez son nom. Il est fortement recommandé de définir le compartiment en lecture/écriture privée pour éviter les fuites de données de sauvegarde !!

  2. Consultez la documentation et accédez à la console du service cloud pour obtenir les informations du stockage compatible S3 telles que Access Key ID, Secret Access Key, Endpoint, Bucket, Region, etc.

    • Endpoint : Adresse d'accès du stockage compatible S3, généralement sous la forme https://<bucket-name>.<region>.amazonaws.com ou https://<ACCOUNT_ID>.r2.cloudflarestorage.com.

    • Region : Région où se trouve le compartiment, par exemple us-west-1, ap-southeast-1, etc. Pour Cloudflare R2, indiquez auto.

    • Bucket : Nom du compartiment.

    • Access Key ID et Secret Access Key : Informations d'identification pour l'authentification.

    • Root Path : Optionnel, spécifie le chemin racine lors de la sauvegarde dans le compartiment, vide par défaut.

    • Documentation associée

      • AWS S3 : Obtenir Access Key ID et Secret Access Key

      • Cloudflare R2 : Obtenir Access Key ID et Secret Access Key

      • Alibaba Cloud OSS : Obtenir Access Key ID et Access Key Secret

      • Tencent Cloud COS : Obtenir SecretId et SecretKey

  3. Dans les paramètres de sauvegarde S3, remplissez les informations ci-dessus, cliquez sur le bouton Sauvegarder pour effectuer la sauvegarde, et cliquez sur le bouton Gérer pour afficher et gérer la liste des fichiers de sauvegarde.

Contrat de licence commerciale Cherry Studio

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Cherry Studio Accord de Licence

L'utilisation ou la distribution de toute partie ou élément des Matériaux Cherry Studio implique que vous avez pris connaissance et accepté le contenu du présent Accord, qui prend effet immédiatement.

I. Définitions

  1. Le présent Accord de Licence Cherry Studio (ci-après "l’Accord") désigne les termes et conditions régissant l'utilisation, la copie, la distribution et la modification des Matériaux.

  2. "Nous" (ou "Notre") désigne Shanghai Qianhui Technology Co., Ltd.

  3. "Vous" (ou "Votre") désigne toute personne physique ou entité légale exerçant les droits accordés par le présent Accord et/ou utilisant les Matériaux à quelque fin que ce soit et dans tout domaine d'utilisation.

  4. "Tiers" désigne toute personne ou entité légale ne partageant aucun lien de contrôle avec Nous ou Vous.

  5. "Cherry Studio" désigne le logiciel concerné, comprenant sans limitation [exemples : bibliothèques principales, éditeur, extensions, projets d'exemple], ainsi que le code source, la documentation, les exemples de code et tout autre élément distribué avec ce dernier. (Veuillez décrire précisément selon la composition réelle de Cherry Studio)

  6. "Matériaux" désigne collectivement Cherry Studio et la documentation (et toute partie de ceux-ci), propriété exclusive de Shanghai Qianhui Technology Co., Ltd., fournis sous le présent Accord.

  7. "Forme Source" désigne la forme privilégiée pour apporter des modifications, comprenant notamment le code source, les fichiers sources de documentation et les fichiers de configuration.

  8. "Forme Objet" désigne toute forme résultant d'une transformation mécanique ou d'une traduction de la Forme Source, comprenant notamment le code objet compilé, la documentation générée et les formats convertis vers d'autres types de médias.

  9. "Utilisation Commerciale" désigne toute fin présentant un avantage ou bénéfice commercial direct ou indirect, incluant notamment la vente, la licence, l'abonnement, la publicité, le marketing, la formation, les services de conseil, etc.

  10. "Modification" désigne tout changement, adaptation, création dérivée ou développement secondaire apporté à la Forme Source des Matériaux, incluant notamment la modification du nom de l'application, du logo, du code, des fonctionnalités, de l'interface, etc.

II. Octroi de droits

  1. Utilisation commerciale gratuite (Code non modifié uniquement) : Nous Vous accordons, sous réserve des termes et conditions du présent Accord, une licence non exclusive, mondiale, non cessible, exempte de redevances, pour utiliser, copier, distribuer les Matériaux non modifiés, y compris à des fins d'Utilisation Commerciale, conformément à Nos droits de propriété intellectuelle ou autres droits existants dans les Matériaux.

  2. Licence commerciale (si nécessaire) : Sous réserve de remplir les conditions énoncées à l'article III "Licence Commerciale", Vous devez obtenir une licence commerciale écrite explicite de Notre part pour exercer les droits en vertu du présent Accord.

III. Licence commerciale

Vous devez Nous contacter et obtenir une licence commerciale écrite explicite avant de continuer à utiliser les Matériaux Cherry Studio dans les cas suivants :

  1. Modifications et créations dérivées : Vous modifiez les Matériaux ou effectuez un développement dérivé basé sur ceux-ci (incluant notamment la modification du nom de l'application, du logo, du code, des fonctionnalités, de l'interface, etc.).

  2. Services d'entreprise : Vous fournissez des services basés sur Cherry Studio au sein de Votre entreprise ou pour des clients entreprises, prenant en charge 10 utilisateurs cumulés ou plus.

  3. Vente groupée avec matériel : Vous préinstallez ou intégrez Cherry Studio dans un équipement ou produit matériel pour une vente groupée.

  4. Approvisionnement à grande échelle par des institutions publiques ou éducatives : Votre cas d'usage relève d'un projet d'approvisionnement à grande échelle par des institutions gouvernementales ou éducatives, notamment impliquant des exigences sensibles (sécurité, confidentialité des données).

  5. Service cloud public : Vous proposez un service cloud public basé sur Cherry Studio.

IV. Redistribution

Vous pouvez distribuer des copies des Matériaux non modifiés ou les fournir dans le cadre d'un produit ou service contenant des Matériaux non modifiés, sous Forme Source ou Forme Objet, à condition de :

  1. Fournir une copie du présent Accord à tout autre destinataire des Matériaux ;

  2. Conserver dans toutes les copies des Matériaux que Vous distribuez l'avis d'attribution suivant, placé dans un fichier "NOTICE" ou texte similaire distribué avec ces copies : `"Cherry Studio est licencié sous les termes du Cherry Studio LICENSE AGREEMENT, Copyright (c) 上海千彗科技有限公司. Tous droits réservés."`

V. Règles d'utilisation

  1. Les Matériaux peuvent être soumis à des contrôles ou restrictions à l'exportation. Vous devez respecter les lois et règlements applicables lors de leur utilisation.

  2. Si Vous utilisez les Matériaux ou leurs résultats pour créer, entraîner, affiner ou améliorer un logiciel ou modèle destiné à être distribué, Nous Vous encourageons à indiquer clairement "Built with Cherry Studio" ou "Powered by Cherry Studio" dans la documentation associée.

VI. Propriété intellectuelle

  1. Nous conservons la propriété de tous les droits de propriété intellectuelle sur les Matériaux et les œuvres dérivées créées par ou pour Nous. Sous réserve du respect du présent Accord, la propriété des Modifications et œuvres dérivées créées par Vous sera définie dans la licence commerciale applicable. Sans licence commerciale, Vous ne détenez aucun droit de propriété sur Vos Modifications/œuvres dérivées ; celles-ci restent Notre propriété.

  2. Aucune licence d'utilisation de Nos marques commerciales, marques déposées, marques de service ou noms de produits n'est accordée, sauf pour s'acquitter des obligations de notification ou pour une utilisation raisonnable et usuelle dans la description/redistribution des Matériaux.

  3. Si Vous engagez une action en justice (y compris une demande reconventionnelle) contre Nous ou toute entité, alléguant que les Matériaux ou leurs résultats enfreignent Vos droits de propriété intellectuelle, toutes les licences accordées par le présent Accord prendront fin à la date d'introduction de la procédure.

VII. Exclusion de garantie et limitation de responsabilité

  1. Nous n'avons aucune obligation de support, de mise à jour, de formation ou de développement de nouvelles versions des Matériaux, ni d'accorder de licences connexes.

  2. Les Matériaux sont fournis "TELS QUELS", sans garantie expresse ou implicite (y compris de qualité marchande, de non-contrefaçon ou d'adéquation à un usage particulier). Nous n'offrons aucune garantie concernant leur sécurité/stabilité.

  3. En aucun cas Nous ne serons responsables envers Vous des dommages résultant de l'utilisation ou de l'impossibilité d'utiliser les Matériaux ou leurs résultats, notamment tout dommage direct, indirect, spécial ou consécutif.

  4. Vous Nous défendrez, indemniserez et Nous tiendrez indemnes de toute réclamation faite par un Tiers liée à Votre utilisation ou distribution des Matériaux.

VIII. Durée et résiliation

  1. Le présent Accord prend effet lors de Votre acceptation ou accès aux Matériaux et reste valide jusqu'à résiliation selon ses termes.

  2. Nous pouvons résilier l'Accord en cas de violation de Vos obligations. Après résiliation, Vous cesserez d'utiliser les Matériaux. Les articles VII, IX et "II. Accord du contributeur" (si applicable) survivront à la résiliation.

IX. Droit applicable et juridiction

  1. Le présent Accord et tout litige y afférent sont régis par le droit chinois.

  2. Tout litige né du présent Accord relève de la compétence exclusive des tribunaux populaires de Shanghai.

CSS personnalisé

Ce document a été traducido del chino por IA y aún no ha sido revisado.

CSS personnalisé

En personnalisant le CSS, vous pouvez modifier l'apparence du logiciel pour qu'elle corresponde mieux à vos préférences, par exemple comme ceci :

CSS personnalisé
:root {
  --color-background: #1a462788;
  --color-background-soft: #1a4627aa;
  --color-background-mute: #1a462766;
  --navbar-background: #1a4627;
  --chat-background: #1a4627;
  --chat-background-user: #28b561;
  --chat-background-assistant: #1a462722;
}

#content-container {
  background-color: #2e5d3a !important;
}

Variables intégrées

:root {
  font-family: "汉仪唐美人" !important; /* police de caractères */
}

/* Couleur du texte en mode réflexion approfondie */
.ant-collapse-content-box .markdown {
  color: red;
}

/* Variables de thème */
:root {
  --color-black-soft: #2a2b2a; /* couleur de fond sombre */
  --color-white-soft: #f8f7f2; /* couleur de fond claire */
}

/* Thème sombre */
body[theme-mode="dark"] {
  /* Couleurs */
  --color-background: #2b2b2b; /* couleur de fond sombre */
  --color-background-soft: #303030; /* couleur de fond claire */
  --color-background-mute: #282c34; /* couleur de fond neutre */
  --navbar-background: var(-–color-black-soft); /* couleur de fond de la barre de navigation */
  --chat-background: var(–-color-black-soft); /* couleur de fond du chat */
  --chat-background-user: #323332; /* couleur de fond des messages utilisateur */
  --chat-background-assistant: #2d2e2d; /* couleur de fond des messages de l'assistant */
}

/* Styles spécifiques au thème sombre */
body[theme-mode="dark"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* couleur de fond du conteneur */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* couleur de fond des messages */
  }

  .inputbar-container {
    background-color: #3d3d3a; /* couleur de fond de la zone de saisie */
    border: 1px solid #5e5d5940; /* couleur de bordure de la zone de saisie */
    border-radius: 8px; /* rayon de bordure de la zone de saisie */
  }

  /* Styles de code */
  code {
    background-color: #e5e5e20d; /* couleur de fond du code */
    color: #ea928a; /* couleur du texte du code */
  }

  pre code {
    color: #abb2bf; /* couleur du texte du code préformaté */
  }
}

/* Thème clair */
body[theme-mode="light"] {
  /* Couleurs */
  --color-white: #ffffff; /* blanc */
  --color-background: #ebe8e2; /* couleur de fond claire */
  --color-background-soft: #cbc7be; /* couleur de fond claire */
  --color-background-mute: #e4e1d7; /* couleur de fond neutre */
  --navbar-background: var(-–color-white-soft); /* couleur de fond de la barre de navigation */
  --chat-background: var(-–color-white-soft); /* couleur de fond du chat */
  --chat-background-user: #f8f7f2; /* couleur de fond des messages utilisateur */
  --chat-background-assistant: #f6f4ec; /* couleur de fond des messages de l'assistant */
}

/* Styles spécifiques au thème clair */
body[theme-mode="light"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* couleur de fond du conteneur */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* couleur de fond des messages */
  }

  .inputbar-container {
    background-color: #ffffff; /* couleur de fond de la zone de saisie */
    border: 1px solid #87867f40; /* couleur de bordure de la zone de saisie */
    border-radius: 8px; /* rayon de bordure de la zone de saisie (ajustez à votre convenance) */
  }

  /* Styles de code */
  code {
    background-color: #3d39290d; /* couleur de fond du code */
    color: #7c1b13; /* couleur du texte du code */
  }

  pre code {
    color: #000000; /* couleur du texte du code préformaté */
  }
}

Pour plus de variables de thème, consultez le code source : https://github.com/CherryHQ/cherry-studio/tree/main/src/renderer/src/assets/styles

Recommandations connexes

Bibliothèque de thèmes Cherry Studio : https://github.com/boilcy/cherrycss

Partage de thèmes Cherry Studio de style chinois : https://linux.do/t/topic/325119/129

Ollama

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Ollama

Ollama est un excellent outil open source qui vous permet d'exécuter et de gérer facilement divers grands modèles de langage (LLM) localement. Cherry Studio prend désormais en charge l'intégration d'Ollama, vous permettant d'interagir directement avec des LLM déployés localement dans une interface familière, sans dépendre des services cloud !

Qu'est-ce qu'Ollama ?

Ollama est un outil qui simplifie le déploiement et l'utilisation des grands modèles de langage (LLM). Il présente les caractéristiques suivantes :

  • Exécution locale : Les modèles s'exécutent entièrement sur votre ordinateur local, sans nécessiter de connexion Internet, protégeant ainsi votre vie privée et la sécurité de vos données.

  • Simplicité d'utilisation : Avec de simples commandes en ligne de commande, vous pouvez télécharger, exécuter et gérer divers LLM.

  • Modèles variés : Prend en charge de nombreux modèles open source populaires tels que Llama 2, Deepseek, Mistral, Gemma, etc.

  • Multiplateforme : Compatible avec les systèmes macOS, Windows et Linux.

  • API ouverte : Prend en charge une interface compatible avec OpenAI, permettant une intégration avec d'autres outils.

Pourquoi utiliser Ollama dans Cherry Studio ?

  • Pas de service cloud nécessaire : Plus de limitations de quotas ou de frais liés aux API cloud, profitez pleinement de la puissance des LLM locaux.

  • Confidentialité des données : Toutes vos données de conversation restent sur votre appareil local, vous n'avez pas à craindre la fuite de vos données privées.

  • Disponible hors ligne : Vous pouvez continuer à interagir avec le LLM même sans connexion Internet.

  • Personnalisation : Vous pouvez sélectionner et configurer le LLM qui vous convient le mieux selon vos besoins.

Configurer Ollama dans Cherry Studio

1. Installer et exécuter Ollama

Tout d'abord, vous devez installer et exécuter Ollama sur votre ordinateur. Suivez ces étapes :

  • Télécharger Ollama : Visitez le site officiel d'Ollama (https://ollama.com/), téléchargez le package d'installation correspondant à votre système d'exploitation. Pour Linux, vous pouvez directement exécuter la commande suivante pour installer Ollama :

    curl -fsSL https://ollama.com/install.sh | sh
  • Installer Ollama : Suivez les instructions de l'installateur pour terminer l'installation.

  • Télécharger un modèle : Ouvrez un terminal (ou invite de commandes), utilisez la commande ollama run pour télécharger le modèle que vous souhaitez utiliser. Par exemple, pour télécharger le modèle Llama 2, vous pouvez exécuter :

    ollama run llama3.2

    Ollama téléchargera et exécutera automatiquement ce modèle.

  • Gardez Ollama en cours d'exécution : Pendant que vous interagissez avec les modèles Ollama via Cherry Studio, assurez-vous qu'Ollama reste en cours d'exécution.

2. Ajouter Ollama en tant que fournisseur de services dans Cherry Studio

Ensuite, ajoutez Ollama en tant que fournisseur de services d'IA personnalisé dans Cherry Studio :

  • Ouvrir les paramètres : Dans la barre de navigation gauche de l'interface Cherry Studio, cliquez sur "Paramètres" (icône d'engrenage).

  • Accéder aux services de modèle : Sur la page des paramètres, sélectionnez l'onglet "Services de modèle".

  • Ajouter un fournisseur : Cliquez sur Ollama dans la liste.

3. Configurer le fournisseur de services Ollama

Dans la liste des fournisseurs de services, trouvez l'Ollama que vous venez d'ajouter et configurez-le en détail :

  1. État d'activation :

    • Assurez-vous que l'interrupteur à l'extrême droite du fournisseur Ollama est activé, indiquant qu'il est en service.

  2. Clé API :

    • Ollama n'a pas besoin par défaut d'une clé API. Vous pouvez laisser ce champ vide ou y mettre n'importe quel contenu.

  3. Adresse API :

    • Remplissez l'adresse de l'API locale fournie par Ollama. Généralement, l'adresse est :

      http://localhost:11434/

      Si vous avez modifié le port, ajustez-le en conséquence.

  4. Temps de maintien en activité : Cette option définit la durée de maintien de la session en minutes. Si aucune nouvelle conversation n'a lieu dans le temps imparti, Cherry Studio se déconnecte automatiquement d'Ollama pour libérer des ressources.

  5. Gestion des modèles :

    • Cliquez sur le bouton "+ Ajouter" pour ajouter manuellement le nom du modèle que vous avez déjà téléchargé dans Ollama.

    • Par exemple, si vous avez téléchargé le modèle llama3.2 via ollama run llama3.2, vous pouvez entrer llama3.2 ici.

    • Cliquez sur le bouton "Gérer" pour modifier ou supprimer les modèles ajoutés.

Commencer à utiliser

Une fois la configuration ci-dessus terminée, vous pouvez dans l'interface de chat de Cherry Studio, sélectionner le fournisseur de services Ollama et le modèle que vous avez téléchargé, et commencer à dialoguer avec votre LLM local !

Conseils et astuces

  • Première exécution d'un modèle : Lors de la première exécution d'un modèle, Ollama a besoin de télécharger les fichiers du modèle, ce qui peut prendre du temps, soyez patient.

  • Voir les modèles disponibles : Exécutez la commande ollama list dans un terminal pour voir la liste des modèles Ollama que vous avez téléchargés.

  • Exigences matérielles : L'exécution de grands modèles de langage nécessite certaines ressources informatiques (CPU, mémoire, GPU), assurez-vous que la configuration de votre ordinateur répond aux exigences du modèle.

  • Documentation d'Ollama : Vous pouvez cliquer sur le lien Voir la documentation et les modèles d'Ollama dans la page de configuration pour accéder rapidement à la documentation officielle d'Ollama.

Questions fréquentes

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Foire aux questions (FAQ)

Codes d'erreur courants

  • 4xx (Codes d'état d'erreur client) : Généralement des erreurs de syntaxe de requête, d'authentification ou d'autorisation empêchant le traitement de la requête.

  • 5xx (Codes d'état d'erreur serveur) : Généralement des erreurs côté serveur comme un serveur inaccessible ou des délais de traitement dépassés.

Code d'erreur
Cas possibles
Solution

Comment voir les erreurs dans la console

  • Cliquez sur la fenêtre du client Cherry Studio, puis appuyez sur le raccourci clavier Ctrl + Shift + I (macOS : Command + Option + I)

  • La fenêtre active doit être celle du client Cherry Studio pour ouvrir la console ;

  • Ouvrez la console avant de lancer des tests ou des requêtes pour collecter les informations.

  • Dans la console ouverte, cliquez sur Network → Cherchez dans la zone ② le dernier élément marqué d'un × rouge nommé completions (pour les erreurs de dialogue/traduction) ou generations (pour les erreurs de génération d'images) → Cliquez sur Response pour voir le message complet (zone ④ sur l'image).

Si vous ne parvenez pas à identifier la cause de l'erreur, envoyez une capture d'écran de cette interface au .

Cette méthode fonctionne aussi pour les tests de modèles, l'ajout de bases de connaissances, ou la génération d'images. Ouvrez toujours la console avant de lancer les opérations.

Les noms dans la colonne Name (zone ②) varient selon le contexte :

Dialogues/traduction/vérification de modèle : completions

Génération d'images : generations

Création de base de connaissances : embeddings


Formules non rendues / Erreurs de rendu

  • Si les formules s'affichent en code, vérifiez les délimiteurs :

Utilisation des délimiteurs

Formule en ligne

  • Un dollar unique : $formule$

  • Ou \( et \) : \(formule\)

Bloc de formule

  • Deux dollars : $$formule$$

  • Ou \[formule\]

  • Exemple : $$\sum_{i=1}^n x_i$$

  • Si le rendu est corrompu (surtout avec du chinois dans les formules), basculez vers le moteur de rendu KateX.


Impossible de créer une base de connaissances / Échec de récupération des dimensions d'embedding

  1. Modèle indisponible

Vérifiez si le fournisseur supporte ce modèle ou son état de service.

  1. Utilisation d'un modèle non-embedding


Le modèle ne reconnaît pas les images / Impossible d'uploader/sélectionner des images

Vérifiez d'abord si le modèle supporte la reconnaissance d'images. Dans Cherry Studio, les modèles populaires sont classés : une icône d'œil 👁️ après le nom indique cette capacité.

Les modèles compatibles permettent l'upload d'images. Si cette option n'apparaît pas, dans la liste des modèles du fournisseur, cliquez sur l'icône de paramètres et cochez "Image".

Les spécifications des modèles sont disponibles chez chaque fournisseur. Comme pour les embeddings, cocher l'option sur des modèles non-visuels n'aura aucun effet.

Sauvegarde WebDAV

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Cherry Studio prend en charge la sauvegarde des données via le protocole WebDAV. Vous pouvez choisir un service WebDAV adapté pour effectuer des sauvegardes dans le cloud.

Basé sur WebDAV, il est possible de synchroniser les données entre plusieurs appareils via le schéma : Ordinateur A WebDAV Ordinateur B.

Exemple avec Nutstore

  1. Connectez-vous à Nutstore, cliquez sur votre nom d'utilisateur en haut à droite et sélectionnez "Informations du compte" :

  1. Choisissez "Options de sécurité" puis cliquez sur "Ajouter une application" :

  1. Entrez le nom de l'application et générez un mot de passe aléatoire :

  1. Copiez et enregistrez le mot de passe :

  1. Récupérez l'adresse du serveur, le compte et le mot de passe :

  1. Dans les paramètres de Cherry Studio → Paramètres des données, renseignez les informations WebDAV :

  1. Sélectionnez la sauvegarde ou la restauration des données, et configurez si besoin la périodicité des sauvegardes automatiques :

Les services WebDAV les plus accessibles sont généralement les solutions de stockage cloud :

  • (abonnement requis)

  • (achat requis)

  • (espace gratuit de 10 Go, limitation à 250 Mo par fichier)

  • (2 Go gratuits, extensibles à 16 Go par parrainage)

  • (10 Go gratuits + 5 Go supplémentaires par invitation)

  • (10 Go pour les utilisateurs gratuits)

Solutions nécessitant un déploiement autonome :

PPIO

Ce document a été traducido del chino por IA y aún no ha sido revisado.

PPIO 派欧云

Intégration de PPIO LLM API à Cherry Studio

Aperçu du tutoriel

Cherry Studio est un client desktop multi-modèles, compatible actuellement avec Windows, Linux et macOS. Il agrège les principaux modèles LLM et offre une assistance multi-scénarios. Les utilisateurs peuvent améliorer leur productivité grâce à une gestion intelligente des conversations, une personnalisation open source et des interfaces multi-thèmes.

Cherry Studio est désormais entièrement compatible avec les canaux API hautes performances de PPIO – en assurant une puissance de calcul professionnelle pour offrir des réponses rapides DeepSeek-R1/V3 et une disponibilité de service de 99,9%, vous garantissant une expérience fluide.

Le tutoriel ci-dessous contient la procédure complète d'intégration (incluant la configuration des clés), vous permettant d'activer le mode avancé « Cherry Studio + API hautes performances PPIO » en 3 minutes.

1. Accéder à CherryStudio et ajouter "PPIO" comme fournisseur de modèles

Commencez par télécharger Cherry Studio sur le site officiel : (si le lien ne fonctionne pas, vous pouvez utiliser ce lien alternatif Quark : )

(1) Cliquez d'abord sur l'icône des paramètres en bas à gauche, définissez le nom du fournisseur sur : PPIO, puis cliquez sur "Confirmer"

(2) Rendez-vous sur la , cliquez sur 【Avatar】→【Gestion des clés API】 pour accéder au panneau de contrôle

Cliquez sur le bouton 【+ Créer】 pour générer une nouvelle clé API. Attribuez-lui un nom personnalisé. La clé n'est visible qu'au moment de sa création : copiez-la impérativement et sauvegardez-la, sous peine de compromettre son utilisation ultérieure.

(3) Dans CherryStudio, collez la clé Cliquez sur les paramètres, sélectionnez 【PPIO 派欧云】, saisissez la clé API générée sur le site, puis cliquez sur 【Vérifier】

(4) Sélectionnez un modèle : prenons l'exemple de deepseek/deepseek-r1/community. Pour en changer, remplacez simplement le nom.

Les versions DeepSeek R1 et V3 community sont fournies à titre exploratoire. Ce sont des modèles complets et non limités, avec une stabilité et des performances identiques. Pour des appels intensifs, rechargez votre compte et basculez vers une version non-community.

2. Configuration d'utilisation des modèles

(1) Une fois la 【vérification】 réussie, l'utilisation normale est possible

(2) Enfin, cliquez sur 【@】 et sélectionnez le modèle DeepSeek R1 nouvellement ajouté sous le fournisseur PPIO pour démarrer une conversation !

【Source partielle du matériel : 】

3. Tutoriel vidéo PPIO × Cherry Studio

Pour un apprentissage visuel, nous proposons un tutoriel vidéo sur Bilibili. Ce guide pas à pas vous permettra de maîtriser rapidement la configuration « PPIO API + Cherry Studio ». Cliquez sur le lien ci-dessous pour accéder à la vidéo et démarrer une expérience de développement fluide →

【Source vidéo : sola】

400

Format incorrect du corps de la requête, etc.

Vérifiez le contenu de l'erreur renvoyé dans la conversation ou consultez la console pour voir le message d'erreur, puis suivez les instructions.

[Cas fréquent 1] : Pour les modèles Gemini, une activation de carte bancaire peut être nécessaire ; [Cas fréquent 2] : Taille de données dépassée (surtout avec les modèles visuels). Les images dépassant la limite de taille renverront cette erreur ; [Cas fréquent 3] : Paramètre non supporté ou mal configuré. Testez avec un assistant vierge ; [Cas fréquent 4] : Limite de contexte dépassée. Effacez le contexte, démarrez une nouvelle conversation ou réduisez le nombre de messages contextuels.

401

Authentification échouée : modèle non supporté ou compte banni

Contactez le fournisseur de services ou vérifiez l'état du compte

403

Droits insuffisants pour l'opération

Suivez les instructions de l'erreur renvoyée ou dans la console

404

Ressource introuvable

Vérifiez le chemin de la requête

422

Syntaxe correcte mais erreur sémantique

Erreur dans l'interprétation JSON (ex: valeur nulle ; nombre/boolean au lieu d'une chaîne)

429

Limite de taux de requête atteinte

Attendez avant de réessayer (dépassement TPM ou RPM)

500

Erreur interne du serveur

Contactez le fournisseur de services si persistant

501

Fonctionnalité non supportée

502

Réponse invalide d'un serveur intermédiaire

503

Serveur surchargé/en maintenance

Vérifiez l'en-tête Retry-After pour le délai

504

Délai dépassé par un serveur intermédiaire

∑i=1nxi\sum_{i=1}^n x_i∑i=1n​xi​
groupe de discussion officiel
→sauvegarde\xrightarrow{\text{sauvegarde}}sauvegarde​
→restauration\xrightarrow{\text{restauration}}restauration​
Nutstore
123 Pan
Aliyun Drive
Box
Dropbox
TeraCloud
Yandex Disk
Alist
Cloudreve
Sharelist

Paramètres des données

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Paramétrage des données

Mode connecté gratuit

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Mode en ligne gratuit

​
​
https://cherry-ai.com/download
https://pan.quark.cn/s/c8533a1ec63e#/list/share
gestion des clés API de PPIO
​
Chen En
​
《 Vous en avez marre des délais d'attente DeepSeek ? PPIO + DeepSeek full-speed = ? Fini les congestions, démarrage immédiat 》
Cherry Studio - 全能的AI助手Cherry Studio
Cherry Studio - 全能的AI助手Cherry Studio

Informations de référence des modèles d'embedding

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Informations de référence sur les modèles d'incorporation

Pour éviter les erreurs, certaines valeurs de « max input » dans ce document ne sont pas indiquées comme limites extrêmes. Par exemple : lorsque la limite officielle est de 8k (sans valeur exacte précisée), la valeur de référence donnée dans ce document est 8191 ou 8000, etc. (Si ce n'est pas clair, ignorez et utilisez simplement la valeur de référence indiquée dans le document.)

Volcano-Doubao

Adresse de référence officielle des modèles

Nom
max input

Doubao-embedding

4095

Doubao-embedding-vision

8191

Doubao-embedding-large

4095

Alibaba

Adresse de référence officielle des modèles

Nom
max input

text-embedding-v3

8192

text-embedding-v2

2048

text-embedding-v1

2048

text-embedding-async-v2

2048

text-embedding-async-v1

2048

OpenAI

Adresse de référence officielle des modèles

Nom
max input

text-embedding-3-small

8191

text-embedding-3-large

8191

text-embedding-ada-002

8191

Baidu

Adresse de référence officielle des modèles

Nom
max input

Embedding-V1

384

tao-8k

8192

Zhipu

Adresse de référence officielle des modèles

Nom
max input

embedding-2

1024

embedding-3

2048

Hunyuan

Adresse de référence officielle des modèles

Nom
max input

hunyuan-embedding

1024

Baichuan

Adresse de référence officielle des modèles

Nom
max input

Baichuan-Text-Embedding

512

Together

Adresse de référence officielle des modèles

Nom
max input

M2-BERT-80M-2K-Retrieval

2048

M2-BERT-80M-8K-Retrieval

8192

M2-BERT-80M-32K-Retrieval

32768

UAE-Large-v1

512

BGE-Large-EN-v1.5

512

BGE-Base-EN-v1.5

512

Jina

Adresse de référence officielle des modèles

Nom
max input

jina-embedding-b-en-v1

512

jina-embeddings-v2-base-en

8191

jina-embeddings-v2-base-zh

8191

jina-embeddings-v2-base-de

8191

jina-embeddings-v2-base-code

8191

jina-embeddings-v2-base-es

8191

jina-colbert-v1-en

8191

jina-reranker-v1-base-en

8191

jina-reranker-v1-turbo-en

8191

jina-reranker-v1-tiny-en

8191

jina-clip-v1

8191

jina-reranker-v2-base-multilingual

8191

reader-lm-1.5b

256000

reader-lm-0.5b

256000

jina-colbert-v2

8191

jina-embeddings-v3

8191

SiliconFlow

Adresse de référence officielle des modèles

Nom
max input

BAAI/bge-m3

8191

netease-youdao/bce-embedding-base_v1

512

BAAI/bge-large-zh-v1.5

512

BAAI/bge-large-en-v1.5

512

Pro/BAAI/bge-m3

8191

Gemini

Adresse de référence officielle des modèles

Nom
max input

text-embedding-004

2048

Nomic

Adresse de référence officielle des modèles

Nom
max input

nomic-embed-text-v1

8192

nomic-embed-text-v1.5

8192

gte-multilingual-base

8192

Console

Adresse de référence officielle des modèles

Nom
max input

embedding-query

4000

embedding-passage

4000

Cohere

Adresse de référence officielle des modèles

Nom
max input

embed-english-v3.0

512

embed-english-light-v3.0

512

embed-multilingual-v3.0

512

embed-multilingual-light-v3.0

512

embed-english-v2.0

512

embed-english-light-v2.0

512

embed-multilingual-v2.0

256

Configuration des fournisseurs de modèles

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Paramètres du fournisseur

Cette page présente uniquement les fonctionnalités de l'interface. Pour le didacticiel de configuration, reportez-vous au didacticiel dans les didacticiels de base.

  • Lorsque vous utilisez un fournisseur intégré, il suffit de saisir la clé correspondante.

  • Différents fournisseurs peuvent utiliser des termes différents pour la clé : clé secrète, Key, API Key, jeton, etc., mais ils désignent tous la même chose.

Clé API

Dans Cherry Studio, un seul fournisseur prend en charge l'utilisation de plusieurs clés en rotation. La rotation s'effectue en bouclant de la première à la dernière clé de la liste.

  • Saisissez plusieurs clés en les séparant par des virgules. Exemple :

Vous devez utiliser une virgule anglaise.

URL de l'API

Il n'est généralement pas nécessaire de saisir l'URL de l'API lors de l'utilisation d'un fournisseur intégré. Si vous avez besoin de la modifier, veuillez saisir strictement l'URL fournie par la documentation officielle correspondante.

Si le fournisseur donne une adresse au format https://xxx.xxx.com/v1/chat/completions, ne saisissez que la partie racine de l'adresse (https://xxx.xxx.com).

Cherry Studio ajoutera automatiquement le reste du chemin (/v1/chat/completions). Si vous ne suivez pas ces instructions, cela pourrait empêcher un fonctionnement normal.

Remarque : La route du modèle de grand langage est uniforme pour la plupart des fournisseurs. En général, il n'est pas nécessaire d'effectuer les opérations suivantes. Si le chemin de l'API du fournisseur est v2, v3/chat/completions ou une autre version, vous pouvez saisir manuellement la version correspondante dans la barre d'adresse en terminant par '/'. Lorsque la route de requête du fournisseur n'est pas le /v1/chat/completions conventionnel, utilisez l'adresse complète fournie par le fournisseur et terminez par #.

À savoir :

  • Lorsque l'URL de l'API se termine par /, seul "chat/completions" est ajouté

  • Lorsque l'URL de l'API se termine par #, aucune concaténation n'est effectuée et seule l'adresse saisie est utilisée

Ajouter des modèles

En général, en cliquant sur le bouton Gérer en bas à gauche de la page de configuration du fournisseur, vous obtiendrez automatiquement tous les modèles pouvant être appelés par ce fournisseur. Cliquez ensuite sur le + à côté de chaque modèle dans la liste obtenue pour l'ajouter à la liste des modèles.

Les modèles de la liste contextuelle lors du clic sur le bouton "Gérer" ne sont pas tous ajoutés. Vous devez cliquer sur le + à droite du modèle pour l'ajouter à la liste des modèles de la page de configuration du fournisseur, afin qu'il apparaisse dans la liste de sélection des modèles.

Vérification de la connectivité

Cliquez sur le bouton de vérification à côté du champ de saisie de la clé API pour tester si la configuration a réussi.

Par défaut, la vérification du modèle utilise le dernier modèle de dialogue ajouté à la liste. Si la vérification échoue, vérifiez la liste des modèles pour voir s'il y a des modèles incorrects ou non pris en charge.

Une fois la configuration réussie, assurez-vous d'activer le commutateur en haut à droite. Sinon, le fournisseur restera désactivé et les modèles correspondants ne seront pas disponibles dans la liste des modèles.

sk-xxxx1,sk-xxxx2,sk-xxxx3,sk-xxxx4
Configuration des fournisseurs

Déploiement et configuration locale de SearXNG

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Déploiement et configuration de SearXNG

CherryStudio prend en charge les recherches sur le web via SearXNG, un projet open source pouvant être déployé localement ou sur un serveur. Son mode de configuration diffère légèrement des autres solutions nécessitant des fournisseurs d'API.

Lien du projet SearXNG : SearXNG

Avantages de SearXNG

  • Open source et gratuit, sans API nécessaire

  • Respect élevé de la vie privée

  • Hautement personnalisable

Déploiement local

1. Déploiement direct via Docker

Comme SearXNG ne nécessite pas de configuration environnementale complexe, vous pouvez le déployer simplement en fournissant un port libre sans utiliser docker compose. La méthode la plus rapide consiste à utiliser Docker pour extraire directement l'image et la déployer.

1. Télécharger et configurer Docker

Après l'installation, choisissez un chemin de stockage pour l'image :

2. Rechercher et extraire l'image SearXNG

Entrez searxng dans la barre de recherche :

Extraire l'image :

3. Exécuter l'image

Après l'extraction réussie, accédez à la page Images :

Sélectionnez l'image extraite et cliquez sur Exécuter :

Ouvrez les paramètres pour configurer :

Exemple avec le port 8085 :

Après le succès de l'exécution, cliquez sur le lien pour ouvrir l'interface frontale de SearXNG :

Cette page indique que le déploiement a réussi :

Déploiement sur serveur

Comme l'installation de Docker sous Windows peut être complexe, les utilisateurs peuvent déployer SearXNG sur un serveur et le partager avec d'autres. Malheureusement, SearXNG ne prend pas encore en charge l'authentification nativement, permettant ainsi à d'autres personnes de scanner et d'utiliser abusivement votre instance déployée.

Cherry Studio prend désormais en charge la configuration de l'authentification HTTP de base (RFC7617). Si vous exposez votre SearXNG déployé sur Internet, il est impératif de configurer cette authentification via un logiciel de proxy inverse comme Nginx. Voici un bref tutoriel qui nécessite des connaissances de base en administration Linux.

Déployer SearXNG

De manière similaire, utilisez Docker pour le déploiement. Supposons que vous ayez déjà installé Docker CE sur le serveur selon le tutoriel officiel. Voici des commandes complètes pour une installation neuve sous Debian :

sudo apt update
sudo apt install git -y

# Extraire le dépôt officiel
cd /opt
git clone https://github.com/searxng/searxng-docker.git
cd /opt/searxng-docker

# Si la bande passante de votre serveur est limitée, définissez sur false
export IMAGE_PROXY=true

# Modifier le fichier de configuration
cat <<EOF > /opt/searxng-docker/searxng/settings.yml
# voir https://docs.searxng.org/admin/settings/settings.html#settings-use-default-settings
use_default_settings: true
server:
  # base_url est défini dans la variable d'environnement SEARXNG_BASE_URL, voir .env et docker-compose.yml
  secret_key: $(openssl rand -hex 32)
  limiter: false  # peut être désactivé pour une instance privée
  image_proxy: $IMAGE_PROXY
ui:
  static_use_hash: true
redis:
  url: redis://redis:6379/0
search:
  formats:
    - html
    - json
EOF

Si vous devez modifier le port d'écoute local ou réutiliser un Nginx existant, éditez le fichier docker-compose.yaml comme suit :

version: "3.7"

services:
# Si Caddy n'est pas nécessaire et que vous réutilisez un Nginx local existant, supprimez cette section.
  caddy:
    container_name: caddy
    image: docker.io/library/caddy:2-alpine
    network_mode: host
    restart: unless-stopped
    volumes:
      - ./Caddyfile:/etc/caddy/Caddyfile:ro
      - caddy-data:/data:rw
      - caddy-config:/config:rw
    environment:
      - SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost}
      - SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}
    cap_drop:
      - ALL
    cap_add:
      - NET_BIND_SERVICE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"
# Si Caddy n'est pas nécessaire et que vous réutilisez un Nginx local existant, supprimez cette section.
  redis:
    container_name: redis
    image: docker.io/valkey/valkey:8-alpine
    command: valkey-server --save 30 1 --loglevel warning
    restart: unless-stopped
    networks:
      - searxng
    volumes:
      - valkey-data2:/data
    cap_drop:
      - ALL
    cap_add:
      - SETGID
      - SETUID
      - DAC_OVERRIDE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

  searxng:
    container_name: searxng
    image: docker.io/searxng/searxng:latest
    restart: unless-stopped
    networks:
      - searxng
    # Par défaut mappé sur le port 8080 de l'hôte, si vous voulez écouter sur 8000, remplacez par "127.0.0.1:8000:8080"
    ports:
      - "127.0.0.1:8080:8080"
    volumes:
      - ./searxng:/etc/searxng:rw
    environment:
      - SEARXNG_BASE_URL=https://${SEARXNG_HOSTNAME:-localhost}/
      - UWSGI_WORKERS=${SEARXNG_UWSGI_WORKERS:-4}
      - UWSGI_THREADS=${SEARXNG_UWSGI_THREADS:-4}
    cap_drop:
      - ALL
    cap_add:
      - CHOWN
      - SETGID
      - SETUID
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

networks:
  searxng:

volumes:
# Si Caddy n'est pas nécessaire et que vous réutilisez un Nginx local existant, supprimez cette section
  caddy-data:
  caddy-config:
# Si Caddy n'est pas nécessaire et que vous réutilisez un Nginx local existant, supprimez cette section
  valkey-data2:

Exécutez docker compose up -d pour démarrer. Visualisez les journaux avec docker compose logs -f searxng.

Déployer le proxy inverse Nginx et l'authentification HTTP de base

Si vous utilisez des panneaux de serveur comme Baota ou 1Panel, consultez leur documentation pour ajouter un site et configurer le proxy inverse Nginx. Modifiez ensuite le fichier de configuration Nginx comme dans l'exemple ci-dessous :

server
{
    listen 443 ssl;

    # Votre nom d'hôte
    server_name search.example.com;

    # index index.html;
    # root /data/www/default;

    # Si SSL est configuré, ajoutez ces deux lignes
    ssl_certificate    /path/to/your/cert/fullchain.pem;
    ssl_certificate_key    /path/to/your/cert/privkey.pem;

    # HSTS
    # add_header Strict-Transport-Security "max-age=31536000; includeSubDomains; preload";

    # Configuration proxy inverse standard
    location / {
        # Ajoutez ces deux lignes dans le bloc location, conservez le reste
        auth_basic "Veuillez saisir votre nom d'utilisateur et mot de passe";
        auth_basic_user_file /etc/nginx/conf.d/search.htpasswd;

        proxy_http_version 1.1;
        proxy_set_header Connection "";
        proxy_redirect off;
        proxy_set_header Host $host;
        proxy_set_header X-Forwarded-For $proxy_protocol_addr;
        proxy_pass http://127.0.0.1:8000;
        client_max_body_size 0;
    }

    # access_log  ...;
    # error_log  ...;
}

Supposons que le fichier de configuration Nginx soit dans /etc/nginx/conf.d, placez-y également le fichier de mots de passe.

Exécutez la commande (remplacez example_name et example_password par vos identifiants) :

echo "example_name:$(openssl passwd -5 'example_password')" > /etc/nginx/conf.d/search.htpasswd

Redémarrez Nginx (ou rechargez la configuration).

Ouvrez ensuite la page web. Vous devriez être invité à saisir vos identifiants. Entrez ceux définis précédemment pour vérifier la configuration.

Configuration dans Cherry Studio

Une fois SearXNG déployé localement ou sur serveur, procédez à la configuration dans CherryStudio.

Accédez à la page des paramètres de recherche web et sélectionnez Searxng :

La validation échoue si vous entrez directement l'URL du déploiement local :

Cela est dû au format JSON non activé par défaut. Modifiez le fichier de configuration.

Revenez à Docker, dans l'onglet Fichiers, trouvez le dossier avec les étiquettes :

Déroulez et trouvez un autre dossier étiqueté :

Localisez le fichier de configuration settings.yml :

Ouvrez l'éditeur de fichiers :

À la ligne 78, seul le format html est présent :

Ajoutez le format json, enregistrez et réexécutez l'image :

Revenez dans Cherry Studio pour valider :

L'adresse peut être locale : http://localhost:port Ou l'adresse Docker : http://host.docker.internal:port

Pour les déploiements serveur avec proxy inverse et format json activé, la validation retournera l'erreur 401 si l'authentification HTTP est configurée :

Configurez l'authentification HTTP de base dans le client avec vos identifiants :

La validation devrait alors réussir.

Autres configurations

SearXNG possède désormais une capacité de recherche par défaut. Pour personnaliser les moteurs de recherche, configurez manuellement.

Notez que ces préférences n'affectent pas la configuration appelée par le grand modèle :

Pour configurer les moteurs utilisés par le grand modèle, modifiez le fichier de configuration :

Référence de configuration linguistique :

Si le contenu est trop long, copiez-le dans un IDE local, modifiez-le et collez-le dans le fichier de configuration.

Causes courantes d'échec de validation

Format de retour sans JSON

Ajoutez json aux formats de retour dans le fichier de configuration :

Moteur de recherche mal configuré

Cherry Studio sélectionne par défaut les moteurs avec des catégories web et general. Google étant souvent inaccessible en Chine, forcez l'utilisation de Baidu :

use_default_settings:
  engines:
    keep_only:
      - baidu
engines:
  - name: baidu
    engine: baidu 
    categories: 
      - web
      - general
    disabled: false

Taux de requêtes trop élevé

Désactivez le limiteur de SearXNG dans les paramètres :

Classement des modèles

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Ce classement est généré automatiquement à partir des données de Chatbot Arena (lmarena.ai).

Dernière mise à jour des données : 2025-07-08 11:43:23 UTC / 2025-07-08 19:43:23 CST (Heure de Pékin)

Cliquez sur le nom du modèle dans le classement pour accéder à ses détails ou à une page de test.

Classement

Rang (UB)
Rang (StyleCtrl)
Nom du modèle
Score
Intervalle de confiance
Votes
Fournisseur
Licence
Date de fin des connaissances

1

1

1477

+5/-5

15,769

Google

Proprietary

Pas de données

2

2

1446

+4/-5

13,997

Google

Proprietary

Pas de données

3

3

1429

+4/-4

24,237

OpenAI

Proprietary

Pas de données

3

2

1427

+3/-4

21,965

OpenAI

Proprietary

Pas de données

3

6

1425

+4/-5

12,847

DeepSeek

MIT

Pas de données

3

7

1422

+3/-4

25,763

xAI

Proprietary

Pas de données

5

6

1418

+4/-4

21,209

Google

Proprietary

Pas de données

6

4

1414

+5/-4

15,271

OpenAI

Proprietary

Pas de données

9

7

1398

+5/-5

17,002

Google

Proprietary

Pas de données

9

11

1392

+5/-4

15,758

Alibaba

Apache 2.0

Pas de données

11

6

1384

+3/-4

18,275

OpenAI

Proprietary

Pas de données

11

12

1382

+3/-3

21,008

DeepSeek

MIT

Pas de données

11

17

1380

+6/-5

8,247

Tencent

Proprietary

Pas de données

11

11

1376

+6/-6

8,058

MiniMax

Apache 2.0

Pas de données

13

12

1374

+3/-5

19,430

DeepSeek

MIT

Pas de données

14

19

1370

+4/-4

19,980

Mistral

Proprietary

Pas de données

14

6

1370

+4/-4

20,056

Anthropic

Proprietary

Pas de données

15

23

1367

+4/-4

14,597

Alibaba

Apache 2.0

Pas de données

16

11

1366

+2/-3

29,038

OpenAI

Proprietary

2023/10

16

11

1363

+4/-4

17,974

OpenAI

Proprietary

Pas de données

17

23

1363

+3/-3

32,074

Alibaba

Proprietary

Pas de données

18

25

1363

+3/-3

36,915

Google

Proprietary

Pas de données

18

31

1359

+6/-5

10,561

xAI

Proprietary

Pas de données

19

25

1360

+3/-3

26,443

Google

Gemma

Pas de données

24

31

1344

+12/-7

4,074

Alibaba

Apache 2.0

Pas de données

25

19

1351

+3/-4

33,177

OpenAI

Proprietary

2023/10

25

12

1343

+4/-5

16,050

Anthropic

Proprietary

Pas de données

26

25

1340

+4/-4

19,404

OpenAI

Proprietary

Pas de données

26

32

1337

+7/-8

3,976

Google

Gemma

Pas de données

26

23

1337

+5/-4

17,292

OpenAI

Proprietary

Pas de données

26

31

1334

+4/-4

22,841

DeepSeek

DeepSeek

Pas de données

26

31

1332

+13/-13

2,061

Mistral

Apache 2.0

Pas de données

28

38

1333

+4/-5

18,386

Alibaba

Apache 2.0

Pas de données

29

36

1327

+8/-6

6,028

Zhipu

Proprietary

Pas de données

30

31

1329

+4/-4

26,104

Google

Proprietary

Pas de données

30

56

1327

+5/-7

7,517

Amazon

Proprietary

Pas de données

30

32

1326

+7/-6

6,055

Alibaba

Proprietary

Pas de données

30

31

1321

+10/-11

2,656

Nvidia

Nvidia Open Model

Pas de données

32

32

1326

+3/-3

24,524

Cohere

CC-BY-NC-4.0

Pas de données

33

42

1323

+4/-4

14,229

Alibaba

Apache 2.0

Pas de données

33

38

1321

+7/-8

5,126

StepFun

Proprietary

Pas de données

33

31

1318

+8/-10

2,452

Tencent

Proprietary

Pas de données

34

39

1312

+11/-12

2,371

Nvidia

Nvidia

Pas de données

35

39

1320

+2/-2

54,951

OpenAI

Proprietary

2023/10

35

32

1319

+3/-3

36,971

OpenAI

Proprietary

Pas de données

38

32

1318

+2/-2

58,645

Google

Proprietary

Pas de données

38

33

1312

+8/-10

2,510

Tencent

Proprietary

Pas de données

41

18

1313

+4/-4

25,955

Anthropic

Proprietary

Pas de données

43

58

1307

+7/-8

7,379

Google

Gemma

Pas de données

44

21

1306

+4/-3

30,677

Anthropic

Proprietary

Pas de données

47

48

1304

+2/-2

67,084

xAI

Proprietary

2024/3

47

50

1303

+4/-3

28,968

01 AI

Proprietary

Pas de données

48

35

1301

+2/-2

117,747

OpenAI

Proprietary

2023/10

48

63

1298

+4/-6

10,715

Alibaba

Proprietary

Pas de données

50

25

[Claude 3.5 Sonnet (20241022)](https://www.anthropic.com/news/3.5

Gemini-2.5-Pro
Gemini-2.5-Pro-Preview-05-06
ChatGPT-4o-latest (2025-03-26)
o3-2025-04-16
DeepSeek-R1-0528
Grok-3-Preview-02-24
Gemini-2.5-Flash
GPT-4.5-Preview
Gemini-2.5-Flash-Preview-04-17
Qwen3-235B-A22B-no-thinking
GPT-4.1-2025-04-14
DeepSeek-V3-0324
Hunyuan-Turbos-20250416
Minimax-M1
DeepSeek-R1
Mistral Medium 3
Claude Opus 4 (20250514)
Qwen3-235B-A22B
o1-2024-12-17
o4-mini-2025-04-16
Qwen2.5-Max
Gemini-2.0-Flash-001
Grok-3-Mini-beta
Gemma-3-27B-it
Qwen3-32B
o1-preview
Claude Sonnet 4 (20250514)
o3-mini-high
Gemma-3-12B-it
GPT-4.1-mini-2025-04-14
DeepSeek-V3
Mistral-Small-2506
QwQ-32B
GLM-4-Plus-0111
Gemini-2.0-Flash-Lite
Amazon-Nova-Experimental-Chat-05-14
Qwen-Plus-0125
Llama-3.1-Nemotron-Ultra-253B-v1
Command A (03-2025)
Qwen3-30B-A3B
Step-2-16K-Exp
Hunyuan-TurboS-20250226
Llama-3.3-Nemotron-Super-49B-v1
o1-mini
o3-mini
Gemini-1.5-Pro-002
Hunyuan-Turbo-0110
Claude 3.7 Sonnet (thinking-32k)
Gemma-3n-e4b-it
Claude 3.7 Sonnet
Grok-2-08-13
Yi-Lightning
GPT-4o-2024-05-13
Qwen2.5-plus-1127
Logo
Logo