Cette page uniquementToutes les pages
Propulsé par GitBook
1 sur 92

Français

Cherry Studio

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Tutoriels de base

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Tutoriels base de connaissances

Loading...

Loading...

Loading...

Loading...

Tutoriels avancés

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Contribution

Loading...

Loading...

Assistance

Loading...

Loading...

Loading...

Loading...

Nous contacter

Loading...

Loading...

À propos

Loading...

Autres

Loading...

Loading...

Paramètres

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Configuration

Guide d'installation

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Guide d'installation

Modèles par défaut

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Paramètres des modèles par défaut

Modèle d'assistant par défaut

Lorsqu'aucun modèle d'assistant par défaut n'est défini pour un assistant, le modèle configuré ici sera sélectionné par défaut dans ses nouvelles conversations.

L'optimisation des mots d'incitation (prompts) et l'assistant de sélection de texte utilisent également le modèle défini ici.

Modèle de dénomination des sujets

Après chaque conversation, un modèle est appelé pour générer un nom de sujet à la conversation. Le modèle configuré ici est celui utilisé pour cette dénomination.

Modèle de traduction

Les fonctions de traduction dans les champs de saisie de conversation, de peinture IA, ainsi que le modèle de traduction dans l'interface de traduction utilisent tous le modèle configuré ici.

Modèle d'assistant rapide

Modèle utilisé pour les fonctions d'assistant rapide. Voir détails dans Assistant rapide

Présentation des fonctionnalités

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Aperçu des fonctionnalités

Fichiers

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Documents

L'interface de documents affiche tous les fichiers associés aux conversations, dessins, bases de connaissances, etc. Vous pouvez gérer et consulter ces fichiers de manière centralisée sur cette page.

Paramètres généraux

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Paramètres généraux

Sur cette page, vous pouvez configurer la langue de l'interface logicielle, définir un proxy, etc.

OneAPI et projets dérivés

Ce document a été traducido del chino por IA y aún no ha sido revisado.

OneAPI et ses projets affiliés

Gestion des données

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Cette interface permet d'effectuer des sauvegardes et restaurations locales ou cloud, de consulter le répertoire des données locales et de vider le cache, d'exporter les paramètres et de configurer des connexions tierces.

Sauvegarde des données

Actuellement, la sauvegarde prend en charge trois méthodes : sauvegarde locale, sauvegarde WebDAV et sauvegarde dans un stockage compatible S3 (stockage d'objets). Pour des explications détaillées et des tutoriels, veuillez consulter les documents suivants :

  • Tutoriel de sauvegarde WebDAV

  • Sauvegarde dans un stockage compatible S3

Paramètres d'exportation

Les paramètres d'exportation permettent de configurer les options d'exportation affichées dans le menu. Vous pouvez également définir le chemin par défaut pour l'export Markdown, le style d'affichage, etc.

Connexions tierces

Cette section configure la connexion entre Cherry Studio et des applications tierces pour exporter rapidement le contenu des conversations vers vos outils de gestion des connaissances. Actuellement pris en charge : Notion, Obsidian, SiYuan Note, YuQue et Joplin. Tutoriels de configuration :

  • Configuration pour Notion

  • Configuration pour Obsidian

  • Configuration pour SiYuan Note

Configuration des modèles

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Configuration du service de modèle

Base de connaissances

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Base de connaissances

Pour l'utilisation de la base de connaissances, consultez le tutoriel avancé : Tutoriel sur la base de connaissances.

Agents intelligents

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Agents

La page Agents est une place d'assistants où vous pouvez sélectionner ou rechercher le modèle prédéfini souhaité. En cliquant sur une carte, vous ajouterez l'assistant à la liste des assistants dans la page de conversation.

Vous pouvez également modifier et créer vos propres assistants sur cette page.

  • Cliquez sur Mon espace, puis sur Créer un agent pour commencer à créer votre propre assistant.

Le bouton en haut à droite de la zone de saisie des prompts est un bouton d'optimisation de prompt par IA. Le cliquer remplacera le texte original. Le modèle utilisé est le modèle d'assistant par défaut global.

Raccourcis clavier

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Configuration des raccourcis clavier

Sur cette interface, vous pouvez activer (désactiver) et configurer les raccourcis clavier de certaines fonctionnalités. Suivez les instructions spécifiques affichées sur l'interface pour effectuer les réglages.

Planification du projet

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Planification du projet

Liste des tâches

Mini-programmes

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Mini-programmes

Dans la page des mini-programmes, vous pouvez utiliser les versions web des applications liées à l'IA des principaux fournisseurs directement dans le client. Actuellement, l'ajout et la suppression personnalisés ne sont pas pris en charge.

Mode réseau gratuit

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Mode en ligne gratuit

Personnalisation

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Paramètres personnalisés

Utilisation de MCP

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Tutoriel d'utilisation MCP

Paramètres d'affichage

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Sur cette page, vous pouvez configurer le thème de couleur du logiciel, la mise en page ou personnaliser le CSS pour effectuer des réglages personnalisés.

Sélection du thème

Vous pouvez définir ici le mode de couleur par défaut de l'interface (mode clair, mode sombre ou suivi du système)

Paramètres des conversations

Ces paramètres concernent la mise en page de l'interface de discussion.

Position des conversations

Basculer automatiquement vers la conversation

Lorsque ce paramètre est activé, cliquer sur le nom de l'assistant basculera automatiquement vers la page de conversation correspondante.

Afficher l'heure de la conversation

Lorsqu'activé, affiche l'heure de création sous chaque conversation.

Personnalisation CSS

Ce paramètre permet d'apporter des modifications personnalisées flexibles à l'interface. Voir les méthodes spécifiques dans le tutoriel avancé : Personnalisation CSS.

Dessin IA

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Peinture

La fonction de peinture prend actuellement en charge les modèles de DMXAPI, TokenFlux, AiHubMix et SiliconFlow. Vous pouvez créer un compte sur SiliconFlow et l'ajouter comme fournisseur de services pour l'utiliser.

Pour toute question sur les paramètres, passez votre souris sur le ? dans la zone correspondante pour voir les explications.

Davantage de fournisseurs de services seront ajoutés ultérieurement. Restez à l'écoute !

Configuration des modèles

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Cette page présente uniquement les fonctionnalités de l'interface. Pour le tutoriel de configuration, veuillez consulter dans les tutoriels de base.

  • Lors de l'utilisation de fournisseurs intégrés, il suffit de renseigner la clé correspondante.

  • Les dénominations des clés peuvent varier selon les fournisseurs : clé, Key, API Key, jeton, etc. désignent tous la même chose.

Clé API

Dans Cherry Studio, un seul fournisseur supporte l'utilisation rotative de plusieurs clés via un cycle séquentiel dans la liste.

  • Ajoutez plusieurs clés en les séparant par des virgules anglaises. Par exemple :

Vous devez utiliser des virgules anglaises.

Adresse API

Aucun renseignement n'est généralement nécessaire pour les fournisseurs intégrés. Si modification requise, suivez scrupuleusement l'adresse fournie dans la documentation officielle correspondante.

Si le fournisseur indique une adresse au format https://xxx.xxx.com/v1/chat/completions, saisissez uniquement la partie racine (https://xxx.xxx.com).

Cherry Studio ajoutera automatiquement le chemin restant (/v1/chat/completions). Un format incorrect peut entraîner des dysfonctionnements.

Remarque : La majorité des fournisseurs utilisent des routes unifiées pour les modèles linguistiques. Si le chemin d'API du fournisseur est v2, v3/chat/completions ou une autre version, terminez l'adresse manuellement par "/". Pour les chemins non standard (/v1/chat/completions), utilisez l'adresse complète fournie par le fournisseur et terminez par #.

Ainsi :

  • Les adresses API terminées par / ajoutent uniquement "chat/completions"

  • Les adresses API terminées par # n'effectuent aucun ajout et utilisent exactement l'adresse saisie.

Ajouter un modèle

Cliquez généralement sur le bouton Gérer en bas à gauche de la page de configuration du fournisseur pour récupérer automatiquement tous ses modèles disponibles, puis ajoutez-les à la liste via le +.

Les modèles de la fenêtre contextuelle ne sont pas ajoutés automatiquement. Utilisez le + à droite de chaque modèle pour les intégrer à la liste des configurations, où ils deviendront sélectionnables.

Vérification de la connectivité

Cliquez sur le bouton de vérification situé après le champ de clé API pour tester la configuration.

La vérification utilise par défaut le dernier modèle conversationnel ajouté. En cas d'échec, vérifiez la présence de modèles incorrects ou non supportés dans la liste.

Après une configuration réussie, activez impérativement l'interrupteur en haut à droite, sans quoi le fournisseur restera inactif et ses modèles invisibles.

Windows

Windows 版本安装教程

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Ouvrir le site officiel

Remarque : Windows 7 ne prend pas en charge l'installation de Cherry Studio.

Cliquez pour télécharger et sélectionner la version appropriée

Attendre la fin du téléchargement

Si le navigateur indique que le fichier n'est pas approuvé, etc., choisissez simplement "Conserver"

Choisir Conserver → Faire confiance à Cherry-Studio

Ouvrir le fichier

Installer

macOS

macOS 版本安装教程

Ce document a été traducido del chino por IA y aún no ha sido revisado.

macOS

  1. Tout d'abord, allez sur la page de téléchargement du site officiel et cliquez pour télécharger la version Mac, ou cliquez directement ci-dessous :

Veuillez télécharger la version correspondant à la puce de votre Mac

Si vous ne savez pas quelle version de puce utiliser pour votre Mac :

  • Cliquez sur le menu  dans le coin supérieur gauche de votre Mac

  • Dans le menu déroulant, cliquez sur "À propos de ce Mac"

  • Dans la fenêtre qui s'affiche, consultez les informations sur le processeur

S'il s'agit d'une puce Intel, téléchargez le paquet d'installation Intel

S'il s'agit d'une puce Apple M*, téléchargez le paquet d'installation pour puce Apple

  1. Une fois le téléchargement terminé, cliquez ici

  1. Faites glisser l'icône pour installer

Dans le Launchpad, cherchez l'icône de Cherry Studio et cliquez dessus. Si l'interface principale de Cherry Studio s'ouvre, l'installation a réussi.

Polices recommandées

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Recommandations de polices

SiliconFlow

Ce document a été traducido del chino por IA y aún no ha sido revisado.

SiliconFlow

1. Configurer le service de modèles SiliconCloud

1.2 Cliquez sur Paramètres en bas à gauche, sélectionnez【SiliconFlow】dans Services de modèles

1.2 Obtenir la clé API SiliconCloud

  1. Connectez-vous à (l'inscription est automatique lors de la première connexion)

  2. Accédez aux pour créer ou copier une clé existante

1.3 Cliquez sur Gérer pour ajouter des modèles

2. Utilisation du service de modèles

  1. Cliquez sur le bouton "Conversation" dans le menu de gauche

  2. Saisissez du texte dans la zone de saisie pour commencer à discuter

  3. Changez de modèle via le menu déroulant en haut

FAQ

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Foire Aux Questions (FAQ)

1. mcp-server-time

Solution

Dans la colonne "Paramètres", saisissez :

Réinitialisation CSS

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Effacer les paramètres CSS

Utilisez cette méthode lorsque des paramètres CSS incorrects sont appliqués ou si vous ne pouvez pas accéder à l'interface après avoir défini des CSS.

  • Ouvrez la console, cliquez sur la fenêtre CherryStudio, puis appuyez sur le raccourci Ctrl+Shift+I (macOS : command+option+I).

  • Dans la console qui s'ouvre, cliquez sur Console

  • Saisissez manuellement document.getElementById('user-defined-custom-css').remove() – le copier-coller ne fonctionnera probablement pas.

  • Appuyez sur Entrée pour confirmer et effacer les paramètres CSS, puis retournez dans les paramètres d'affichage de CherryStudio pour supprimer le code CSS problématique.

Installation de MCP

Ce document a été traducido del chino por IA y aún no ha sido revisado.

MCP (Model Context Protocol) est un protocole open-source conçu pour fournir des informations contextuelles aux grands modèles de langage (LLM) de manière standardisée. Pour plus d'informations sur MCP, consultez

Utilisation de MCP dans Cherry Studio

Voici un exemple avec la fonction fetch démontrant comment utiliser MCP dans Cherry Studio. Les détails complets sont disponibles dans la .

Prérequis : Installation de uv et bun

Cherry Studio utilise actuellement uniquement les versions intégrées de et , sans réutiliser les installations existantes de uv et bun sur votre système.

Dans Paramètres → Serveurs MCP, cliquez sur le bouton Installer pour télécharger et installer automatiquement. Le téléchargement direct depuis GitHub peut être lent et échouer fréquemment. L'installation est réussie si les fichiers apparaissent dans les dossiers mentionnés ci-dessous.

Répertoires d'installation des exécutables :

  • Windows : C:\Users\Nom_utilisateur\.cherrystudio\bin

  • macOS/Linux : ~/.cherrystudio/bin

En cas d'échec d'installation :

  1. Créez manuellement le répertoire s'il n'existe pas.

  2. Vous pouvez soit :

    • Créer des liens symboliques vers les commandes système existantes

    • Télécharger manuellement les exécutables aux liens ci-dessous et les placer dans le répertoire :

      • Bun :

      • UV :

Configuration intégrée

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Configuration MCP intégrée

@cherry/mcp-auto-install

Installation automatique du service MCP (version bêta)

@cherry/memory

Implémentation de base de mémoire persistante basée sur un graphe de connaissances local. Cela permet au modèle de mémoriser les informations pertinentes de l'utilisateur entre différentes conversations.

@cherry/sequentialthinking

Implémentation d'un serveur MCP fournissant des outils pour la résolution dynamique et réflexive de problèmes grâce à un processus de pensée structuré.

@cherry/brave-search

Implémentation d'un serveur MCP intégrant l'API de recherche Brave, offrant une double fonctionnalité de recherche web et locale.

@cherry/fetch

Serveur MCP pour récupérer le contenu de pages web via URL.

@cherry/filesystem

Serveur Node.js implémentant le protocole de contexte de modèle (MCP) pour les opérations sur le système de fichiers.

MEMORY_FILE_PATH=/path/to/your/file.json
BRAVE_API_KEY=YOUR_API_KEY

Monaspace

Police anglaise Usage commercial autorisé

GitHub a lancé une famille de polices open source appelée Monaspace, proposant cinq styles différents : Neon (moderne), Argon (humaniste), Xenon (serif), Radon (script) et Krypton (mécanique).

MiSans Global

Multilingue Usage commercial autorisé

MiSans Global est un projet de police personnalisée pour langues mondiales, dirigé par Xiaomi et développé conjointement avec Monotype et HanYi Foundries.

Il s'agit d'une vaste famille de polices couvrant plus de 20 systèmes d'écriture et prenant en charge plus de 600 langues.

mcp-server-time
--local-timezone
<votre fuseau horaire standard, par exemple : Asia/Shanghai>
Capture d'écran d'erreur
sk-xxxx1,sk-xxxx2,sk-xxxx3,sk-xxxx4
Configuration des fournisseurs

CherryIN

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Configuration des données

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Paramétrage des données

​
​
SiliconCloud
Clés API
​
​
documentation
uv
bun
https://github.com/oven-sh/bun/releases
https://github.com/astral-sh/uv/releases
Répertoire bin
Ouvrir le site officiel
Téléchargement en cours avec le navigateur Edge
Liste de téléchargement d'Edge
Interface d'installation du logiciel

Traduction

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Traduction

La fonction de traduction de Cherry Studio vous offre un service de traduction de texte rapide et précis, prenant en charge les traductions entre plusieurs langues.

Aperçu de l'interface

L'interface de traduction comprend principalement les éléments suivants :

  1. Zone de sélection de la langue source :

    • N'importe quelle langue : Cherry Studio détectera automatiquement la langue source et effectuera la traduction.

  2. Zone de sélection de la langue cible :

    • Menu déroulant : Choisissez la langue dans laquelle vous souhaitez traduire le texte.

  3. Bouton Paramètres :

    • Cliquez pour accéder aux paramètres des modèles par défaut.

  4. Défilement synchronisé :

    • Cliquez pour activer/désactiver la synchronisation du défilement (le défilement d'un côté entraîne le défilement de l'autre côté).

  5. Zone de saisie de texte (gauche) :

    • Saisissez ou collez le texte à traduire.

  6. Zone des résultats de traduction (droite) :

    • Affiche le texte traduit.

    • Bouton Copier : Cliquez pour copier le résultat dans le presse-papiers.

  7. Bouton Traduire :

    • Cliquez pour lancer la traduction.

  8. Historique des traductions (coin supérieur gauche) :

    • Cliquez pour consulter l'historique des traductions.

Étapes d'utilisation

  1. Sélectionnez la langue cible :

    • Dans la zone de sélection de la langue cible, choisissez la langue souhaitée.

  2. Saisissez ou collez le texte :

    • Entrez ou collez le texte à traduire dans la zone de gauche.

  3. Lancez la traduction :

    • Cliquez sur le bouton Traduire.

  4. Consultez et copiez les résultats :

    • Le résultat s'affiche dans la zone de droite.

    • Cliquez sur le bouton Copier pour transférer le texte dans le presse-papiers.

Foire aux questions (FAQ)

  • Q : Que faire si la traduction est inexacte ?

    • R : Bien que la traduction IA soit puissante, elle n'est pas parfaite. Pour les textes techniques ou contextes complexes, une relecture humaine est recommandée. Vous pouvez aussi essayer différents modèles.

  • Q : Quelles langues sont prises en charge ?

    • R : La fonction prend en charge de nombreuses langues principales. Consultez le site officiel ou les instructions dans l'application pour la liste complète.

  • Q : Peut-on traduire un fichier entier ?

    • R : L'interface actuelle est conçue pour des textes. Pour les fichiers, accédez à la page de conversation de Cherry Studio pour ajouter des fichiers à traduire.

  • Q : Que faire en cas de lenteur de traduction ?

    • R : La vitesse peut être affectée par le réseau, la longueur du texte ou la charge du serveur. Assurez-vous d'avoir une connexion stable et patientez.

Bailian (Alibaba Cloud)

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Alibaba Cloud Bailian

  1. Connectez-vous à Alibaba Cloud Bailian. Si vous n'avez pas de compte Alibaba Cloud, vous devrez en créer un.

  2. Cliquez sur le bouton Créer mon API-KEY en haut à droite.

Création d'une clé API dans Alibaba Cloud Bailian
  1. Dans la fenêtre contextuelle, sélectionnez l'espace d'affaires par défaut (ou personnalisez-le si vous le souhaitez). Vous pouvez éventuellement ajouter une description.

Fenêtre contextuelle de création de clé API dans Alibaba Cloud Bailian
  1. Cliquez sur le bouton Confirmer en bas à droite.

  2. Vous devriez alors voir une nouvelle ligne apparaître dans la liste. Cliquez sur le bouton Afficher à droite.

    Affichage d'une clé API dans Alibaba Cloud Bailian
  3. Cliquez sur le bouton Copier.

    Copie d'une clé API dans Alibaba Cloud Bailian
  4. Rendez-vous dans Cherry Studio. Accédez à Paramètres → Services de modèle → Alibaba Cloud Bailian, trouvez le champ Clé API et collez-y la clé copiée.

    Saisie d'une clé API dans Alibaba Cloud Bailian
  5. Vous pouvez ajuster les paramètres selon les instructions dans Services de modèle, puis commencer à l'utiliser.

Si les modèles d'Alibaba Cloud Bailian n'apparaissent pas dans la liste, vérifiez que vous avez bien ajouté les modèles selon les instructions dans Services de modèle et que vous avez activé ce fournisseur.

Configuration Notion

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Tutoriel de configuration Notion

Cherry Studio permet d'importer des sujets dans la base de données Notion.

Première étape

Accédez au site Notion Integrations pour créer une application

Cliquez sur le signe plus pour créer une application

Deuxième étape

Créez une application

Remplissez les informations de l'application

Nom : Cherry Studio

Type : Sélectionnez le premier

Icône : Vous pouvez sauvegarder cette image

Troisième étape

Copiez la clé secrète et collez-la dans les paramètres de Cherry Studio

Cliquez pour copier la clé secrète
Collez la clé dans les paramètres de données

Quatrième étape

Ouvrez le site Notion, créez une nouvelle page, sélectionnez le type base de données en bas, nommez-la Cherry Studio, et connectez comme indiqué

Créez une nouvelle page et sélectionnez le type base de données
Entrez le nom de la page et sélectionnez "Connecter à l'application"

Cinquième étape

Copiez l'ID de la base de données

Si l'URL de votre base de données Notion ressemble à ceci :

https://www.notion.so/<long_hash_1>?v=<long_hash_2>

Alors l'ID de la base de données Notion est la partie <long_hash_1>

Entrez l'ID de la base de données et cliquez sur "Vérifier"

Sixième étape

Remplissez le Nom du champ de titre de la page :

Si votre interface est en anglais : saisissez Name Si votre interface est en chinois : saisissez 名称

Remplissez le nom du champ de titre de la page

Septième étape

Félicitations, la configuration Notion est terminée ✅ Vous pouvez désormais exporter du contenu Cherry Studio vers votre base de données Notion

Exporter vers Notion
Voir les résultats de l'exportation

Configuration de la liste noire

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Cherry Studio permet de configurer les listes noires manuellement ou via des sources d'abonnement. Les règles de configuration suivent les références ublacklist.

Configuration manuelle

Vous pouvez ajouter des règles aux résultats de recherche ou cliquer sur l'icône de la barre d'outils pour bloquer des sites spécifiques. Les règles peuvent être définies via :

  • Modèles de correspondance (ex: *://*.example.com/*)

  • Expressions régulières (ex: /example\.(net|org)/)

Configuration par abonnement

Vous pouvez également souscrire à des ensembles de règles publics. Ce site liste certains abonnements : https://iorate.github.io/ublacklist/subscriptions

Voici quelques sources d'abonnement recommandées :

Nom
Lien
Type

https://git.io/ublacklist

Chinois

https://raw.githubusercontent.com/laylavish/uBlockOrigin-HUGE-AI-Blocklist/main/list_uBlacklist.txt

Généré par IA

Configuration de source d'abonnement

GitHub Copilot

Ce document a été traducido del chino por IA y aún no ha sido revisado.

GitHub Copilot

Pour utiliser GitHub Copilot, vous devez d'abord disposer d'un compte GitHub et souscrire au service GitHub Copilot. L'abonnement gratuit est possible, mais la version gratuite ne prend pas en charge le dernier modèle Claude 3.7. Pour plus de détails, consultez le site officiel de GitHub Copilot.

Obtenir le Device Code

Cliquez sur « Se connecter à GitHub » pour obtenir le Device Code et copiez-le.

Obtenir le Device Code

Remplir le Device Code dans le navigateur et autoriser

Après avoir obtenu le Device Code, cliquez sur le lien pour ouvrir le navigateur. Connectez-vous à votre compte GitHub, saisissez le Device Code et autorisez l'accès.

Autorisation GitHub

Après autorisation réussie, revenez à Cherry Studio et cliquez sur « Connecter GitHub ». Une fois connecté, votre nom d'utilisateur et votre avatar GitHub s'afficheront.

Connexion GitHub réussie

Cliquer sur « Gérer » pour obtenir la liste des modèles

Cliquez sur le bouton « Gérer » ci-dessous pour récupérer automatiquement la liste des modèles actuellement pris en charge.

Obtenir la liste des modèles

Questions fréquentes

Échec d'obtention du Device Code, veuillez réessayer

Échec d'obtention du Device Code

Les requêtes actuelles utilisent Axios, qui ne prend pas en charge les proxy SOCKS. Utilisez un proxy système ou HTTP, ou ne configurez pas de proxy dans CherryStudio pour utiliser un proxy global. Assurez-vous d'abord que votre connexion réseau est normale pour éviter cet échec.

Google Gemini

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Google Gemini

Obtenir une clé API

  • Avant d'obtenir la clé API Gemini, vous devez disposer d'un projet Google Cloud (si vous en avez déjà un, cette étape peut être ignorée)

  • Accédez à Google Cloud pour créer un projet, saisissez le nom du projet et cliquez sur "Créer un projet"

  • Sur la page officielle des Clés API, cliquez sur Clé > Créer une clé API

  • Copiez la clé générée et ouvrez les Paramètres du fournisseur de CherryStudio

  • Localisez le fournisseur Gemini, entrez la clé que vous venez d'obtenir

  • Cliquez sur "Gérer" ou "Ajouter" en bas, ajoutez les modèles pris en charge et activez le commutateur du fournisseur en haut à droite pour commencer à l'utiliser.

  • En Chine (à l'exception de Taïwan), le service Google Gemini n'est pas directement accessible ; vous devrez résoudre les problèmes de proxy par vos propres moyens.

Données

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Notes sur le stockage des données

Toutes les données ajoutées à la base de connaissances de Cherry Studio sont stockées localement. Lors de l'ajout, une copie du document est placée dans le répertoire de stockage des données de Cherry Studio.

Diagramme du processus de traitement de la base de connaissances

Base de données vectorielle : https://turso.tech/libsql

Lorsqu'un document est ajouté à la base de connaissances de Cherry Studio, il est découpé en plusieurs segments. Ces segments sont ensuite traités par un modèle d'incorporation.

Lors de l'utilisation d'un grand modèle pour des questions-réponses, les segments de texte pertinents pour la question sont recherchés et transmis ensemble au grand modèle de langage pour traitement.

Si vous avez des exigences concernant la confidentialité des données, il est recommandé d'utiliser une base de données d'incorporation locale et un grand modèle de langage local.

InfiniteAI

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Infini-AI(无问芯穹)

Vous vivez peut-être cette situation : 26 articles utiles épinglés sur WeChat jamais relus, plus de 10 fichiers éparpillés dans votre dossier "Ressources d'apprentissage", cherchant désespérément une théorie lue il y a six mois avec seulement quelques mots-clés en tête. Quand le volume quotidien d'information dépasse la capacité de traitement de votre cerveau, 90% des connaissances précieuses sont oubliées en 72 heures. Désormais, avec l'API de la plateforme de grands modèles Infini-AI + Cherry Studio, vous pouvez créer une base de connaissances personnelle transformant articles WeChat oubliés et contenus fragmentés en savoir structuré, accessible avec précision.

I. Construction de votre base de connaissances personnelle

1. Service API Infini-AI : le « cerveau réflexif » de votre base, fiable et performant

En tant que « cerveau réflexif » de la base de connaissances, la plateforme Infini-AI propose des versions de modèles comme DeepSeek R1 version complète, offrant un service API stable. Actuellement, l'utilisation est gratuite après inscription, sans conditions. Elle prend en charge les modèles d'embedding populaires (bge, jina) pour construire votre base, tout en intégrant continuellement les derniers modèles open-source puissants, incluant des capacités multimodales (images, vidéos, audio).

2. Cherry Studio : construisez votre base sans code

Cherry Studio est un outil IA intuitif. Alors que le développement traditionnel d'une base RAG nécessite 1 à 2 mois, cet outil offre l'avantage d'une configuration zéro code. Importez en un clic des contenus aux formats Markdown/PDF/web. L'analyse d'un fichier de 40MB prend 1 minute. Ajoutez également des dossiers locaux, des articles sauvegardés dans WeChat ou des notes de cours.

II. 3 étapes pour créer votre assistant de savoir personnel

Étape 1 : Préparatifs

  1. Téléchargez Cherry Studio sur le site officiel (https://cherry-ai.com/)

  2. Créez un compte : connectez-vous à la plateforme Infini-AI (https://cloud.infini-ai.com/genstudio/model?cherrystudio)

  3. Obtenez votre clé API : dans la « Place des modèles », choisissez deepseek-r1, cliquez sur Créer et copiez la clé API + le nom du modèle

Étape 2 : Dans les paramètres de Cherry Studio, sélectionnez "Infini-AI", saisissez votre clé API et activez le service

Après ces étapes, choisissez le modèle dans l'interface pour utiliser le service API Infini-Ai dans Cherry Studio. Pour plus de simplicité, vous pouvez définir un « modèle par défaut ».

Étape 3 : Ajoutez une base de connaissances

Sélectionnez un modèle d'embedding (série bge ou jina) de la plateforme Infini-AI.

III. Test réel par un utilisateur

  • Après import de ressources d'apprentissage : "Synthétisez les dérivations clés du chapitre 3 du livre 'Machine Learning'"

Résultat généré :

Sauvegarde S3

Ce document a été traducido del chino por IA y aún no ha sido revisado.

La sauvegarde des données de Cherry Studio prend en charge le stockage compatible S3 (stockage objet). Les services de stockage compatibles S3 courants incluent : AWS S3, Cloudflare R2, Alibaba Cloud OSS, Tencent Cloud COS et MinIO.

Grâce au stockage compatible S3, vous pouvez synchroniser les données entre plusieurs appareils via la méthode : Ordinateur A →sauvegarde\xrightarrow{\text{sauvegarde}}sauvegarde​ Stockage S3 →restauration\xrightarrow{\text{restauration}}restauration​ Ordinateur B.

Configuration du stockage compatible S3

  1. Créez un compartiment de stockage d'objets (Bucket) et notez son nom. Il est fortement recommandé de définir le compartiment en lecture/écriture privée pour éviter les fuites de données de sauvegarde !!

  2. Consultez la documentation et accédez à la console du service cloud pour obtenir les informations du stockage compatible S3 telles que Access Key ID, Secret Access Key, Endpoint, Bucket, Region, etc.

    • Endpoint : Adresse d'accès du stockage compatible S3, généralement sous la forme https://<bucket-name>.<region>.amazonaws.com ou https://<ACCOUNT_ID>.r2.cloudflarestorage.com.

    • Region : Région où se trouve le compartiment, par exemple us-west-1, ap-southeast-1, etc. Pour Cloudflare R2, indiquez auto.

    • Bucket : Nom du compartiment.

    • Access Key ID et Secret Access Key : Informations d'identification pour l'authentification.

    • Root Path : Optionnel, spécifie le chemin racine lors de la sauvegarde dans le compartiment, vide par défaut.

    • Documentation associée

      • AWS S3 : Obtenir Access Key ID et Secret Access Key

      • Cloudflare R2 : Obtenir Access Key ID et Secret Access Key

      • Alibaba Cloud OSS : Obtenir Access Key ID et Access Key Secret

      • Tencent Cloud COS : Obtenir SecretId et SecretKey

  3. Dans les paramètres de sauvegarde S3, remplissez les informations ci-dessus, cliquez sur le bouton Sauvegarder pour effectuer la sauvegarde, et cliquez sur le bouton Gérer pour afficher et gérer la liste des fichiers de sauvegarde.

Assistant rapide

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Assistant Rapide

L'Assistant Rapide est un outil pratique proposé par Cherry Studio qui vous permet d'accéder rapidement aux fonctionnalités d'IA dans n'importe quelle application, permettant ainsi des opérations instantanées comme poser des questions, traduire, résumer et expliquer.

Activer l'Assistant Rapide

  1. Ouvrir les paramètres : Accédez à Paramètres -> Raccourcis -> Assistant Rapide.

  2. Activer l'interrupteur : Localisez et activez le bouton correspondant à Assistant Rapide.

Illustration de l'activation de l'Assistant Rapide
  1. Configurer un raccourci clavier (optionnel) :

    • Raccourci par défaut Windows : Ctrl + E

    • Raccourci par défaut macOS : ⌘ + E

    • Vous pouvez personnaliser le raccourci ici pour éviter les conflits ou l'adapter à vos habitudes.

Utiliser l'Assistant Rapide

  1. Invoquer : Dans n'importe quelle application, appuyez sur votre raccourci configuré (ou le raccourci par défaut) pour ouvrir l'Assistant Rapide.

  2. Interagir : Dans la fenêtre de l'Assistant Rapide, vous pouvez directement effectuer les opérations suivantes :

    • Poser des questions rapides : Interrogez l'IA sur n'importe quel sujet.

    • Traduire du texte : Saisissez le texte à traduire.

    • Résumer du contenu : Entrez un texte long pour en obtenir un résumé.

    • Expliquer des concepts : Saisissez des termes ou concepts nécessitant une explication.

      Illustration de l'interface de l'Assistant Rapide
  3. Fermer : Appuyez sur ESC ou cliquez n'importe où en dehors de la fenêtre pour fermer.

L'Assistant Rapide utilise le modèle de conversation global par défaut.

Astuces et conseils

  • Conflits de raccourcis : Si le raccourci par défaut entre en conflit avec une autre application, modifiez-le.

  • Découvrir plus de fonctionnalités : Au-delà des fonctions documentées, l'Assistant Rapide peut supporter d'autres opérations comme la génération de code ou la conversion de style. Explorez pendant l'utilisation.

  • Retours et améliorations : Si vous rencontrez des problèmes ou avez des suggestions, contactez l'équipe Cherry Studio via les retours.

Configuration SiYuan

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Tutoriel de configuration de SiYuan Note

Permet d'exporter des sujets et messages vers SiYuan Note.

Étape 1

Ouvrez SiYuan Note et créez un carnet

Cliquez pour créer un nouveau carnet

Étape 2

Ouvrez les paramètres du carnet et copiez l'ID du carnet

Ouvrir les paramètres du carnet
Cliquez sur le bouton Copier l'ID du carnet

Étape 3

Collez l'ID du carnet dans les paramètres de Cherry Studio

Entrez l'ID du carnet dans les paramètres des données

Étape 4

Entrez l'adresse de SiYuan Note

  • Local Généralement http://127.0.0.1:6806

  • Auto-hébergé Votre domaine http://note.domain.com

Saisissez votre adresse SiYuan Note

Étape 5

Copiez le Jeton d'API de SiYuan Note

Copier le jeton SiYuan Note

Collez-le dans les paramètres de Cherry Studio et vérifiez

Entrez l'ID de base de données et cliquez sur Vérifier

Étape 6

Félicitations, la configuration de SiYuan Note est terminée ✅ Vous pouvez maintenant exporter le contenu de Cherry Studio vers votre SiYuan Note

Exporter vers SiYuan Note
Voir le résultat de l'exportation

OneAPI

Ce document a été traducido del chino por IA y aún no ha sido revisado.

OneAPI

  • Connectez-vous et accédez à la page des jetons

  • Créez un nouveau jeton (vous pouvez aussi utiliser le jeton par défaut ↑)

  • Copiez le jeton

  • Ouvrez les paramètres des fournisseurs de CherryStudio, cliquez sur Ajouter en bas de la liste des fournisseurs

  • Entrez un nom de note, sélectionnez OpenAI comme fournisseur, puis cliquez sur OK

  • Entrez la clé que vous venez de copier

  • Retournez à la page où vous avez obtenu la clé API, copiez l'adresse racine dans la barre d'adresse du navigateur, par exemple :

Copiez uniquement https://xxx.xxx.com, sans le contenu après "/"
  • Lorsque l'adresse est IP+port, entrez http://IP:port, par exemple : http://127.0.0.1:3000

  • Distinguer strictement http et https - n'utilisez pas https si SSL n'est pas activé

  • Ajoutez les modèles (cliquez sur Gérer pour obtenir automatiquement ou saisissez manuellement) et activez l'interrupteur en haut à droite pour commencer à utiliser.

L'interface peut varier selon le thème OneAPI, mais la méthode d'ajout reste identique aux étapes ci-dessus.

Ajout de ModelScope

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Le serveur ModelScope MCP nécessite de mettre à jour Cherry Studio à la version v1.2.9 ou supérieure.

Dans la version v1.2.9, Cherry Studio a établi un partenariat officiel avec ModelScope Mofada, simplifiant considérablement les étapes d'ajout des serveurs MCP et évitant les erreurs de configuration. Vous pouvez également découvrir d'innombrables serveurs MCP dans la communauté ModelScope. Suivez maintenant les étapes pour découvrir comment synchroniser les serveurs MCP ModelScope dans Cherry Studio.

Étapes opérationnelles

Point d'entrée de synchronisation :

Cliquez sur les paramètres des serveurs MCP dans les réglages, sélectionnez Synchroniser les serveurs

Découvrir les services MCP :

Sélectionnez ModelScope et parcourez les services MCP disponibles

Voir les détails du serveur MCP

Connectez-vous à ModelScope et consultez les détails du service MCP ;

Connecter le serveur

Dans les détails du service MCP, sélectionnez "Connecter le service" ;

Demander et coller le jeton API

Cliquez sur "Obtenir le jeton API" dans Cherry Studio, accédez au site officiel de ModelScope, copiez le jeton API et collez-le dans Cherry Studio.

Synchronisation réussie

Dans la liste des serveurs MCP de Cherry Studio, vous verrez les services MCP connectés à ModelScope et pourrez les utiliser dans les conversations.

Mise à jour incrémentielle

Pour les nouveaux serveurs MCP connectés ultérieurement via la page web ModelScope, cliquez simplement sur Synchroniser les serveurs pour les ajouter de manière incrémentielle.

Grâce à ces étapes, vous maîtrisez désormais la synchronisation pratique des serveurs MCP ModelScope dans Cherry Studio. Ce processus de configuration est non seulement grandement simplifié mais évite aussi les erreurs potentielles des configurations manuelles. Vous pourrez ainsi exploiter facilement les innombrables ressources de serveurs MCP fournies par la communauté ModelScope.

Commencez à explorer et utiliser ces puissants services MCP pour enrichir votre expérience avec Cherry Studio !

NewAPI

Ce document a été traducido del chino por IA y aún no ha sido revisado.

NewAPI

  • Connectez-vous et ouvrez la page des jetons

  • Cliquez sur "Ajouter un jeton"

  • Entrez le nom du jeton et cliquez sur "Soumettre" (configurez d'autres paramètres si nécessaire)

  • Accédez aux paramètres des fournisseurs de CherryStudio, cliquez sur Ajouter en bas de la liste des fournisseurs

  • Saisissez un nom de référence, sélectionnez "OpenAI" comme fournisseur, puis cliquez sur "Confirmer"

  • Collez la clé copiée précédemment

  • Revenez à la page de l'API Key, copiez l'adresse racine dans la barre d'adresse du navigateur. Exemple :

Copiez uniquement https://xxx.xxx.com sans inclure le "/" ni ce qui suit
  • Lorsque l'adresse est au format IP + port, saisissez http://IP:port (ex: http://127.0.0.1:3000)

  • Distinguez strictement http et https : n'utilisez pas https si SSL n'est pas activé

  • Ajoutez les modèles (cliquez sur "Gérer" pour une détection automatique ou saisissez manuellement), puis activez le commutateur en haut à droite pour les utiliser.

Configuration de MCP

Ce document a été traducido del chino por IA y aún no ha sido revisado.

  1. Ouvrez les paramètres de Cherry Studio.

  2. Trouvez l'option Serveur MCP.

  3. Cliquez sur Ajouter un serveur.

  4. Remplissez les paramètres du serveur MCP (lien de référence). Les informations à fournir peuvent inclure :

    • Nom : un nom personnalisé, par exemple fetch-server

    • Type : sélectionnez STDIO

    • Commande : entrez uvx

    • Arguments : entrez mcp-server-fetch

    • (d'autres paramètres peuvent exister selon le serveur spécifique)

  5. Cliquez sur Enregistrer.

Après cette configuration, Cherry Studio téléchargera automatiquement le serveur MCP requis - fetch server. Une fois le téléchargement terminé, vous pouvez commencer à l'utiliser ! Remarque : si la configuration de mcp-server-fetch échoue, essayez de redémarrer votre ordinateur.

Activer le service MCP dans la boîte de discussion

  • Le serveur MCP a été ajouté avec succès dans les paramètres

Démonstration de l'effet d'utilisation

Comme le montre l'image ci-dessus, grâce à la fonction fetch intégrée au MCP, Cherry Studio peut mieux comprendre l'intention des requêtes utilisateur, récupérer des informations pertinentes sur Internet et fournir des réponses plus précises et complètes.

Téléchargement du client

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Version stable actuelle : v1.6.0-rc.2

Téléchargement direct

Version Windows

Attention : Windows 7 ne prend pas en charge l'installation de Cherry Studio.

Version d'installation (Setup)

Version x64

Ligne principale :

【】 【】

Lignes secondaires :

【】 【】 【】

Version ARM64

Ligne principale :

【】 【】

Lignes secondaires :

【】 【】 【】

Version portable (Portable)

Version x64

Ligne principale :

【】 【】

Lignes secondaires :

【】 【】 【】

Version ARM64

Ligne principale :

【】 【】

Lignes secondaires :

【】 【】 【】


Version macOS

Version pour puces Intel (x64)

Ligne principale :

【】 【】

Lignes secondaires :

【[Ligne 1](https://download-cf.ocoolai.com/https://github.com/C CherryHQ/cherry-studio/releases/download/v1.6.0-rc.2/Cherry-Studio-1.6.0-rc.2.dmg)】 【】 【】

Version Apple Silicon (ARM64, puces M-series)

Ligne principale :

【】 【】

Lignes secondaires :

【】 【】 【】


Version Linux

Version x86_64

Ligne principale :

【】 【】

Lignes secondaires :

【】 【】 【】

Version ARM64

Ligne principale :

【】 【】

Lignes secondaires :

【】 【】 【】


Téléchargement via le cloud

Doubao (ByteDance)

Ce document a été traducido del chino por IA y aún no ha sido revisado.

ByteDance (Doubao)

  • Connectez-vous à

  • Cliquez directement

Obtenir une clé API

  • Cliquez sur dans la barre latérale

  • Créez une clé API

  • Après création réussie, cliquez sur l'icône en forme d'œil à côté de votre clé API pour l'afficher et la copier

  • Collez la clé API copiée dans CherryStudio, puis activez le commutateur du fournisseur de service.

Activer et ajouter des modèles

  • Activez les modèles nécessaires dans de la console Ark. Vous pouvez activer la série Doubao, DeepSeek ou d'autres modèles selon vos besoins.

  • Dans le , localisez l'ID de modèle correspondant au modèle requis.

  • Accédez aux de Cherry Studio et sélectionnez Volc Engine

  • Cliquez sur "Ajouter" et collez l'ID de modèle obtenu dans la zone de texte ID de modèle

  • Ajoutez les modèles un par un en suivant ce processus

Adresse API

L'adresse API peut s'écrire de deux manières

  • La première est celle par défaut du client : https://ark.cn-beijing.volces.com/api/v3/

  • La deuxième écriture est : https://ark.cn-beijing.volces.com/api/v3/chat/completions#

Les deux formats sont équivalents. Gardez celui par défaut, aucune modification n'est nécessaire.

Concernant la différence entre les terminaisons par / et #, consultez la section sur l'adresse API des paramètres du fournisseur dans la documentation :

Introduction du projet

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Suivez nos comptes sociaux : , , , ,

Rejoignez nos communautés : , , ,


Cherry Studio est une plateforme d'assistant IA polyvalente intégrant des fonctionnalités multiformes telles que dialogues multimodèles, gestion de bases de connaissances, peinture IA et traduction. La conception hautement personnalisable, les capacités d'extension puissantes et l'expérience utilisateur conviviale de Cherry Studio en font un choix idéal pour les professionnels et les passionnés d'IA. Que vous soyez débutant ou développeur, chacun trouvera dans Cherry Studio les fonctionnalités IA adaptées pour améliorer sa productivité et créativité.


Fonctionnalités clés et caractéristiques

1. Fonctions de dialogue de base

  • Réponses multiples : Permet d'obtenir simultanément plusieurs réponses à une même question via différents modèles, facilitant la comparaison des performances. Voir .

  • Regroupement automatique : L'historique des conversations est automatiquement organisé par assistant pour un accès rapide.

  • Export des dialogues : Export complet ou partiel au format Markdown, Word etc.

  • Paramètres hautement personnalisables : Paramètres avancés et possibilité d'entrer des paramètres personnalisés.

  • Marché d'assistants : Des milliers d'assistants spécialisés par secteur (traduction, programmation, rédaction) + assistants personnalisables.

  • Multiformats de rendu : Prise en charge du Markdown, des formules mathématiques et du prévisualisation HTML.

2. Fonctionnalités intégrées

  • Peinture IA : Panneau dédié pour générer des images via description textuelle.

  • Mini-applications IA : Intégration d'outils IA web sans navigation externe.

  • Traduction : Scénarios multiples (panneau dédié, traduction conversationnelle).

  • Gestion des fichiers : Classification unifiée des fichiers des conversations, peinture et connaissances.

  • Recherche globale : Localisation rapide dans l'historique et les bases de connaissances.

3. Gestion unifiée multi-fournisseurs

  • Aggrégation de modèles : Intégration OpenAI, Gemini, Anthropic, Azure etc.

  • Récupération automatique : Liste complète des modèles sans configuration manuelle.

  • Rotation de clés : Utilisation cyclique de multiples clés API contre les limitations.

  • Avatars personnalisés : Attribution automatique d'icônes identitaires par modèle.

  • Fournisseurs personnalisés : Compatibilité avec services tiers respectant les normes OpenAI/Gemini/Anthropic.

4. Interface entièrement personnalisable

  • CSS personnalisé : Personnalisation globale du style visuel.

  • Dispositions de chat : Différents modes d'affichage inclus.

  • Personnalisation d'avatar : Icônes personnalisées pour logiciel et assistants.

  • Menu latéral ajustable : Masquage/réorganisation des éléments selon besoins.

5. Système local de base de connaissances

  • Multiformats : Import PDF, DOCX, PPTX, XLSX, TXT, MD etc.

  • Sources variées : Fichiers locaux, URL, sitemaps ou saisie manuelle.

  • Export des connaissances : Partage des bases traitées.

  • Vérification intégrée : Tests de segmentation et résultats immédiats après import.

6. Fonctions contextuelles

  • Questions rapides : Assistance instantanée depuis toute application (Wechat, navigateur).

  • Traduction rapide : Traduction contextuelle de textes sélectionnés.

  • Résumé : Synthèse rapide de contenus longs.

  • Explications contextuelles : Clarification sans prompts complexes.

7. Sécurité des données

  • Sauvegardes multiples : Locale, WebDAV et programmée.

  • Confiance locale totale : Usage complet en environnement offline avec modèles locaux.


Avantages

  1. Convivial pour débutants : Accessible sans connaissances techniques préalables.

  2. Documentation complète : Guides détaillés et FAQ complète.

  3. Améliorations continues : Évolutions régulières basées sur les retours utilisateurs.

  4. Ouverture et extensibilité : Code source ouvert pour customisations avancées.


Cas d'usage

  • Gestion & consultation de connaissances : Recherche académique, éducation...

  • Dialogues créatifs : Génération de contenu multimodal.

  • Traduction & automatisation : Communication multilingue et traitement documentaire.

  • Peinture IA & design : Visualisation créative par description textuelle.

Star History

Suivez nos comptes sociaux

Vertex AI

暂时不支持Claude模型

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Aperçu du tutoriel

1. Obtenir une clé API

  • Avant d'obtenir une clé API Gemini, vous devez avoir un projet Google Cloud (si vous en avez déjà un, cette étape peut être ignorée)

  • Accédez à pour créer un projet, remplissez le nom du projet et cliquez sur "Créer un projet"

  • Accédez à la

  • Activez dans le projet créé

2. Configurer les permissions d'accès API

  • Ouvrez l'interface des permissions et créez un compte de service

  • Sur la page de gestion des comptes de service, trouvez le compte nouvellement créé, cliquez sur Clés et créez une nouvelle clé au format JSON

  • Après création réussie, le fichier de clé sera automatiquement enregistré sur votre ordinateur au format JSON - veuillez le conserver en lieu sûr

3. Configurer Vertex AI dans Cherry Studio

  • Sélectionnez le fournisseur de services Vertex AI

  • Remplissez les champs correspondants avec les données du fichier JSON

Cliquez sur "Ajouter " pour commencer à utiliser joyeusement !

OpenAI

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Obtenir une clé API

  • Sur la page officielle des , cliquez sur + Create new secret key

  • Copiez la clé générée, puis accédez aux de CherryStudio

  • Recherchez le fournisseur OpenAI et saisissez la clé obtenue

  • Cliquez sur "Gérer" ou "Ajouter" en bas de page, ajoutez les modèles pris en charge, puis activez le bouton du fournisseur en haut à droite pour commencer à l'utiliser.

  • En Chine (à l'exception de Taïwan), les services OpenAI ne sont pas accessibles directement ; un proxy est nécessaire.

  • Un solde créditeur est requis.

Mode en ligne

如何在 Cherry Studio 使用联网模式

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Mode en ligne

Exemples de situations nécessitant une connexion Internet :

  • Informations temporelles : comme les prix des contrats à terme sur l'or d'aujourd'hui/cette semaine/à l'instant, etc.

  • Données en temps réel : comme la météo, les taux de change, etc.

  • Connaissances émergentes : comme les nouvelles choses, concepts, technologies, etc.

I. Comment activer le mode en ligne

Dans la fenêtre de question de Cherry Studio, cliquez sur l'icône 【Globe terrestre】 pour activer le mode en ligne.

II. Remarque importante : deux modes de connexion Internet

Mode 1 : Les modèles des opérateurs possèdent une fonction de recherche en ligne intégrée

Dans ce cas, après avoir activé le mode en ligne, vous pouvez directement utiliser le service, c'est très simple.

Vous pouvez rapidement vérifier si un modèle prend en charge la connexion Internet en cherchant une petite icône de carte après son nom dans la partie supérieure de l'interface de question-réponse.

Sur la page de gestion des modèles, cette méthode vous permet également de distinguer rapidement les modèles prenant en charge le mode en ligne.

Opérateurs de modèles avec fonction de recherche en ligne actuellement pris en charge par Cherry Studio

  • Google Gemini

  • OpenRouter (tous les modèles prennent en charge la connexion Internet)

  • Tencent Hunyuan

  • Zhipu AI

  • Alibaba Cloud Bailian, etc.

Remarque importante : Il existe un cas particulier où même sans l'icône de globe terrestre, un modèle peut accéder à Internet, comme expliqué dans le tutoriel ci-dessous.


Mode 2 : Les modèles sans fonction de recherche utilisent le service Tavily pour accéder à Internet

Lorsqu'un modèle ne possède pas de fonction de recherche intégrée (pas d'icône de globe après son nom), mais que vous avez besoin d'informations en temps réel, utilisez le service de recherche Internet Tavily.

Lors de la première utilisation du service Tavily, une fenêtre contextuelle vous guidera dans la configuration. Suivez simplement les instructions !

Après avoir cliqué "Obtenir la clé", vous serez redirigé vers le site officiel de Tavily. Inscrivez-vous, connectez-vous, créez une clé API, puis copiez-la dans Cherry Studio.

Besoin d'aide pour l'inscription ? Consultez le tutoriel dans ce même répertoire.

Document de référence pour Tavily :

L'interface suivante indique une inscription réussie.

Testez à nouveau : les résultats montrent une recherche Internet fonctionnelle, avec un nombre de résultats par défaut de 5.

Remarque : Tavily impose des limites d'utilisation gratuite mensuelle. Le dépassement entraîne des frais.

PS : Si vous détectez des erreurs, n'hésitez pas à nous contacter.

Huawei Cloud

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Installation automatique

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Installation automatique du MCP

L'installation automatique du MCP nécessite la mise à niveau de Cherry Studio en version v1.1.18 ou ultérieure.

Introduction à la fonctionnalité

En complément de l'installation manuelle, Cherry Studio intègre l'outil @mcpmarket/mcp-auto-install, offrant une méthode plus pratique pour installer un serveur MCP. Il suffit d'entrer la commande appropriée dans une conversation avec un modèle prenant en charge les services MCP.

Rappel de la phase de test :

  • @mcpmarket/mcp-auto-install est actuellement en phase de test

  • L'efficacité dépend de "l'intelligence" du modèle : certaines configurations s'appliquent automatiquement, d'autres exigent des ajustements manuels dans les paramètres MCP

  • La source de recherche actuelle est @modelcontextprotocol, modifiable via configuration (voir ci-dessous)

Instructions d'utilisation

Par exemple, saisissez :

Le système identifie automatiquement votre requête et complète l'installation via @mcpmarket/mcp-auto-install. Cet outil prend en charge divers types de serveurs MCP, notamment :

  • filesystem (système de fichiers)

  • fetch (requête réseau)

  • sqlite (base de données)

  • etc.

La variable MCP_PACKAGE_SCOPES permet de personnaliser les sources de recherche des services MCP (valeur par défaut : @modelcontextprotocol).

Présentation de la bibliothèque @mcpmarket/mcp-auto-install

Référence de configuration par défaut :

@mcpmarket/mcp-auto-install est un package npm open source. Consultez ses détails et sa documentation dans le . @mcpmarket représente la collection officielle des services MCP de Cherry Studio.

Base de connaissances Dify

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Configuration de la base de connaissances Dify

La base de connaissances Dify MCP nécessite de mettre à jour Cherry Studio vers la version v1.2.9 ou supérieure.

Ajouter un serveur MCP pour la base de connaissances Dify

  1. Ouvrez 搜索MCP.

  2. Ajoutez le serveur dify-knowledge.

Configurer la base de connaissances Dify

Il est nécessaire de configurer les paramètres et les variables d'environnement

  1. La clé de la base de connaissances Dify peut être obtenue de la manière suivante

Utiliser le MCP de la base de connaissances Dify

Prétraitement des documents

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Le prétraitement des documents de la base de connaissances nécessite la mise à niveau de Cherry Studio vers la version v1.4.8 ou ultérieure.

Configuration du fournisseur de services OCR

Après avoir cliqué sur "Obtenir la clé API", l'adresse de demande s'ouvrira dans votre navigateur. Cliquez sur "Demander maintenant", remplissez le formulaire pour obtenir votre clé API, puis saisissez-la dans le champ correspondant.

Configuration du prétraitement des documents

Dans la base de connaissances créée, effectuez la configuration ci-dessus pour finaliser la configuration du prétraitement des documents.

Téléversement de documents

Vous pouvez utiliser la recherche en haut à droite pour vérifier les résultats de la base de connaissances

Utilisation dans les conversations

Astuce pour la base de connaissances : Lors de l'utilisation de modèles plus performants, modifiez le mode de recherche de la base de connaissances en "reconnaissance d'intention". Cette méthode permet une description plus précise et complète de votre question.

Activation de la reconnaissance d'intention

Code source

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Contribuer au code

Nous sommes heureux d'accueillir les contributions à Cherry Studio ! Vous pouvez contribuer de plusieurs manières :

  1. Contribuer au code : Développer de nouvelles fonctionnalités ou optimiser le code existant.

  2. Corriger des bugs : Soumettre des corrections pour les bogues que vous découvrez.

  3. Gérer les problèmes : Aider à administrer les issues GitHub.

  4. Conception du produit : Participer aux discussions de design.

  5. Rédiger la documentation : Améliorer les manuels utilisateurs et guides.

  6. Participation communautaire : Rejoindre les discussions et aider les utilisateurs.

  7. Promouvoir l'utilisation : Faire connaître Cherry Studio.

Comment participer

Envoyez un email à

Objet : Demande pour devenir contributeur Corps : Raison de votre candidature

# Huawei Cloud

I. Créez un compte et connectez-vous sur [Huawei Cloud](https://auth.huaweicloud.com/authui/login)  
II. Cliquez sur [ce lien](https://console.huaweicloud.com/modelarts/?region=cn-southwest-2#/model-studio/homepage) pour accéder à la console ModelArts  
III. Autorisation  

<details>
<summary>Procédure d'autorisation (ignorer si déjà autorisé)</summary>

1. Après avoir accédé au lien (II), suivez les instructions pour accéder à la page d'autorisation (cliquez sur Utilisateur IAM → Nouvelle délégation → Utilisateur standard)  
![](<../../.gitbook/assets/image (49).png>)  
2. Après avoir cliqué sur Créer, revenez à la page du lien (II)  
3. Un message indique des autorisations d'accès insuffisantes, cliquez sur "Cliquez ici" dans le message  
4. Ajoutez l'autorisation existante et confirmez  

![](<../../.gitbook/assets/image (50).png>)  
Note : Cette méthode convient aux débutants, pas besoin de lire beaucoup de contenu, suivez simplement les instructions. Si vous parvenez à obtenir l'autorisation du premier coup, utilisez votre propre méthode.  
</details>

IV. Cliquez sur Gestion de l'authentification dans la barre latérale, créez une clé API (secret) et copiez-la  
<figure><img src="../../.gitbook/assets/微信截图_20250214034650.png" alt=""><figcaption></figcaption></figure>  

Puis créez un nouveau fournisseur dans CherryStudio  
<figure><img src="../../.gitbook/assets/image (1) (2).png" alt="" width="300"><figcaption></figcaption></figure>  

Après création, saisissez la clé secrète  

V. Cliquez sur Déploiement de modèles dans la barre latérale et récupérez tous  
<figure><img src="../../.gitbook/assets/微信截图_20250214034751.png" alt=""><figcaption></figcaption></figure>  

VI. Cliquez sur Appel  
<figure><img src="../../.gitbook/assets/image (1) (2) (1).png" alt=""><figcaption></figcaption></figure>  

Copiez l'adresse à ①, collez-la dans l'adresse du fournisseur CherryStudio et ajoutez un "#" à la fin  
et ajoutez un "#" à la fin  
et ajoutez un "#" à la fin  
et ajoutez un "#" à la fin  
et ajoutez un "#" à la fin  

Pourquoi ajouter un "#" ? [Voir ici](https://docs.cherry-ai.com/cherrystudio/preview/settings/providers#api-di-zhi)  
> Bien sûr, vous pouvez aussi ignorer cela et suivre simplement le tutoriel;  
> Vous pouvez également utiliser la méthode de suppression de v1/chat/completions pour remplir. Utilisez votre méthode si vous savez comment faire, sinon suivez strictement le tutoriel.  

<figure><img src="../../.gitbook/assets/image (2) (3).png" alt=""><figcaption></figcaption></figure>  

Copiez ensuite le nom du modèle à ②, dans CherryStudio cliquez sur le bouton "+Ajouter" pour créer un nouveau modèle  
<figure><img src="../../.gitbook/assets/image (4) (3).png" alt=""><figcaption></figcaption></figure>  

Saisissez le nom du modèle tel quel, sans modifications ou guillemets. Copiez exactement comme dans l'exemple.  
<figure><img src="../../.gitbook/assets/image (3) (3).png" alt=""><figcaption></figcaption></figure>  

Cliquez sur Ajouter un modèle pour terminer.  

{% hint style="info" %}
Dans Huawei Cloud, chaque modèle ayant une adresse différente, chaque modèle nécessite un nouveau fournisseur. Répétez simplement les étapes ci-dessus.  
{% endhint %}
Site officiel Cherry Studio
GitHub
Ligne 1
Ligne 2
Ligne 3
Site officiel Cherry Studio
GitHub
Ligne 1
Ligne 2
Ligne 3
Site officiel Cherry Studio
GitHub
Ligne 1
Ligne 2
Ligne 3
Site officiel Cherry Studio
GitHub
Ligne 1
Ligne 2
Ligne 3
Site officiel Cherry Studio
GitHub
Ligne 2
Ligne 3
Site officiel Cherry Studio
GitHub
Ligne 1
Ligne 2
Ligne 3
Site officiel Cherry Studio
GitHub
Ligne 1
Ligne 2
Ligne 3
Site officiel Cherry Studio
GitHub
Ligne 1
Ligne 2
Ligne 3
Quark
[email protected]
Volc Engine
ici pour accéder
Gestion des clés API
Gestion des activations
document de liste des modèles
paramètres des services de modèles
cliquez ici
Exemple de liste des ID de modèle de Volc Engine
Exemple de cURL dans la documentation officielle
Google Cloud
console Vertex AI
Vertex AI API
comptes de service
modèles
Clés API
Drawing
paramètres des fournisseurs
帮我安装一个 filesystem mcp server
// `axun-uUpaWEdMEMU8C61K` correspond à l'ID de service, personnalisable
"axun-uUpaWEdMEMU8C61K": {
  "name": "mcp-auto-install",
  "description": "Automatically install MCP services (Beta version)",
  "isActive": false,
  "registryUrl": "https://registry.npmmirror.com",
  "command": "npx",
  "args": [
    "-y",
    "@mcpmarket/mcp-auto-install",
    "connect",
    "--json"
  ],
  "env": {
    "MCP_REGISTRY_PATH": "Détails sur https://www.npmjs.com/package/@mcpmarket/mcp-auto-install"
  },
  "disabledTools": []
}
dépôt officiel npm
Saisir la commande pour installer le serveur MCP
Interface de configuration du serveur MCP
uBlacklist subscription compilation
uBlockOrigin-HUGE-AI-Blocklist
Exemple d'obtention du Device Code
Autorisation GitHub
Connexion GitHub réussie
Obtenir la liste des modèles
Échec d'obtention du Device Code

Documentation

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Contribuer à la Documentation

Contactez par e-mail [email protected] pour obtenir l'accès éditeur

Sujet : Demande d'accès éditeur à Cherry Studio Docs Corps : Indiquez vos motivations

Cliquez sur l'icône Globe - Activer la connexion Internet
Indicateur - La fonction de connexion Internet est activée
Fenêtre contextuelle, cliquez : Configurer
Cliquez pour obtenir la clé
Copier la clé
Coller la clé - C'est terminé !
Intégration de VolcEngine
Tutoriel Tavily

Politique de confidentialité

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Politique de Confidentialité

Bienvenue sur Cherry Studio (ci-après dénommé "ce logiciel" ou "nous"). Nous accordons une grande importance à la protection de votre vie privée. Cette politique de confidentialité explique comment nous traitons et protégeons vos informations personnelles et vos données. Veuillez lire attentivement et comprendre cette politique avant d'utiliser ce logiciel :

1. Portée des informations collectées

Pour optimiser l'expérience utilisateur et améliorer la qualité du logiciel, nous ne collectons que les informations non personnelles suivantes de manière anonyme :

• Informations sur la version du logiciel ; • Activité et fréquence d'utilisation des fonctionnalités du logiciel ; • Journaux de plantages et d'erreurs anonymes ;

Ces informations sont totalement anonymes, ne concernent aucune donnée d'identification personnelle et ne peuvent être associées à vos informations personnelles.

2. Informations que nous ne collectons pas

Pour protéger au maximum votre vie privée, nous nous engageons explicitement à :

• Ne pas collecter, conserver, transmettre ou traiter les informations de clé API des services de modèles que vous saisissez dans ce logiciel ; • Ne pas collecter, conserver, transmettre ou traiter les données de conversation générées lors de votre utilisation de ce logiciel, y compris mais sans s'y limiter : contenu des discussions, informations d'instruction, données de base de connaissances, données vectorielles et autres contenus personnalisés ; • Ne pas collecter, conserver, transmettre ou traiter des informations sensibles permettant d'identifier personnellement un individu.

3. Explication des interactions de données

Ce logiciel utilise la clé API des fournisseurs de services de modèles tiers que vous avez demandée et configurée vous-même, afin d'effectuer les appels aux modèles correspondants et d'assurer les fonctionnalités de conversation. Les services de modèles que vous utilisez (par exemple, grands modèles, interfaces API, etc.) sont fournis par le fournisseur tiers que vous avez choisi et relèvent entièrement de sa responsabilité. Cherry Studio agit uniquement comme un outil local fournissant des fonctions d'appel d'interface avec les services de modèles tiers.

Par conséquent :

• Toutes les données de conversation générées entre vous et les services de grands modèles sont indépendantes de Cherry Studio. Nous ne participons ni au stockage des données, ni à toute forme de transmission ou de transit de données ; • Vous devez consulter et accepter vous-même la politique de confidentialité et les politiques associées du fournisseur de services de modèles tiers correspondant. Ces politiques de confidentialité sont accessibles sur les sites officiels de chaque fournisseur.

4. Déclaration de politique de confidentialité des fournisseurs de services de modèles tiers

Vous assumez vous-même les risques potentiels pour la vie privée liés à l'utilisation des services de fournisseurs de modèles tiers. Pour les politiques de confidentialité spécifiques, les mesures de sécurité des données et les responsabilités associées, veuillez consulter le contenu pertinent sur le site officiel du fournisseur de services de modèles choisi. Nous déclinons toute responsabilité à cet égard.

5. Mises à jour et modifications de la politique

Cette politique peut être ajustée lors des mises à jour des versions du logiciel. Veuillez la consulter régulièrement. En cas de modification substantielle de la politique, nous vous en informerons par des moyens appropriés.

6. Nous contacter

Si vous avez des questions concernant le contenu de cette politique ou les mesures de protection de la vie privée de Cherry Studio, n'hésitez pas à nous contacter à tout moment.

Nous vous remercions d'avoir choisi et fait confiance à Cherry Studio. Nous continuerons à vous offrir une expérience produit sûre et fiable.

Twitter(X)
Xiaohongshu
Weibo
Bilibili
Douyin
Groupe QQ (575014769)
Telegram
Discord
Groupe Wechat (cliquez pour voir)
interface de dialogue
Star History
Cover

Cover

Cover

Cover

Cover

Essai gratuit | GLM-4.5-Air de Zhipu, nouvelle option légère et efficace !

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Pour permettre à chaque développeur et utilisateur d'expérimenter facilement les capacités des grands modèles de pointe, Zhipu ouvre gratuitement le modèle GLM-4.5-Air aux utilisateurs de Cherry Studio. Conçu spécialement pour les applications d'agents intelligents (Agent), ce modèle fondamental efficace offre un équilibre exceptionnel entre performance et coût, représentant le choix idéal pour construire des applications intelligentes.


🚀 Qu'est-ce que GLM-4.5-Air ?

GLM-4.5-Air est le dernier modèle linguistique haute performance de Zhipu, utilisant une architecture avancée d'experts mixtes (Mixture-of-Experts, MoE) qui maintient une capacité de raisonnement exceptionnelle tout en réduisant significativement la consommation de ressources informatiques.

  • Paramètres totaux : 106 milliards

  • Paramètres activés : 12 milliards

Grâce à sa conception épurée, GLM-4.5-Air offre une meilleure efficacité d'inférence, idéale pour des déploiements en environnement contraint tout en conservant une aptitude à traiter des tâches complexes.


📚 Flux de formation unifié, base solide d'intelligence

GLM-4.5-Air partage le même flux de formation que la série phare, garantissant une base solide de capacités universelles :

  1. Préformation à grande échelle : Entraînement sur un corpus général de 15 000 milliards de tokens accumulant une large compréhension ;

  2. Optimisation spécifique : Renforcement sur tâches clés comme la génération de code, le raisonnement logique et les interactions agents ;

  3. Contexte étendu : Longueur de contexte augmentée à 128K tokens, traitant documents longs, dialogues complexes ou projets de code volumineux ;

  4. Amélioration par apprentissage par renforcement : Optimisation des capacités décisionnelles en planification et appel d'outils via RL.

Ce système confère à GLM-4.5-Air une excellente capacité de généralisation et d'adaptation aux tâches.


⚙️ Capacités optimisées pour les agents intelligents

GLM-4.5-Air est spécialement adapté aux scénarios d'agents avec ces capacités pratiques :

✅ Appel d'outils : Interfaçage normé pour automatiser des tâches via des outils externes ✅ Navigation et extraction web : Compréhension et interaction avec du contenu dynamique via extensions ✅ Assistance génie logiciel : Analyse des besoins, génération de code, détection/réparation de bugs ✅ Support front-end : Bonne compréhension/génération des technologies HTML/CSS/JavaScript

Intégrable aux frameworks d'agents de code comme Claude Code ou Roo Code, il sert aussi de moteur central pour tout agent personnalisé.


💡 Mode "réflexion intelligente", adaptation souple aux requêtes

GLM-4.5-Air propose un mode de raisonnement hybride contrôlé par le paramètre thinking.type :

  • enabled : Réflexion approfondie pour tâches complexes nécessitant une planification

  • disabled : Désactivée pour requêtes simples ou réponses instantanées

  • Valeur par défaut : mode réflexion dynamique (auto-évaluation de la nécessité d'analyse)

Type de tâche
Exemple

Tâche simple (réflexion déconseillée)

• Question : "Quand Zhipu AI a été créée ?" • Traduction : "Traduis 'I love you' en chinois"

Tâche moyenne (réflexion conseillée)

• Comparaison avion/TGV Pékin-Shanghai • Explication du nombre élevé de lunes de Jupiter

Tâche complexe (réflexion fortement conseillée)

• Explication de la collaboration experte dans MoE • Analyse d'opportunité d'achat d'ETF


🌟 Efficace et rentable, déploiement simplifié

GLM-4.5-Air atteint un équilibre optimal performance/coût pour déploiements professionnels :

  • ⚡ Vitesse > 100 tokens/sec pour interactions réactives à faible latence

  • 💰 Coût API très bas : Entrée 0.8 ¥ / million tokens, sortie 2 ¥ / million tokens

  • 🖥️ Faible consommation de ressources informatiques, déploiement aisé local/cloud haute concurrency

Une véritable expérience IA "haute performance, faible barrière d'entrée".


🧠 Capacité clé : génération intelligente de code

GLM-4.5-Air excelle en génération de code avec :

  • Support des langages Python, JavaScript, Java

  • Génération de code lisible, maintenable via instructions naturelles

  • Réduction du code "boilerplate", alignement aux besoins réels

Idéal pour prototypage rapide, complétion auto et correction de bugs.


Expérimentez gratuitement GLM-4.5-Air dès maintenant et lancez votre projet d'agent intelligent ! Que vous construisiez un assistant auto, un compagnon de programmation ou une application IA nouvelle génération, GLM-4.5-Air sera votre moteur IA fiable et performant.

📘 Connectez-vous immédiatement pour libérer votre créativité !

Sauvegarde WebDAV

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Cherry Studio prend en charge la sauvegarde des données via le protocole WebDAV. Vous pouvez choisir un service WebDAV adapté pour effectuer des sauvegardes dans le cloud.

Basé sur WebDAV, il est possible de synchroniser les données entre plusieurs appareils via le schéma : Ordinateur A →sauvegarde\xrightarrow{\text{sauvegarde}}sauvegarde​ WebDAV →restauration\xrightarrow{\text{restauration}}restauration​ Ordinateur B.

Exemple avec Nutstore

  1. Connectez-vous à Nutstore, cliquez sur votre nom d'utilisateur en haut à droite et sélectionnez "Informations du compte" :

  1. Choisissez "Options de sécurité" puis cliquez sur "Ajouter une application" :

  1. Entrez le nom de l'application et générez un mot de passe aléatoire :

  1. Copiez et enregistrez le mot de passe :

  1. Récupérez l'adresse du serveur, le compte et le mot de passe :

  1. Dans les paramètres de Cherry Studio → Paramètres des données, renseignez les informations WebDAV :

  1. Sélectionnez la sauvegarde ou la restauration des données, et configurez si besoin la périodicité des sauvegardes automatiques :

Les services WebDAV les plus accessibles sont généralement les solutions de stockage cloud :

  • Nutstore

  • 123 Pan (abonnement requis)

  • Aliyun Drive (achat requis)

  • Box (espace gratuit de 10 Go, limitation à 250 Mo par fichier)

  • Dropbox (2 Go gratuits, extensibles à 16 Go par parrainage)

  • TeraCloud (10 Go gratuits + 5 Go supplémentaires par invitation)

  • Yandex Disk (10 Go pour les utilisateurs gratuits)

Solutions nécessitant un déploiement autonome :

  • Alist

  • Cloudreve

  • Sharelist

Tutoriel Tavily

如何注册tavily?

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Tutoriel d'enregistrement et de connexion en ligne de Tavily

1. Site officiel de Tavily

https://app.tavily.com/home

Certains utilisateurs peuvent rencontrer des vitesses de chargement lentes. Si vous utilisez un proxy, activez-le pour améliorer les performances.

2. Étapes détaillées d'inscription sur Tavily

Accédez au site officiel ci-dessus ou, depuis Cherry Studio > Paramètres > Recherche Web > Cliquez sur "Obtenir une clé", ce qui vous redirigera directement vers la page de connexion/d'inscription de Tavily.

Si c'est votre première utilisation, vous devez d'abord créer un compte (Sign up) avant de pouvoir vous connecter (Log in). Par défaut, vous serez redirigé vers la page de connexion.

  1. Cliquez sur "S'inscrire", entrez votre e-mail habituel ou utilisez votre compte Google/GitHub, puis définissez un mot de passe (procédure standard).

Création de compte
  1. 🚨🚨🚨ÉTAPE CRUCIALE Après l'inscription, une vérification en deux étapes est nécessaire : scannez le QR code pour générer un code à usage unique.

De nombreux utilisateurs bloquent à cette étape... Pas de panique

Deux solutions :

  1. Téléchargez l'application Microsoft Authenticator (légèrement complexe)

  2. Utilisez le mini-programme WeChat : Authentificateur Tencent (simple, recommandé)

  1. Sur WeChat, recherchez le mini-programme : Authentificateur Tencent

Mini-programme WeChat - rechercher - cliquer pour ouvrir
Scannez le QR code affiché sur Tavily
Obtenez un code numérique
Copiez le code dans Tavily
Sauvegardez le code de récupération (recommandé)

3. 🎉 Inscription réussie 🎉

Après ces étapes, l'interface ci-dessous s'affiche : copiez votre clé dans Cherry Studio pour commencer à l'utiliser.

Ollama

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Ollama

Ollama est un excellent outil open source qui vous permet d'exécuter et de gérer facilement divers grands modèles de langage (LLM) localement. Cherry Studio prend désormais en charge l'intégration d'Ollama, vous permettant d'interagir directement avec des LLM déployés localement dans une interface familière, sans dépendre des services cloud !

Qu'est-ce qu'Ollama ?

Ollama est un outil qui simplifie le déploiement et l'utilisation des grands modèles de langage (LLM). Il présente les caractéristiques suivantes :

  • Exécution locale : Les modèles s'exécutent entièrement sur votre ordinateur local, sans nécessiter de connexion Internet, protégeant ainsi votre vie privée et la sécurité de vos données.

  • Simplicité d'utilisation : Avec de simples commandes en ligne de commande, vous pouvez télécharger, exécuter et gérer divers LLM.

  • Modèles variés : Prend en charge de nombreux modèles open source populaires tels que Llama 2, Deepseek, Mistral, Gemma, etc.

  • Multiplateforme : Compatible avec les systèmes macOS, Windows et Linux.

  • API ouverte : Prend en charge une interface compatible avec OpenAI, permettant une intégration avec d'autres outils.

Pourquoi utiliser Ollama dans Cherry Studio ?

  • Pas de service cloud nécessaire : Plus de limitations de quotas ou de frais liés aux API cloud, profitez pleinement de la puissance des LLM locaux.

  • Confidentialité des données : Toutes vos données de conversation restent sur votre appareil local, vous n'avez pas à craindre la fuite de vos données privées.

  • Disponible hors ligne : Vous pouvez continuer à interagir avec le LLM même sans connexion Internet.

  • Personnalisation : Vous pouvez sélectionner et configurer le LLM qui vous convient le mieux selon vos besoins.

Configurer Ollama dans Cherry Studio

1. Installer et exécuter Ollama

Tout d'abord, vous devez installer et exécuter Ollama sur votre ordinateur. Suivez ces étapes :

  • Télécharger Ollama : Visitez le site officiel d'Ollama (https://ollama.com/), téléchargez le package d'installation correspondant à votre système d'exploitation. Pour Linux, vous pouvez directement exécuter la commande suivante pour installer Ollama :

    curl -fsSL https://ollama.com/install.sh | sh
  • Installer Ollama : Suivez les instructions de l'installateur pour terminer l'installation.

  • Télécharger un modèle : Ouvrez un terminal (ou invite de commandes), utilisez la commande ollama run pour télécharger le modèle que vous souhaitez utiliser. Par exemple, pour télécharger le modèle Llama 2, vous pouvez exécuter :

    ollama run llama3.2

    Ollama téléchargera et exécutera automatiquement ce modèle.

  • Gardez Ollama en cours d'exécution : Pendant que vous interagissez avec les modèles Ollama via Cherry Studio, assurez-vous qu'Ollama reste en cours d'exécution.

2. Ajouter Ollama en tant que fournisseur de services dans Cherry Studio

Ensuite, ajoutez Ollama en tant que fournisseur de services d'IA personnalisé dans Cherry Studio :

  • Ouvrir les paramètres : Dans la barre de navigation gauche de l'interface Cherry Studio, cliquez sur "Paramètres" (icône d'engrenage).

  • Accéder aux services de modèle : Sur la page des paramètres, sélectionnez l'onglet "Services de modèle".

  • Ajouter un fournisseur : Cliquez sur Ollama dans la liste.

3. Configurer le fournisseur de services Ollama

Dans la liste des fournisseurs de services, trouvez l'Ollama que vous venez d'ajouter et configurez-le en détail :

  1. État d'activation :

    • Assurez-vous que l'interrupteur à l'extrême droite du fournisseur Ollama est activé, indiquant qu'il est en service.

  2. Clé API :

    • Ollama n'a pas besoin par défaut d'une clé API. Vous pouvez laisser ce champ vide ou y mettre n'importe quel contenu.

  3. Adresse API :

    • Remplissez l'adresse de l'API locale fournie par Ollama. Généralement, l'adresse est :

      http://localhost:11434/

      Si vous avez modifié le port, ajustez-le en conséquence.

  4. Temps de maintien en activité : Cette option définit la durée de maintien de la session en minutes. Si aucune nouvelle conversation n'a lieu dans le temps imparti, Cherry Studio se déconnecte automatiquement d'Ollama pour libérer des ressources.

  5. Gestion des modèles :

    • Cliquez sur le bouton "+ Ajouter" pour ajouter manuellement le nom du modèle que vous avez déjà téléchargé dans Ollama.

    • Par exemple, si vous avez téléchargé le modèle llama3.2 via ollama run llama3.2, vous pouvez entrer llama3.2 ici.

    • Cliquez sur le bouton "Gérer" pour modifier ou supprimer les modèles ajoutés.

Commencer à utiliser

Une fois la configuration ci-dessus terminée, vous pouvez dans l'interface de chat de Cherry Studio, sélectionner le fournisseur de services Ollama et le modèle que vous avez téléchargé, et commencer à dialoguer avec votre LLM local !

Conseils et astuces

  • Première exécution d'un modèle : Lors de la première exécution d'un modèle, Ollama a besoin de télécharger les fichiers du modèle, ce qui peut prendre du temps, soyez patient.

  • Voir les modèles disponibles : Exécutez la commande ollama list dans un terminal pour voir la liste des modèles Ollama que vous avez téléchargés.

  • Exigences matérielles : L'exécution de grands modèles de langage nécessite certaines ressources informatiques (CPU, mémoire, GPU), assurez-vous que la configuration de votre ordinateur répond aux exigences du modèle.

  • Documentation d'Ollama : Vous pouvez cliquer sur le lien Voir la documentation et les modèles d'Ollama dans la page de configuration pour accéder rapidement à la documentation officielle d'Ollama.

Interface de chat

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Assistants et sujets

Assistant

L'Assistant permet de personnaliser les paramètres du modèle sélectionné pour l'utiliser, comme les préréglages de prompts et de paramètres. Ces réglages permettent d'aligner le modèle sur vos attentes de travail.

L'Assistant par défaut du système contient des paramètres génériques (sans prompt). Vous pouvez l'utiliser directement ou chercher des préréglages adaptés dans la .

Sujets

L'Assistant est le parent des Sujets. Un assistant unique peut créer plusieurs sujets (conversations). Tous les sujets partagent les mêmes paramètres et prompts de l'assistant.

Boutons de la zone de dialogue

Nouveau sujet Crée un nouveau sujet dans l'assistant actuel.

Importer image ou document

  • Images : nécessitent une prise en charge par le modèle

  • Documents : analysés automatiquement en texte comme contexte pour le modèle.

Recherche web Configurez d'abord les paramètres dans les réglages. Les résultats alimentent le contexte du modèle. Voir .

Base de connaissances Active la base de connaissances. Voir .

Serveur MCP Active la fonctionnalité de serveur MCP. Voir .

Générer une image Non affiché par défaut. Pour les modèles compatibles (ex : Gemini), activez manuellement pour générer des images.

Pour des raisons techniques, vous devez activer manuellement ce bouton pour générer des images. Il sera retiré après optimisation.

Choisir un modèle Change le modèle pour les réponses suivantes tout en conservant le contexte.

Phrases rapides Utilisez des phrases prédéfinies dans les réglages. Supporte les variables.

Effacer les messages Supprime tout le contenu du sujet actuel.

Agrandir Agrandit la zone de dialogue pour les longs textes.

Effacer le contexte Réinitialise le contexte du modèle sans supprimer le contenu ("oubli" des conversations précédentes).

Estimation Tokens Affiche :

  • Contexte actuel

  • Contexte max (∞ = illimité)

  • Caractères saisis

  • Tokens estimés

Cette estimation est indicative. Les Tokens réels varient selon les modèles. Consultez les données du fournisseur.

Traduire Traduit le contenu actuel en anglais.

Paramètres de conversation

Paramètres du modèle

Synchronisés avec les Paramètres du modèle des paramètres de l'assistant. Voir .

Seuls ces paramètres de modèle s'appliquent à l'assistant actuel. Les autres paramètres sont globaux (ex : style de bulles appliqué à tous les sujets).

Paramètres des messages

Séparateur de messages :

Ajoute une ligne de séparation entre le contenu et les actions.

Utiliser les polices serif :

Change le style de police. Personnalisation via .

Afficher les numéros de ligne des blocs de code :

Affiche les numéros de ligne pour les extraits de code.

Blocs de code repliables :

Replie automatiquement les blocs de code longs.

Retour à la ligne dans les blocs de code :

Retourne à la ligne automatiquement pour les longues lignes de code.

Repli automatique des processus de réflexion :

Replie automatiquement le raisonnement des modèles après réflexion.

Style des messages :

Bulle de discussion ou style liste.

Thème des blocs de code :

Change le style d'affichage des extraits de code.

Moteur de formules mathématiques :

  • KaTeX : Rendu rapide (optimisé performance)

  • MathJax : Rendu lent mais complet (plus de symboles)

Taille de police des messages :

Ajuste la taille du texte.

Paramètres de saisie

Afficher l'estimation de Tokens :

Affiche les Tokens estimés pour le texte saisi (indicatif).

Coller les longs textes en tant que fichier :

Transforme les longs textes collés en fichiers pour éviter les interférences.

Rendu Markdown pour les messages entrants :

Désactivé : Ne rend que les réponses du modèle. Activé : Rend aussi les messages envoyés.

Essai gratuit | Qwen3-8B, fourni par SiliconFlow !

Ce document a été traducido del chino por IA y aún no ha sido revisado.

La plateforme de service MaaS renommée "Silicom Flow" offre gratuitement un service d'appel du modèle Qwen3-8B à tous. Membre à haut rendement de la série Qwen3 de Tongyi Qianwen, Qwen3-8B allie performances puissantes et format compact, idéal pour les applications intelligentes et le développement efficace.


🚀 Qu'est-ce que Qwen3-8B ?

Qwen3-8B est un modèle dense de 8 milliards de paramètres de la troisième génération de grands modèles Tongyi Qianwen publié par Alibaba en avril 2025. Adoptant la licence open source Apache 2.0, il peut être librement utilisé dans des contextes commerciaux et de recherche.

  • Paramètres totaux : 8 milliards

  • Type d'architecture : Dense (structure purement dense)

  • Longueur contextuelle : 128K tokens

  • Multilingue : prend en charge 119 langues et dialectes

Malgré sa taille compacte, Qwen3-8B affiche des performances stables en raisonnement, code, mathématiques et capacités d'agent, rivalisant avec les grands modèles précédents et démontrant une praticabilité exceptionnelle.


📚 Base d'entraînement solide, grande intelligence dans un petit format

Qwen3-8B est pré-entraîné sur environ 36 billions de tokens de données multilingues de haute qualité, couvrant textes web, documents techniques, bases de code et données synthétiques spécialisées pour une vaste couverture des connaissances.

Sa post-formation intègre un processus de renforcement en quatre étapes, optimisant spécifiquement :

✅ Compréhension et génération du langage naturel ✅ Raisonnement mathématique et analyse logique ✅ Traduction et expression multilingues ✅ Appel d'outils et planification de tâches

Grâce à cette amélioration systémique, les performances réelles de Qwen3-8B égalent voire surpassent Qwen2.5-14B, marquant un bond significatif en efficacité paramétrique.


💡 Mode de raisonnement hybride : réfléchir ou répondre rapidement ?

Qwen3-8B permet une commutation flexible entre "mode réflexion" et "mode non-réflexion", permettant aux utilisateurs de choisir la réponse selon la complexité de la tâche.

Contrôle via :

  • Paramètre API : enable_thinking=True/False

  • Commande dans le prompt : ajouter /think ou /no_think à l'entrée

Mode
Scénario d'application
Exemples

Ce design offre un équilibre personnalisable entre vitesse de réponse et profondeur de raisonnement, optimisant l'expérience utilisateur.


⚙️ Capacités Agent natives pour des applications intelligentes

Qwen3-8B possède d'excellentes capacités d'agentisation, s'intégrant facilement dans divers systèmes automatisés :

🔹 Appel de fonctions (Function Calling) : prise en charge des appels d'outils structurés 🔹 Compatibilité MCP : support natif du protocole de contexte de modèle pour étendre les capacités externes 🔹 Collaboration multi-outils : intègre des plugins comme la recherche, calculatrice, exécution de code, etc.

Recommandé avec le framework Qwen-Agent pour construire rapidement des assistants intelligents dotés de mémoire, planification et capacités d'exécution.


🌐 Support linguistique étendu pour des applications mondiales

Qwen3-8B prend en charge 119 langues et dialectes dont chinois, anglais, arabe, espagnol, japonais, coréen et indonésien. Idéal pour :

  • Développement de produits internationaux

  • Service client multilingue

  • Génération de contenu polyglotte

Excellente compréhension du chinois (simplifié, traditionnel, cantonais), adapté aux marchés de Hong Kong, Macao, Taiwan et communautés chinoises d'outre-mer.


🧠 Fortes capacités pratiques, large spectre d'applications

Qwen3-8B excelle dans des scénarios fréquents :

✅ Génération de code : Python, JavaScript, Java, etc. ; produit du code exécutable sur demande ✅ Raisonnement mathématique : résultats stables sur des benchmarks comme GSM8K, adapté aux applications éducatives ✅ Création de contenu : rédige e-mails, rapports, textes avec structure claire et langage naturel ✅ Assistant intelligent : construit des IA légères pour FAQ de bases de connaissances, gestion d'agendas, extraction d'informations


Essayez gratuitement Qwen3-8B dès maintenant via Silicom Flow et lancez votre voyage dans l'IA légère !

📘 Utilisez-le maintenant, rendez l'IA accessible !

Fournisseurs personnalisés

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Fournisseurs Personnalisés

Cherry Studio intègre non seulement les principaux services de modèles d'IA, mais vous offre également une puissante capacité de personnalisation. Grâce à la fonctionnalité Fournisseurs d'IA personnalisés, vous pouvez facilement intégrer n'importe quel modèle d'IA dont vous avez besoin.

Pourquoi avez-vous besoin d'un fournisseur d'IA personnalisé ?

  • Flexibilité : Libérez-vous des limites des listes prédéfinies de fournisseurs, choisissez librement le modèle d'IA qui correspond le mieux à vos besoins.

  • Diversité : Essayez divers modèles d'IA de différentes plateformes, découvrez leurs avantages uniques.

  • Contrôle : Gérez directement vos clés API et adresses d'accès pour garantir la sécurité et la confidentialité.

  • Personnalisation : Intégrez des modèles déployés en privé pour répondre aux besoins de scénarios métiers spécifiques.

Comment ajouter un fournisseur d'IA personnalisé ?

En quelques étapes simples, vous pouvez ajouter votre fournisseur d'IA personnalisé à Cherry Studio :

  1. Ouvrir les paramètres : Dans la barre de navigation de gauche de l'interface Cherry Studio, cliquez sur "Paramètres" (icône d'engrenage).

  2. Accéder aux services de modèles : Dans la page des paramètres, sélectionnez l'onglet "Services de modèles".

  3. Ajouter un fournisseur : Sur la page "Services de modèles", vous verrez la liste des fournisseurs existants. Cliquez sur le bouton "+ Ajouter" sous la liste pour ouvrir la fenêtre contextuelle "Ajouter un fournisseur".

  4. Remplir les informations : Dans la fenêtre contextuelle, vous devez remplir les informations suivantes :

    • Nom du fournisseur : Attribuez un nom facilement identifiable à votre fournisseur personnalisé (exemple : MyCustomOpenAI).

    • Type de fournisseur : Sélectionnez le type de votre fournisseur dans la liste déroulante. Actuellement pris en charge :

      • OpenAI

      • Gemini

      • Anthropic

      • Azure OpenAI

  5. Enregistrer la configuration : Après avoir rempli les informations, cliquez sur le bouton "Ajouter" pour sauvegarder votre configuration.

Configurer un fournisseur d'IA personnalisé

Après l'ajout, vous devez trouver le fournisseur que vous venez d'ajouter dans la liste et effectuer une configuration détaillée :

  1. État d'activation : À l'extrémité droite de la liste des fournisseurs personnalisés se trouve un interrupteur d'activation. L'activer signifie que ce service personnalisé est activé.

  2. Clé API :

    • Saisissez la clé API (API Key) fournie par votre fournisseur de services d'IA.

    • Cliquez sur le bouton "Vérifier" à droite pour vérifier la validité de la clé.

  3. Adresse API :

    • Renseignez l'adresse d'accès API (Base URL) du service d'IA.

    • Veuillez consulter la documentation officielle de votre fournisseur d'IA pour obtenir l'adresse API correcte.

  4. Gestion des modèles :

    • Cliquez sur le bouton "+ Ajouter" pour ajouter manuellement l'ID du modèle que vous souhaitez utiliser sous ce fournisseur. Par exemple gpt-3.5-turbo, gemini-pro, etc.

    * Si vous n'êtes pas sûr du nom exact du modèle, référez-vous à la documentation officielle de votre fournisseur d'IA. * Cliquez sur le bouton "Gérer" pour modifier ou supprimer les modèles déjà ajoutés.

Commencer à utiliser

Une fois la configuration ci-dessus terminée, vous pouvez sélectionner votre fournisseur d'IA personnalisé et votre modèle dans l'interface de chat de Cherry Studio pour commencer à dialoguer avec l'IA !

Utiliser vLLM comme fournisseur d'IA personnalisé

vLLM est une bibliothèque d'inférence LLM rapide et facile à utiliser, similaire à Ollama. Voici comment l'intégrer à Cherry Studio :

  1. Installer vLLM : Suivez la documentation officielle de vLLM () pour l'installer.

  2. Lancer le service vLLM : Démarrez le service en utilisant l'interface compatible OpenAI fournie par vLLM. Deux méthodes principales sont disponibles :

    • Lancer via vllm.entrypoints.openai.api_server

    • Lancer via uvicorn

Assurez-vous que le service démarre avec succès et qu'il écoute sur le port par défaut 8000. Vous pouvez également spécifier le port du service vLLM avec le paramètre --port.

  1. Ajouter le fournisseur vLLM dans Cherry Studio :

    • Suivez les étapes décrites précédemment pour ajouter un nouveau fournisseur d'IA personnalisé.

    • Nom du fournisseur : vLLM

    • Type de fournisseur : Sélectionnez OpenAI.

  2. Configurer le fournisseur vLLM :

    • Clé API : vLLM ne nécessitant pas de clé API, vous pouvez laisser ce champ vide ou saisir n'importe quel contenu.

    • Adresse API : Renseignez l'adresse API du service vLLM. Par défaut, l'adresse est : http://localhost:8000/ (si un port différent est utilisé, modifiez-le en conséquence).

    • Gestion des modèles : Ajoutez le nom du modèle que vous avez chargé dans vLLM. Dans l'exemple python -m vllm.entrypoints.openai.api_server --model gpt2, vous devez saisir gpt2.

  3. Commencer à dialoguer : Vous pouvez désormais sélectionner le fournisseur vLLM et le modèle gpt2 dans Cherry Studio pour dialoguer avec le LLM alimenté par vLLM !

Astuces et conseils

  • Lire attentivement la documentation : Avant d'ajouter un fournisseur personnalisé, lisez attentivement la documentation officielle de votre fournisseur d'IA pour connaître les informations clés telles que la clé API, l'adresse d'accès et les noms de modèles.

  • Vérifier la clé API : Utilisez le bouton "Vérifier" pour confirmer rapidement la validité de votre clé API et éviter les erreurs.

  • Attention à l'adresse API : L'adresse API peut varier selon les fournisseurs et modèles d'IA, assurez-vous de saisir l'adresse correcte.

  • Ajouter les modèles selon les besoins : N'ajoutez que les modèles que vous utiliserez réellement, évitez d'en ajouter trop inutilement.

Modification du stockage

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Emplacement de stockage par défaut

Le stockage des données de Cherry Studio suit les conventions système. Les données sont automatiquement placées dans le répertoire utilisateur, aux emplacements spécifiques suivants :

macOS: /Users/username/Library/Application Support/CherryStudioDev

Windows: C:\Users\username\AppData\Roaming\CherryStudio

Linux: /home/username/.config/CherryStudio

Vous pouvez également visualiser cet emplacement ici :

Modifier l'emplacement de stockage (à titre informatif)

Méthode 1 :

Utilisez des liens symboliques. Quittez le logiciel, déplacez les données vers votre emplacement souhaité, puis créez un lien à l'emplacement d'origine pointant vers le nouvel emplacement.

Consultez les étapes détaillées ici :

Méthode 2 : Modifiez l'emplacement via les paramètres de lancement, en exploitant les caractéristiques des applications Electron.

--user-data-dir Exemple : Cherry-Studio-*-x64-portable.exe --user-data-dir="%user_data_dir%"

Exemple :

init_cherry_studio.bat (encodage : ANSI)

Structure du répertoire user-data-dir après initialisation :

Tutoriels

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Tutoriel de la Base de Connaissances

Dans la version 0.9.1, CherryStudio introduit la fonction tant attendue de Base de Connaissances.

Voici le guide d'utilisation détaillé de CherryStudio, présenté étape par étape.

Ajouter un modèle d'embedding

  1. Recherchez des modèles dans le service de gestion des modèles. Vous pouvez cliquer sur "Modèles d'embedding" pour filtrer rapidement ;

  2. Trouvez le modèle nécessaire et ajoutez-le à Mes modèles.

Créer une base de connaissances

  1. Accès : Dans la barre d'outils gauche de CherryStudio, cliquez sur l'icône Base de connaissances pour accéder à la page de gestion ;

  2. Ajouter : Cliquez sur Ajouter pour commencer la création ;

  3. Nommage : Entrez le nom de la base de connaissances et ajoutez un modèle d'embedding (par exemple bge-m3) pour finaliser la création.

Ajouter des fichiers et vectorisation

  1. Ajout de fichier : Cliquez sur le bouton d'ajout pour ouvrir la sélection de fichiers ;

  2. Sélection : Choisissez des formats supportés (pdf, docx, pptx, xlsx, txt, md, mdx, etc.) ;

  3. Vectorisation : Le système traite automatiquement les fichiers. Lorsqu'un ✓ vert apparaît, la vectorisation est terminée.

Ajouter des données de diverses sources

CherryStudio prend en charge plusieurs méthodes d'import :

  1. Dossiers : Importer un dossier entier – les formats compatibles seront vectorisés automatiquement ;

  2. Liens web : URLs comme ;

  3. Sitemap : Fichiers XML de sitemap, ex : ;

  4. Texte brut : Saisie manuelle de contenu personnalisé.

Conseils :

  1. Les illustrations dans les documents importés ne peuvent pas être vectorisées automatiquement – convertissez-les manuellement en texte ;

  2. L'utilisation d'URLs peut échouer sur certains sites avec mécanismes anti-scraping (ou nécessitant une connexion). Testez toujours par une recherche après création ;

  3. Les sitemaps sont généralement disponibles à l'adresse [domaine]/sitemap.xml (ex : ) ;

  4. Pour les sites sans sitemap :

a) Générez un fichier sitemap via une IA ou un outil de création HTML ; b) Utilisez des liens publics directs (OSS, cloud). L'outil gratuit d' peut générer des liens directs après connexion.

Rechercher dans la base de connaissances

Après vectorisation, lancez une recherche :

  1. Cliquez sur "Rechercher dans la base de connaissances" en bas de page ;

  2. Saisissez votre requête ;

  3. Consultez les résultats ;

  4. Le score de correspondance est affiché pour chaque résultat.

Utiliser la base de connaissances dans les réponses

  1. Dans une nouvelle conversation, cliquez sur l'icône Base de connaissances dans la barre d'outils et sélectionnez une base ;

  2. Posez votre question : le modèle répondra en utilisant les données référencées ;

  3. Les sources utilisées sont attachées à la réponse pour consultation rapide.

CSS personnalisé

Ce document a été traducido del chino por IA y aún no ha sido revisado.

CSS personnalisé

En personnalisant le CSS, vous pouvez modifier l'apparence du logiciel pour qu'elle corresponde mieux à vos préférences, par exemple comme ceci :

Variables intégrées

Pour plus de variables de thème, consultez le code source :

Recommandations connexes

Bibliothèque de thèmes Cherry Studio :

Partage de thèmes Cherry Studio de style chinois :

PPIO

Ce document a été traducido del chino por IA y aún no ha sido revisado.

PPIO 派欧云

Intégration de PPIO LLM API à Cherry Studio

Aperçu du tutoriel

Cherry Studio est un client desktop multi-modèles, compatible actuellement avec Windows, Linux et macOS. Il agrège les principaux modèles LLM et offre une assistance multi-scénarios. Les utilisateurs peuvent améliorer leur productivité grâce à une gestion intelligente des conversations, une personnalisation open source et des interfaces multi-thèmes.

Cherry Studio est désormais entièrement compatible avec les canaux API hautes performances de PPIO – en assurant une puissance de calcul professionnelle pour offrir des réponses rapides DeepSeek-R1/V3 et une disponibilité de service de 99,9%, vous garantissant une expérience fluide.

Le tutoriel ci-dessous contient la procédure complète d'intégration (incluant la configuration des clés), vous permettant d'activer le mode avancé « Cherry Studio + API hautes performances PPIO » en 3 minutes.

1. Accéder à CherryStudio et ajouter "PPIO" comme fournisseur de modèles

Commencez par télécharger Cherry Studio sur le site officiel : (si le lien ne fonctionne pas, vous pouvez utiliser ce lien alternatif Quark : )

(1) Cliquez d'abord sur l'icône des paramètres en bas à gauche, définissez le nom du fournisseur sur : PPIO, puis cliquez sur "Confirmer"

(2) Rendez-vous sur la , cliquez sur 【Avatar】→【Gestion des clés API】 pour accéder au panneau de contrôle

Cliquez sur le bouton 【+ Créer】 pour générer une nouvelle clé API. Attribuez-lui un nom personnalisé. La clé n'est visible qu'au moment de sa création : copiez-la impérativement et sauvegardez-la, sous peine de compromettre son utilisation ultérieure.

(3) Dans CherryStudio, collez la clé Cliquez sur les paramètres, sélectionnez 【PPIO 派欧云】, saisissez la clé API générée sur le site, puis cliquez sur 【Vérifier】

(4) Sélectionnez un modèle : prenons l'exemple de deepseek/deepseek-r1/community. Pour en changer, remplacez simplement le nom.

Les versions DeepSeek R1 et V3 community sont fournies à titre exploratoire. Ce sont des modèles complets et non limités, avec une stabilité et des performances identiques. Pour des appels intensifs, rechargez votre compte et basculez vers une version non-community.

2. Configuration d'utilisation des modèles

(1) Une fois la 【vérification】 réussie, l'utilisation normale est possible

(2) Enfin, cliquez sur 【@】 et sélectionnez le modèle DeepSeek R1 nouvellement ajouté sous le fournisseur PPIO pour démarrer une conversation !

【Source partielle du matériel : 】

3. Tutoriel vidéo PPIO × Cherry Studio

Pour un apprentissage visuel, nous proposons un tutoriel vidéo sur Bilibili. Ce guide pas à pas vous permettra de maîtriser rapidement la configuration « PPIO API + Cherry Studio ». Cliquez sur le lien ci-dessous pour accéder à la vidéo et démarrer une expérience de développement fluide →

【Source vidéo : sola】

ModelScope

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Qu'est-ce que ModelScope ?

ModelScope est une nouvelle génération de plateforme open source de Modèle en tant que Service (MaaS). Elle s'engage à fournir aux développeurs une solution de service de modèles flexible, facile à utiliser et à faible coût, rendant l'application des modèles plus simple !

Grâce à la capacité de service API-Inference, la plateforme standardise les modèles open source en interfaces API appelables. Les développeurs peuvent intégrer légèrement et rapidement les capacités des modèles dans diverses applications d'IA, supportant des scénarios innovants tels que l'appel d'outils et le prototypage.

Avantages clés

  • ✅ Quota gratuit : Offre 2000 appels API gratuits par jour ()

  • ✅ Base de modèles riche : Couvre plus de 1000 modèles open source dans les domaines NLP, CV, audio, multimodal, etc.

  • ✅ Prêt à l'emploi : Aucun déploiement nécessaire, appel rapide via API RESTful


Processus d'intégration avec Cherry Studio

Étape 1 : Obtenir un jeton API ModelScope

  1. Connexion à la plateforme

    • Visitez le → Cliquez sur Connexion en haut à droite → Choisissez le mode d'authentification

  2. Créer un jeton d'accès

    • Accédez à

    • Cliquez sur Créer un jeton → Remplissez la description → Copiez le jeton généré (voir exemple ci-dessous)

    🔑 Important : La fuite du jeton compromet la sécurité du compte !

Étape 2 : Configurer Cherry Studio

  • Ouvrez Cherry Studio → Paramètres → Services de modèles → ModelScope

  • Collez le jeton copié dans le champ Clé API

  • Cliquez sur Enregistrer pour terminer l'autorisation

Étape 3 : Appeler l'API du modèle

  1. Trouver des modèles compatibles API

    • Visitez la

    • Filtres : Cochez API-Inference (ou identifiez l'icône API sur la carte du modèle)

    La couverture des modèles par API-Inference est principalement déterminée par leur popularité dans la communauté (données de likes, téléchargements, etc.). Ainsi, la liste des modèles supportés évolue continuellement avec la sortie de nouvelles versions.

  2. Obtenir l'ID du modèle

    • Accédez à la page de détails du modèle cible → Copiez le Model ID (format : damo/nlp_structbert_sentiment-classification_chinese-base)

  3. Remplir dans Cherry Studio

    • Entrez l'ID dans le champ ID du modèle → Sélectionnez le type de tâche → Finalisez la configuration


Règles de facturation et de quotas

Informations importantes

  • 🎫 Quota gratuit : 2000 appels API par jour par utilisateur (*sujet aux dernières règles officielles)

  • 🔁 Réinitialisation du quota : Réinitialisation automatique quotidienne à 00:00 UTC+8, pas de cumul ou mise à niveau inter-jours

  • 💡 Dépassement de quota :

    • Lorsque la limite quotidienne est atteinte, l'API retourne une erreur 429

    • Solutions : Basculer vers un compte secondaire / Utiliser une autre plateforme / Optimiser la fréquence d'appel

Vérifier le quota restant

  • Connectez-vous à ModelScope → Cliquez sur Nom d'utilisateur en haut à droite → Statut d'utilisation de l'API

⚠️ Note : L'API d'inférence Inference offre 2000 appels gratuits par jour. Pour des besoins supplémentaires, envisagez d'utiliser des services cloud comme Alibaba Cloud Bailian.

Chaînes d'appel

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Fonctionnalités

La chaîne d'appel (également appelée "trace") offre aux utilisateurs une capacité d'analyse des conversations, leur permettant d'observer les performances spécifiques des modèles, des bases de connaissances, du MCP, des recherches Internet et d'autres composants pendant le dialogue. Il s'agit d'un outil d'observabilité basé sur qui collecte, stocke et traite les données côté client pour une visualisation, fournissant une base d'évaluation quantitative pour localiser les problèmes et optimiser les performances.

Chaque conversation correspond à une donnée de trace. Une trace est composée de plusieurs spans, chaque span correspondant à une logique de traitement de programme dans Cherry Studio, comme l'appel d'une session de modèle, l'appel du MCP, l'appel d'une base de connaissances ou l'appel d'une recherche Internet. La trace est présentée sous forme d'arborescence où les spans sont les nœuds, affichant les principales données telles que le temps d'exécution et la consommation de tokens. Dans le détail d'un span, vous pouvez également consulter ses entrées et sorties spécifiques.

Activer Trace

Par défaut, après l'installation de Cherry Studio, la fonction Trace est cachée. Vous devez l'activer dans "Paramètres" > "Paramètres généraux" > "Mode développeur", comme illustré ci-dessous :

Les conversations antérieures ne généreront pas d'enregistrements Trace. Les enregistrements ne sont créés qu'après de nouveaux échanges question-réponse. Les enregistrements générés sont stockés localement. Pour supprimer complètement les traces, vous pouvez utiliser "Paramètres" > "Paramètres des données" > "Répertoire de données" > "Effacer le cache", ou supprimer manuellement les fichiers dans ~/.cherrystudio/trace, comme montré ci-dessous :

Scénarios d'utilisation

Visualisation complète de la chaîne

Cliquez sur la chaîne d'appel dans la boîte de dialogue Cherry Studio pour afficher les données complètes de la chaîne. Que des modèles, des recherches Internet, des bases de connaissances ou du MCP soient appelés pendant la conversation, toutes les données d'appel de la chaîne complète sont visibles dans la fenêtre de la chaîne d'appel.

Visualisation des modèles dans la chaîne

Pour consulter les détails d'un modèle dans la chaîne d'appel, cliquez sur le nœud d'appel du modèle afin d'afficher ses entrées et sorties spécifiques.

Visualisation des recherches Internet dans la chaîne

Pour consulter les détails d'une recherche Internet dans la chaîne d'appel, cliquez sur le nœud de recherche Internet afin d'afficher ses entrées et sorties spécifiques. Dans les détails, vous pouvez voir la requête envoyée et les résultats retournés.

Visualisation des bases de connaissances dans la chaîne

Pour consulter les détails d'une base de connaissances dans la chaîne d'appel, cliquez sur le nœud de la base de connaissances afin d'afficher ses entrées et sorties spécifiques. Dans les détails, vous pouvez voir la requête envoyée et la réponse retournée.

Visualisation des appels MCP dans la chaîne

Pour consulter les détails d'un appel MCP dans la chaîne d'appel, cliquez sur le nœud d'appel MCP afin d'afficher ses entrées et sorties spécifiques. Dans les détails, vous pouvez voir les paramètres d'entrée passés au tool du serveur MCP et la réponse du tool.

Problèmes et suggestions

Cette fonctionnalité est actuellement fournie par l'équipe d'Alibaba Cloud. Si vous rencontrez des problèmes ou avez des suggestions, veuillez rejoindre le groupe DingTalk (ID de groupe : 21958624) pour discuter en profondeur avec les développeurs.

Partenariats

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Collaboration Commerciale

Contact : M. Wang 📮 : [email protected] 📱 : 18954281942 (numéro non destiné au service client)

Pour les questions d'utilisation, rejoignez notre groupe d'échange utilisateurs via le lien en bas de page d'accueil du site officiel, ou contactez-nous par email à [email protected]

Vous pouvez également soumettre des issues sur GitHub :

Pour un accompagnement personnalisé, rejoignez notre communauté "Knowledge Planet" (星球) :

Détails de la licence commerciale :

Informations sur les modèles

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Références courantes des modèles

  • Les informations ci-dessous sont fournies à titre indicatif uniquement. En cas d'erreur, merci de nous contacter pour correction. Les spécifications contextuelles et les détails des modèles peuvent varier selon les fournisseurs.

  • Dans les données client, les unités "k" doivent être converties en valeurs numériques (théoriquement 1k = 1024 tokens ; 1m = 1024k tokens). Par exemple, 8k = 8×1024=8192 tokens. Il est recommandé de multiplier par 1000 lors de l'utilisation pratique pour éviter les erreurs : 8k = 8×1000=8000, 1m=1×1000000=1000000.

  • Les modèles marqués avec "-" comme "Sortie maximale" n'ont pas d'information officielle disponible concernant leur limite de production.

Nom du modèle
Entrée max
Sortie max
Appels de fonction
Capacités
Fournisseur
Description

Suggestions

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Feedback & Suggestions

Groupe de discussion Telegram

Les membres du groupe de discussion partagent leurs expériences d'utilisation et vous aident à résoudre vos problèmes

Rejoignez le groupe Telegram pour obtenir de l'aide :

Groupe QQ

Les membres du groupe QQ s'entraident et partagent des liens de téléchargement

Problèmes GitHub

Idéal pour documenter des points que les développeurs pourraient oublier ou pour participer à des discussions

Signaler des problèmes sur GitHub :

Email

Si vous ne trouvez pas d'autre canal de feedback, contactez les développeurs pour obtenir de l'aide

Contacter les développeurs par email : [email protected]

Ce document a été traducido del chino por IA y aún no ha sido revisado.

360gpt-pro

8k

-

Non supporté

Dialogue

360AI_360gpt

Modèle phare de la série 360 Brain, optimisé pour tâches complexes multidisciplinaires.

gemini-2.0-pro-exp-02-05

2m

8k

Non supporté

Dialogue, Reconnaissance image

Google_gemini

Modèle expérimental Gemini 2.0 Pro publié en février 2024, supportant un contexte de 2M tokens.

qwen-vl-max-latest

32k

2k

Supporté

Dialogue, Reconnaissance image

千问_qwen

Version multilingue avancée pour tâches complexes nécessitant compréhension visuelle et textuelle.

glm-4v-flash

2k

1k

Non supporté

Dialogue, Reconnaissance image

智谱_glm

Modèle gratuit avec capacités avancées de compréhension d'images.

https://t.me/CherryStudioAI
Groupe QQ (1025067911)
https://github.com/CherryHQ/cherry-studio/issues/new/choose
{% hint style="danger" %}
Attention : La génération d'images Gemini nécessite d'utiliser l'interface de conversation, car Gemini est un générateur d'images multimodal interactif qui ne prend pas non plus en charge le réglage des paramètres.
{% endhint %}

Mode réflexion

Raisonnement complexe, problèmes mathématiques, planification

- Résoudre un problème de géométrie - Concevoir une architecture de projet

Mode non-réflexion

Questions-réponses rapides, traduction, résumé

- Vérifier la météo - Traduction chinois-anglais

pip install vllm # si vous utilisez pip
uv pip install vllm # si vous utilisez uv
python -m vllm.entrypoints.openai.api_server --model gpt2
vllm --model gpt2 --served-model-name gpt2
https://docs.vllm.ai/en/latest/getting_started/quickstart.html
https://docs.siliconflow.cn/introduction
https://docs.siliconflow.cn/sitemap.xml
sitemap de CherryStudio
ocoolAI
OpenTelemetry
EDAS
https://github.com/CherryHQ/cherry-studio/issues
https://wx.zsxq.com/group/48888118185118?group_id=48888118185118&secret=797qkk5sx94p84zr7fxp8h27rn6c35j7&inviter_id=414151881428448&inviter_sid=91n362kab4&share_from=InviteUrl&keyword=sJyfK&type=group
https://docs.cherry-ai.com/contact-us/questions/cherrystudio-xu-ke-xie-yi
page des agents
Mode connecté
Tutoriel base de connaissances
Guide MCP
Édition de l'assistant
CSS personnalisé
règles de facturation
site officiel de ModelScope
Paramètres du compte → Jetons d'accès
bibliothèque de modèles ModelScope

Configuration Obsidian

数据设置→Obsidian配置

Ce document a été traducido del chino por IA y aún no ha sido revisado.

# Tutoriel de configuration d'Obsidian

Cherry Studio prend en charge l'intégration avec Obsidian pour exporter des conversations complètes ou des messages individuels vers une bibliothèque Obsidian.

{% hint style="warning" %}
Ce processus ne nécessite pas l'installation de plugiciels Obsidian supplémentaires. Cependant, puisque le principe d'importation de Cherry Studio vers Obsidian est similaire à Obsidian Web Clipper, il est recommandé de mettre à jour Obsidian vers la dernière version (la version actuelle d'Obsidian doit être supérieure à **1.7.2**). Ceci évite les [échecs d'importation lors de conversations trop longues](https://github.com/obsidianmd/obsidian-clipper/releases/tag/0.7.0).
{% endhint %}

## Tutoriel récent

{% hint style="info" %}
Comparée à l'ancienne version, la nouvelle fonction d'exportation vers Obsidian sélectionne automatiquement le chemin de la bibliothèque, sans nécessiter la saisie manuelle du nom de bibliothèque ou du dossier.
{% endhint %}

### Étape 1 : Configurer Cherry Studio

Ouvrez les _Paramètres_ de Cherry Studio → _Paramètres des données_ → Menu _Configuration d'Obsidian_. Les noms des bibliothèques Obsidian ouvertes localement apparaîtront dans la liste déroulante. Sélectionnez votre bibliothèque cible :

<figure><img src="../.gitbook/assets/image (142).png" alt=""><figcaption></figcaption></figure>

### Étape 2 : Exporter une conversation

#### Exporter une conversation complète

Retournez à l'interface de conversation de Cherry Studio, cliquez droit sur une conversation, sélectionnez _Exporter_, puis cliquez sur _Exporter vers Obsidian_ :

<figure><img src="../.gitbook/assets/image (143).png" alt=""><figcaption></figcaption></figure>

Une fenêtre s'affiche pour configurer les **Propriétés** de la note, l'**emplacement du dossier** dans Obsidian et le **mode de traitement** :

* **Bibliothèque** : Sélectionnez d'autres bibliothèques via le menu déroulant
* **Chemin** : Choisissez le dossier de destination via le menu déroulant
* Propriétés de la note Obsidian :
  * Étiquettes (tags)
  * Date de création (created)
  * Source (source)
* **Modes de traitement** disponibles :
  * **Nouveau (remplace si existant)** : Crée une nouvelle note dans le dossier spécifié, remplace les notes existantes homonymes
  * **Préfixer** : Ajoute le contenu au début d'une note existante homonyme
  * **Suffixer** : Ajoute le contenu à la fin d'une note existante homonyme

{% hint style="info" %}
Seul le premier mode inclut les propriétés. Les deux autres modes ne les conservent pas.
{% endhint %}

<figure><img src="../.gitbook/assets/image (144).png" alt=""><figcaption><p>Configurer les propriétés de la note</p></figcaption></figure>

<figure><img src="../.gitbook/assets/image (145).png" alt=""><figcaption><p>Sélectionner le chemin</p></figcaption></figure>

<figure><img src="../.gitbook/assets/image (146).png" alt=""><figcaption><p>Choisir le mode de traitement</p></figcaption></figure>

Après sélection, cliquez sur **Confirmer** pour exporter la conversation vers le dossier cible d'Obsidian.

#### Exporter un message individuel

Cliquez sur le _menu à trois barres_ sous un message → _Exporter_ → _Exporter vers Obsidian_ :

<figure><img src="../.gitbook/assets/image (147).png" alt=""><figcaption><p>Exporter un message individuel</p></figcaption></figure>

La même fenêtre de configuration que pour une conversation complète s'affiche. Suivez les [instructions ci-dessus](obsidian.md#dao-chu-wan-zheng-dui-hua) pour finaliser.

### Exportation réussie

🎉 Félicitations ! Vous avez terminé la configuration d'intégration Obsidian et mené à bien le processus d'exportation.

<figure><img src="../.gitbook/assets/image (140).png" alt=""><figcaption><p>Exportation vers Obsidian</p></figcaption></figure>

<figure><img src="../.gitbook/assets/image (139).png" alt=""><figcaption><p>Vérifier le résultat</p></figcaption></figure>

***

## Ancien tutoriel (pour Cherry Studio < v1.1.13)

### Étape 1 : Préparer Obsidian

Ouvrez une bibliothèque Obsidian et créez un `dossier` pour les conversations exportées (exemple : dossier Cherry Studio) :

<figure><img src="../.gitbook/assets/image (127).png" alt=""><figcaption></figcaption></figure>

Notez le nom de `bibliothèque` encadré en bas à gauche.

### Étape 2 : Configurer Cherry Studio

Dans _Paramètres_ → _Paramètres des données_ → _Configuration d'Obsidian_, saisissez le nom de `bibliothèque` et de `dossier` obtenus à l'[étape 1](obsidian.md#di-yi-bu) :

<figure><img src="../.gitbook/assets/image (129).png" alt=""><figcaption></figcaption></figure>

Le champ `Étiquettes globales` est optionnel pour définir les étiquettes des notes exportées.

### Étape 3 : Exporter une conversation

#### Conversation complète

Cliquez droit sur une conversation → _Exporter_ → _Exporter vers Obsidian_ :

<figure><img src="../.gitbook/assets/image (138).png" alt=""><figcaption><p>Exporter une conversation complète</p></figcaption></figure>

Configurer les **Propriétés** et le **mode de traitement** (identique à la version récente).

#### Message individuel

Cliquez sur le _menu à trois barres_ → _Exporter_ → _Exporter vers Obsidian_ :

<figure><img src="../.gitbook/assets/image (141).png" alt=""><figcaption><p>Exporter un message individuel</p></figcaption></figure>

### Exportation réussie

🎉 Félicitations ! Profitez de l'intégration Obsidian 🎉

<figure><img src="../.gitbook/assets/image (140).png" alt=""><figcaption><p>Exportation vers Obsidian</p></figcaption></figure>

<figure><img src="../.gitbook/assets/image (139).png" alt=""><figcaption><p>Vérifier le résultat</p></figcaption></figure>

Poser des questions

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Méthodes pour poser des questions efficacement

Cherry Studio est un projet gratuit et open source. À mesure que le projet se développe, la charge de travail de l'équipe augmente également. Afin de réduire les coûts de communication et de résoudre vos problèmes rapidement et efficacement, nous vous demandons de suivre les étapes et méthodes ci-dessous avant de poser des questions. Cela permettra à l'équipe de consacrer plus de temps à la maintenance et au développement du projet. Merci pour votre coopération !

1. Consultation et recherche de la documentation

La plupart des problèmes fondamentaux peuvent être résolus en consultant attentivement la documentation :

  • Pour les questions sur les fonctionnalités et l'utilisation du logiciel, consultez la documentation Fonctionnalités ;

  • Les questions fréquentes sont répertoriées dans la page Questions fréquentes - vérifiez d'abord s'il existe une solution ;

  • Des problèmes plus complexes peuvent être résolus directement via la recherche ou en posant des questions dans la barre de recherche ;

  • Lisez attentivement le contenu des encadrés d'information dans chaque document - cela vous évitera de nombreux problèmes ;

  • Consultez ou recherchez des problèmes et solutions similaires sur la page Issue de GitHub.

2. Recherche sur Internet, interroger l'IA

Pour les problèmes liés à l'utilisation des modèles mais non liés aux fonctionnalités du client (tels que les erreurs des modèles, des réponses inattendues, ou les paramètres), il est recommandé de :

  • Rechercher d'abord des solutions sur Internet,

  • Ou décrire le contenu de l'erreur et le problème à une IA pour trouver des solutions.

3. Poser des questions dans la communauté officielle ou ouvrir un issue sur GitHub

Si les deux premières étapes ne donnent pas de réponse ou ne résolvent pas votre problème :

  • Accédez à la chaîne officielle Telegram,

  • Discord,

  • Ou (Rejoindre directement),

  • Et décrivez le problème en détail.

  1. Pour les erreurs de modèle : Fournissez une capture d'écran complète et les informations d'erreur de la console. Les informations sensibles peuvent être masquées, mais le nom du modèle, les paramètres et le contenu de l'erreur doivent figurer dans la capture. Méthode pour consulter les erreurs de la console : Cliquez ici.

  2. Pour les bugs logiciels : Fournissez une description précise de l'erreur et des étapes détaillées de pour faciliter le débogage. Si le problème est intermittent, décrivez le contexte, l'environnement et les paramètres de configuration. Mentionnez également les informations sur la plateforme (Windows, Mac ou Linux) et la version du logiciel.

Demande de documentation ou suggestions

Contactez la chaîne Telegram @Wangmouuu, QQ (1355873789) ou envoyez un e-mail à : [email protected].

Licence commerciale

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Cherry Studio Accord de Licence

L'utilisation ou la distribution de toute partie ou élément des Matériaux Cherry Studio implique que vous avez pris connaissance et accepté le contenu du présent Accord, qui prend effet immédiatement.

I. Définitions

  1. Le présent Accord de Licence Cherry Studio (ci-après "l’Accord") désigne les termes et conditions régissant l'utilisation, la copie, la distribution et la modification des Matériaux.

  2. "Nous" (ou "Notre") désigne Shanghai Qianhui Technology Co., Ltd.

  3. "Vous" (ou "Votre") désigne toute personne physique ou entité légale exerçant les droits accordés par le présent Accord et/ou utilisant les Matériaux à quelque fin que ce soit et dans tout domaine d'utilisation.

  4. "Tiers" désigne toute personne ou entité légale ne partageant aucun lien de contrôle avec Nous ou Vous.

  5. "Cherry Studio" désigne le logiciel concerné, comprenant sans limitation [exemples : bibliothèques principales, éditeur, extensions, projets d'exemple], ainsi que le code source, la documentation, les exemples de code et tout autre élément distribué avec ce dernier. (Veuillez décrire précisément selon la composition réelle de Cherry Studio)

  6. "Matériaux" désigne collectivement Cherry Studio et la documentation (et toute partie de ceux-ci), propriété exclusive de Shanghai Qianhui Technology Co., Ltd., fournis sous le présent Accord.

  7. "Forme Source" désigne la forme privilégiée pour apporter des modifications, comprenant notamment le code source, les fichiers sources de documentation et les fichiers de configuration.

  8. "Forme Objet" désigne toute forme résultant d'une transformation mécanique ou d'une traduction de la Forme Source, comprenant notamment le code objet compilé, la documentation générée et les formats convertis vers d'autres types de médias.

  9. "Utilisation Commerciale" désigne toute fin présentant un avantage ou bénéfice commercial direct ou indirect, incluant notamment la vente, la licence, l'abonnement, la publicité, le marketing, la formation, les services de conseil, etc.

  10. "Modification" désigne tout changement, adaptation, création dérivée ou développement secondaire apporté à la Forme Source des Matériaux, incluant notamment la modification du nom de l'application, du logo, du code, des fonctionnalités, de l'interface, etc.

II. Octroi de droits

  1. Utilisation commerciale gratuite (Code non modifié uniquement) : Nous Vous accordons, sous réserve des termes et conditions du présent Accord, une licence non exclusive, mondiale, non cessible, exempte de redevances, pour utiliser, copier, distribuer les Matériaux non modifiés, y compris à des fins d'Utilisation Commerciale, conformément à Nos droits de propriété intellectuelle ou autres droits existants dans les Matériaux.

  2. Licence commerciale (si nécessaire) : Sous réserve de remplir les conditions énoncées à l'article III "Licence Commerciale", Vous devez obtenir une licence commerciale écrite explicite de Notre part pour exercer les droits en vertu du présent Accord.

III. Licence commerciale

Vous devez Nous contacter et obtenir une licence commerciale écrite explicite avant de continuer à utiliser les Matériaux Cherry Studio dans les cas suivants :

  1. Modifications et créations dérivées : Vous modifiez les Matériaux ou effectuez un développement dérivé basé sur ceux-ci (incluant notamment la modification du nom de l'application, du logo, du code, des fonctionnalités, de l'interface, etc.).

  2. Services d'entreprise : Vous fournissez des services basés sur Cherry Studio au sein de Votre entreprise ou pour des clients entreprises, prenant en charge 10 utilisateurs cumulés ou plus.

  3. Vente groupée avec matériel : Vous préinstallez ou intégrez Cherry Studio dans un équipement ou produit matériel pour une vente groupée.

  4. Approvisionnement à grande échelle par des institutions publiques ou éducatives : Votre cas d'usage relève d'un projet d'approvisionnement à grande échelle par des institutions gouvernementales ou éducatives, notamment impliquant des exigences sensibles (sécurité, confidentialité des données).

  5. Service cloud public : Vous proposez un service cloud public basé sur Cherry Studio.

IV. Redistribution

Vous pouvez distribuer des copies des Matériaux non modifiés ou les fournir dans le cadre d'un produit ou service contenant des Matériaux non modifiés, sous Forme Source ou Forme Objet, à condition de :

  1. Fournir une copie du présent Accord à tout autre destinataire des Matériaux ;

  2. Conserver dans toutes les copies des Matériaux que Vous distribuez l'avis d'attribution suivant, placé dans un fichier "NOTICE" ou texte similaire distribué avec ces copies : `"Cherry Studio est licencié sous les termes du Cherry Studio LICENSE AGREEMENT, Copyright (c) 上海千彗科技有限公司. Tous droits réservés."`

V. Règles d'utilisation

  1. Les Matériaux peuvent être soumis à des contrôles ou restrictions à l'exportation. Vous devez respecter les lois et règlements applicables lors de leur utilisation.

  2. Si Vous utilisez les Matériaux ou leurs résultats pour créer, entraîner, affiner ou améliorer un logiciel ou modèle destiné à être distribué, Nous Vous encourageons à indiquer clairement "Built with Cherry Studio" ou "Powered by Cherry Studio" dans la documentation associée.

VI. Propriété intellectuelle

  1. Nous conservons la propriété de tous les droits de propriété intellectuelle sur les Matériaux et les œuvres dérivées créées par ou pour Nous. Sous réserve du respect du présent Accord, la propriété des Modifications et œuvres dérivées créées par Vous sera définie dans la licence commerciale applicable. Sans licence commerciale, Vous ne détenez aucun droit de propriété sur Vos Modifications/œuvres dérivées ; celles-ci restent Notre propriété.

  2. Aucune licence d'utilisation de Nos marques commerciales, marques déposées, marques de service ou noms de produits n'est accordée, sauf pour s'acquitter des obligations de notification ou pour une utilisation raisonnable et usuelle dans la description/redistribution des Matériaux.

  3. Si Vous engagez une action en justice (y compris une demande reconventionnelle) contre Nous ou toute entité, alléguant que les Matériaux ou leurs résultats enfreignent Vos droits de propriété intellectuelle, toutes les licences accordées par le présent Accord prendront fin à la date d'introduction de la procédure.

VII. Exclusion de garantie et limitation de responsabilité

  1. Nous n'avons aucune obligation de support, de mise à jour, de formation ou de développement de nouvelles versions des Matériaux, ni d'accorder de licences connexes.

  2. Les Matériaux sont fournis "TELS QUELS", sans garantie expresse ou implicite (y compris de qualité marchande, de non-contrefaçon ou d'adéquation à un usage particulier). Nous n'offrons aucune garantie concernant leur sécurité/stabilité.

  3. En aucun cas Nous ne serons responsables envers Vous des dommages résultant de l'utilisation ou de l'impossibilité d'utiliser les Matériaux ou leurs résultats, notamment tout dommage direct, indirect, spécial ou consécutif.

  4. Vous Nous défendrez, indemniserez et Nous tiendrez indemnes de toute réclamation faite par un Tiers liée à Votre utilisation ou distribution des Matériaux.

VIII. Durée et résiliation

  1. Le présent Accord prend effet lors de Votre acceptation ou accès aux Matériaux et reste valide jusqu'à résiliation selon ses termes.

  2. Nous pouvons résilier l'Accord en cas de violation de Vos obligations. Après résiliation, Vous cesserez d'utiliser les Matériaux. Les articles VII, IX et "II. Accord du contributeur" (si applicable) survivront à la résiliation.

IX. Droit applicable et juridiction

  1. Le présent Accord et tout litige y afférent sont régis par le droit chinois.

  2. Tout litige né du présent Accord relève de la compétence exclusive des tribunaux populaires de Shanghai.

PS D:\CherryStudio> dir


    目录: D:\CherryStudio


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----         2025/4/18     14:05                user-data-dir
-a----         2025/4/14     23:05       94987175 Cherry-Studio-1.2.4-x64-portable.exe
-a----         2025/4/18     14:05            701 init_cherry_studio.bat
@title Initialisation CherryStudio
@echo off

set current_path_dir=%~dp0
@echo Chemin actuel : %current_path_dir%
set user_data_dir=%current_path_dir%user-data-dir
@echo Chemin des données CherryStudio : %user_data_dir%

@echo Recherche de Cherry-Studio-*-portable.exe dans le chemin actuel
setlocal enabledelayedexpansion

for /f "delims=" %%F in ('dir /b /a-d "Cherry-Studio-*-portable*.exe" 2^>nul') do ( # Ce code s'adapte aux versions GitHub et officielles, modifiez si nécessaire
    set "target_file=!cd!\%%F"
    goto :break
)
:break
if defined target_file (
    echo Fichier trouvé : %target_file%
) else (
    echo Aucun fichier correspondant, arrêt du script
    pause
    exit
)

@echo Confirmez pour continuer
pause

@echo Lancement de CherryStudio
start %target_file% --user-data-dir="%user_data_dir%"

@echo Opération terminée
@echo on
exit
PS D:\CherryStudio> dir .\user-data-dir\


    目录: D:\CherryStudio\user-data-dir


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----         2025/4/18     14:29                blob_storage
d-----         2025/4/18     14:07                Cache
d-----         2025/4/18     14:07                Code Cache
d-----         2025/4/18     14:07                Data
d-----         2025/4/18     14:07                DawnGraphiteCache
d-----         2025/4/18     14:07                DawnWebGPUCache
d-----         2025/4/18     14:07                Dictionaries
d-----         2025/4/18     14:07                GPUCache
d-----         2025/4/18     14:07                IndexedDB
d-----         2025/4/18     14:07                Local Storage
d-----         2025/4/18     14:07                logs
d-----         2025/4/18     14:30                Network
d-----         2025/4/18     14:07                Partitions
d-----         2025/4/18     14:29                Session Storage
d-----         2025/4/18     14:07                Shared Dictionary
d-----         2025/4/18     14:07                WebStorage
-a----         2025/4/18     14:07             36 .updaterId
-a----         2025/4/18     14:29             20 config.json
-a----         2025/4/18     14:07            434 Local State
-a----         2025/4/18     14:29             57 Preferences
-a----         2025/4/18     14:09           4096 SharedStorage
-a----         2025/4/18     14:30            140 window-state.json
https://github.com/CherryHQ/cherry-studio/issues/621#issuecomment-2588652880
:root {
  --color-background: #1a462788;
  --color-background-soft: #1a4627aa;
  --color-background-mute: #1a462766;
  --navbar-background: #1a4627;
  --chat-background: #1a4627;
  --chat-background-user: #28b561;
  --chat-background-assistant: #1a462722;
}

#content-container {
  background-color: #2e5d3a !important;
}
:root {
  font-family: "汉仪唐美人" !important; /* police de caractères */
}

/* Couleur du texte en mode réflexion approfondie */
.ant-collapse-content-box .markdown {
  color: red;
}

/* Variables de thème */
:root {
  --color-black-soft: #2a2b2a; /* couleur de fond sombre */
  --color-white-soft: #f8f7f2; /* couleur de fond claire */
}

/* Thème sombre */
body[theme-mode="dark"] {
  /* Couleurs */
  --color-background: #2b2b2b; /* couleur de fond sombre */
  --color-background-soft: #303030; /* couleur de fond claire */
  --color-background-mute: #282c34; /* couleur de fond neutre */
  --navbar-background: var(-–color-black-soft); /* couleur de fond de la barre de navigation */
  --chat-background: var(–-color-black-soft); /* couleur de fond du chat */
  --chat-background-user: #323332; /* couleur de fond des messages utilisateur */
  --chat-background-assistant: #2d2e2d; /* couleur de fond des messages de l'assistant */
}

/* Styles spécifiques au thème sombre */
body[theme-mode="dark"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* couleur de fond du conteneur */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* couleur de fond des messages */
  }

  .inputbar-container {
    background-color: #3d3d3a; /* couleur de fond de la zone de saisie */
    border: 1px solid #5e5d5940; /* couleur de bordure de la zone de saisie */
    border-radius: 8px; /* rayon de bordure de la zone de saisie */
  }

  /* Styles de code */
  code {
    background-color: #e5e5e20d; /* couleur de fond du code */
    color: #ea928a; /* couleur du texte du code */
  }

  pre code {
    color: #abb2bf; /* couleur du texte du code préformaté */
  }
}

/* Thème clair */
body[theme-mode="light"] {
  /* Couleurs */
  --color-white: #ffffff; /* blanc */
  --color-background: #ebe8e2; /* couleur de fond claire */
  --color-background-soft: #cbc7be; /* couleur de fond claire */
  --color-background-mute: #e4e1d7; /* couleur de fond neutre */
  --navbar-background: var(-–color-white-soft); /* couleur de fond de la barre de navigation */
  --chat-background: var(-–color-white-soft); /* couleur de fond du chat */
  --chat-background-user: #f8f7f2; /* couleur de fond des messages utilisateur */
  --chat-background-assistant: #f6f4ec; /* couleur de fond des messages de l'assistant */
}

/* Styles spécifiques au thème clair */
body[theme-mode="light"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* couleur de fond du conteneur */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* couleur de fond des messages */
  }

  .inputbar-container {
    background-color: #ffffff; /* couleur de fond de la zone de saisie */
    border: 1px solid #87867f40; /* couleur de bordure de la zone de saisie */
    border-radius: 8px; /* rayon de bordure de la zone de saisie (ajustez à votre convenance) */
  }

  /* Styles de code */
  code {
    background-color: #3d39290d; /* couleur de fond du code */
    color: #7c1b13; /* couleur du texte du code */
  }

  pre code {
    color: #000000; /* couleur du texte du code préformaté */
  }
}
https://github.com/CherryHQ/cherry-studio/tree/main/src/renderer/src/assets/styles
https://github.com/boilcy/cherrycss
https://linux.do/t/topic/325119/129
CSS personnalisé
Xiaohongshu
Bilibili
Weibo
Douyin
Twitter(X)
​
​
https://cherry-ai.com/download
https://pan.quark.cn/s/c8533a1ec63e#/list/share
gestion des clés API de PPIO
​
Chen En
​
《 Vous en avez marre des délais d'attente DeepSeek ? PPIO + DeepSeek full-speed = ? Fini les congestions, démarrage immédiat 》

Code Tools

Tools

Ce document a été traducido del chino por IA y aún no ha sido revisado.

La version Cherry Studio v1.5.7 introduit une fonctionnalité puissante et simple d'utilisation : Code Agent, permettant de démarrer et gérer directement divers agents de programmation IA. Ce tutoriel vous guidera à travers le processus complet de configuration et de démarrage.


Étapes opérationnelles

1. Mettez à jour Cherry Studio

Assurez-vous d'abord que votre Cherry Studio est mis à jour vers la version v1.5.7 ou supérieure. Vous pouvez télécharger la dernière version sur GitHub Releases ou le site officiel.

2. Ajustez la position de la barre de navigation

Pour faciliter l'utilisation des onglets supérieurs, nous recommandons de positionner la barre de navigation en haut.

  • Chemin d'accès : Paramètres -> Paramètres d'affichage -> Configuration de la barre de navigation

  • Définissez l'option "Position de la barre de navigation" sur Haut.

3. Créez un nouvel onglet

Cliquez sur l'icône "+" en haut de l'interface pour créer un nouvel onglet vierge.

4. Activez la fonction Code Agent

Dans le nouvel onglet, cliquez sur l'icône Code (ou </>) pour accéder à l'interface de configuration de Code Agent.

5. Sélectionnez un outil CLI

Choisissez un outil Code Agent selon vos besoins et votre clé API disponible. Actuellement pris en charge :

  • Claude Code

  • Gemini CLI

  • Qwen Code

  • OpenAI Codex

6. Sélectionnez le modèle pour l'Agent

Dans la liste déroulante des modèles, choisissez un modèle compatible avec l'outil CLI sélectionné. (Consultez les "Remarques importantes" ci-dessous pour la compatibilité détaillée)

7. Spécifiez le répertoire de travail

Cliquez sur "Sélectionner un répertoire" pour définir un espace de travail pour l'Agent. Celui-ci aura accès à tous les fichiers et sous-répertoires pour comprendre le contexte du projet.

8. Configurez les variables d'environnement

  • Configuration automatique : Vos choix aux étapes 6 (modèle) et 7 (répertoire) génèrent automatiquement les variables correspondantes.

  • Ajout personnalisé : Ajoutez des variables spécifiques si nécessaire (ex: PROXY_URL).

9. Options de mise à jour

  • Exécutables intégrés : Cherry Studio inclut tous les exécutables Code Agent, utilisables hors connexion.

  • Mise à jour automatique : Cochez Vérifier les mises à jour et installer la dernière version pour maintenir l'Agent à jour.

10. Lancez l'Agent

Après configuration, cliquez sur Démarrer. Cherry Studio ouvrira le Terminal système avec les variables chargées, exécutant le Code Agent sélectionné. Interagissez avec l'Agent IA dans la fenêtre de terminal.


Remarques importantes

  1. Compatibilité des modèles :

    • Claude Code : Requiert des modèles supportant le format API Anthropic :

      • Modèles Claude

      • DeepSeek V3.1 (plateforme officielle)

      • Kimi K2 (plateforme officielle)

      • GLM 4.5 de Zhipu (plateforme officielle)

      • Attention : Les fournisseurs tiers (One API, New API...) utilisent souvent le format OpenAI pour DeepSeek/Kimi/GLM, incompatible avec Claude Code.

    • Gemini CLI : Requiert les modèles Gemini de Google.

    • Qwen Code : Supporte le format OpenAI Chat Completions. Recommandé : Qwen3 Coder.

    • OpenAI Codex : Supporte les modèles GPT (ex: gpt-4o, gpt-5).

  2. Conflits de dépendances :

    • Cherry Studio intègre un environnement Node.js isolé pour éviter les conflits.

    • En cas d'erreurs, désinstallez les dépendances globales (Node.js, outils système).

  3. Consommation de tokens API :

    • Les Code Agents consomment énormément de tokens. Les tâches complexes génèrent de nombreuses requêtes.

    • Surveillez votre quota API et budget pour éviter les dépassements.

Ce tutoriel vous aidera à maîtriser rapidement les puissantes fonctionnalités Code Agent de Cherry Studio !

Cherry Studio - 全能的 AI 助手Cherry Studio
Cherry Studio - 全能的 AI 助手Cherry Studio

Base de connaissances

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Vulgarisation des connaissances

Que sont les tokens ?

Les tokens sont l'unité fondamentale de traitement du texte par les modèles d'IA, on peut les comprendre comme les plus petites unités de "pensée" du modèle. Ils ne correspondent pas exactement aux caractères ou mots tels que nous les concevons, mais représentent plutôt une méthode particulière de segmentation du texte spécifique au modèle.

1. Segmentation du chinois

  • Un caractère chinois est généralement encodé en 1-2 tokens

  • Par exemple : "你好" ≈ 2-4 tokens

2. Segmentation de l'anglais

  • Les mots courants représentent généralement 1 token

  • Les mots longs ou peu courants sont décomposés en plusieurs tokens

  • Par exemple :

    • "hello" = 1 token

    • "indescribable" = 4 tokens

3. Caractères spéciaux

  • Les espaces, signes de ponctuation occupent également des tokens

  • Un saut de ligne représente généralement 1 token

Les Tokenizers varient selon les fournisseurs de services, et peuvent même différer entre les modèles d'un même fournisseur. Ces explications visent uniquement à clarifier le concept de token.


Qu'est-ce qu'un Tokenizer ?

Le Tokenizer (outil de segmentation) est l'outil qui permet aux modèles d'IA de convertir du texte en tokens. Il détermine comment découper le texte d'entrée en unités minimales compréhensibles par le modèle.

Pourquoi les Tokenizers diffèrent-ils selon les modèles ?

1. Données d'entraînement différentes

  • Corpus différents entraînant des optimisations distinctes

  • Prise en charge variable des langues multiples

  • Optimisations spécifiques à certains domaines (médical, juridique, etc.)

2. Algorithmes de segmentation différents

  • BPE (Byte Pair Encoding) - Série GPT d'OpenAI

  • WordPiece - Google BERT

  • SentencePiece - Adapté aux scénarios multilingues

3. Objectifs d'optimisation différents

  • Certains privilégient la compression

  • D'autres la préservation sémantique

  • D'autres encore la vitesse de traitement

Impact concret

Un même texte peut produire différents nombres de tokens selon les modèles :

Entrée : "Hello, world!"
GPT-3 : 4 tokens
BERT : 3 tokens
Claude : 3 tokens

Qu'est-ce qu'un modèle d'embedding (Embedding Model) ?

Concept de base : Un modèle d'embedding est une technique convertissant des données discrètes dimensionnelles élevées (texte, images...) en vecteurs continus de basse dimension. Cette conversion permet aux machines de mieux comprendre et traiter des données complexes. Imaginez transformer un puzzle complexe en un simple point de coordonnées qui conserve les caractéristiques clés du puzzle. Dans l'écosystème des grands modèles, il agit comme un "traducteur", transformant des informations humainement compréhensibles en formes numériques calculables par l'IA.

Mode de fonctionnement : En traitement du langage naturel, le modèle d'embedding projette les mots dans un espace vectoriel où les termes sémantiquement proches se regroupent naturellement. Par exemple :

  • Les vecteurs de "roi" et "reine" seront proches

  • Les termes comme "chat" et "chien" formeront un autre groupe

  • Des mots sans lien sémantique comme "voiture" et "pain" seront éloignés

Principaux scénarios d'application :

  • Analyse de texte : classification documentaire, analyse des sentiments

  • Systèmes de recommandation : suggestions de contenu personnalisées

  • Traitement d'images : recherche d'images similaires

  • Moteurs de recherche : optimisation de la recherche sémantique

Avantages clés :

  1. Réduction dimensionnelle : simplification des données complexes

  2. Cohérence sémantique : préservation des informations sémantiques essentielles

  3. Efficacité computationnelle : accélération significative de l'entraînement et de l'inférence

Valeur technique : Les modèles d'embedding sont des composants fondamentaux des systèmes d'IA modernes. Ils fournissent des représentations de données de haute qualité pour les tâches d'apprentissage automatique, constituant une technologie clé dans le développement du traitement du langage naturel et de la vision par ordinateur.


Fonctionnement du modèle d'Embedding dans la recherche de connaissances

Flux de travail de base :

  1. Phase de prétraitement de la base de connaissances

  • Segmentation des documents en chunks (blocs de texte) appropriés

  • Conversion de chaque chunk en vecteur via le modèle d'embedding

  • Stockage des vecteurs et du texte original dans une base de données vectorielle

  1. Phase de traitement des requêtes

  • Conversion de la question utilisateur en vecteur

  • Recherche de contenu similaire dans la base vectorielle

  • Fourniture des résultats pertinents comme contexte au LLM


Qu'est-ce que MCP (Model Context Protocol) ?

MCP est un protocole open source visant à fournir des informations contextuelles aux grands modèles de langage (LLM) de manière standardisée.

  • Analogie : Imaginez MCP comme une "clé USB" pour l'IA. De même qu'une clé USB stocke divers fichiers accessibles sur ordinateur, le serveur MCP peut "brancher" différents "plugins" contextuels. Les LLM peuvent ainsi accéder à ces composants selon leurs besoins, enrichissant leurs capacités par un contexte élargi.

  • Comparaison avec les outils fonctionnels : Les outils fonctionnels traditionnels étendent les capacités des LLM, mais MCP propose une abstraction de niveau supérieur. Alors que les outils fonctionnels sont spécifiques à certaines tâches, MCP offre un mécanisme contextuel modulaire et universel.

Avantages clés de MCP

  1. Standardisation : Interface et format de données unifiés pour une collaboration transparente

  2. Modularité : Décomposition de l'information contextuelle en modules indépendants (plugins)

  3. Flexibilité : Sélection dynamique des plugins contextuels par les LLM

  4. Évolutivité : Architecture ouverte à de nouveaux types de plugins contextuels


Base de connaissances

FAQ

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Codes d'erreur courants

  • 4xx (codes d'état d'erreur client) : Généralement des erreurs de syntaxe de requête, d'échec d'authentification ou d'autorisation empêchant l'exécution de la demande.

  • 5xx (codes d'état d'erreur serveur) : Généralement des erreurs côté serveur, comme un serveur en panne ou un dépassement du délai de traitement.

Code erreur
Scénarios possibles
Solutions

400

Format du corps de la requête incorrect, etc.

Consultez le contenu d'erreur renvoyé ou pour l'erreur et agissez selon les instructions.

401

Échec d'authentification : modèle non pris en charge ou compte suspendu

Vérifier l'état du compte auprès du fournisseur

403

Autorisation refusée pour l'opération demandée

Suivre les instructions dans l'erreur ou consulter les erreurs dans la

404

Ressource introuvable

Vérifier le chemin de la requête

422

Format de requête correct mais erreur sémantique

Erreur interprétable par le serveur mais non traitable (ex : valeur nulle, type incorrect comme un nombre au lieu d'une chaîne).

429

Limite de débit de requêtes atteinte

Réessayer après une durée de refroidissement

500

Erreur interne du serveur

Contacter le fournisseur si persistant

501

Fonction non implémentée par le serveur

502

Réponse invalide d'un serveur proxy ou passerelle

503

Serveur temporairement surchargé (retry après délai dans l'en-tête Retry-After)

504

Serveur proxy/passerelle n'a pas reçu la réponse du serveur distant à temps


Comment consulter les erreurs dans la console

  • Appuyer sur Ctrl + Shift + I (Mac: Command + Option + I) devant la fenêtre client de Cherry Studio

  • La fenêtre active doit être celle du client Cherry Studio pour ouvrir la console ;

  • Ouvrir d'abord la console avant de lancer les requêtes (test, dialogue, etc.).

  • Dans la console, cliquer sur Network → Sélectionner le dernier élément marqué d'un × rouge : completions (erreurs de dialogue/traduction) ou generations (erreurs de génération d'images) → Cliquer sur Response pour voir le contenu complet (zone ④).

Si vous ne trouvez pas la cause de l'erreur, partagez une capture de cet écran dans le groupe officiel.

Cette méthode fonctionne pour les dialogues, tests de modèles, ajout de bases de connaissances, générations d'images, etc. Ouvrir toujours la console avant l'opération.

Différents scénarios utilisent des noms différents dans la colonne Name(②) :

Dialogue/traduction/vérification de modèle : completions

Génération d'images : generations

Création de base de connaissances : embeddings


Formules non rendues / erreurs de rendu

  • Si la formule s'affiche en code source, vérifier les délimiteurs :

Utilisation des délimiteurs

Formule en ligne

  • Utiliser $formule$

  • ou \(formule\)

Bloc de formule

  • Utiliser $$formule$$

  • ou \[formule\]

  • Exemple : $$\sum_{i=1}^n x_i$$ ∑i=1nxi\sum_{i=1}^n x_i∑i=1n​xi​

  • Si le rendu est incorrect (souvent avec des caractères chinois), basculer le moteur de formules vers KateX.


Impossible de créer une base de connaissances / échec de récupération des dimensions d'embedding

  1. Modèle indisponible

Vérifier si le modèle est pris en charge par le fournisseur et si son statut est normal.

  1. Utilisation d'un modèle non adapté à l'embedding


Modèle ne reconnaît pas les images / impossibilité de sélectionner ou télécharger des images

Vérifier d'abord si le modèle supporte la reconnaissance d'images. Dans Cherry Studio, les modèles compatibles sont indiqués par une icône d'œil 👁️ après leur nom.

Les modèles compatibles permettent le téléchargement d'images. Si la fonctionnalité n'est pas activée, accéder aux paramètres du modèle chez le fournisseur et cocher l'option "image".

Consulter les informations détaillées du modèle chez le fournisseur. Les modèles non visuels n'utiliseront pas cette fonction même si activée.

Modèles d'embedding

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Informations de référence sur les modèles d'incorporation

Pour éviter les erreurs, certaines valeurs de « max input » dans ce document ne sont pas indiquées comme limites extrêmes. Par exemple : lorsque la limite officielle est de 8k (sans valeur exacte précisée), la valeur de référence donnée dans ce document est 8191 ou 8000, etc. (Si ce n'est pas clair, ignorez et utilisez simplement la valeur de référence indiquée dans le document.)

Volcano-Doubao

Nom
max input

Alibaba

Nom
max input

OpenAI

Nom
max input

Baidu

Nom
max input

Zhipu

Nom
max input

Hunyuan

Nom
max input

Baichuan

Nom
max input

Together

Nom
max input

Jina

Nom
max input

SiliconFlow

Nom
max input

Gemini

Nom
max input

Nomic

Nom
max input

Console

Nom
max input

Cohere

Nom
max input

Classement des modèles

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Ce classement est généré automatiquement à partir des données de Chatbot Arena (lmarena.ai).

Date de mise à jour des données : 2025-09-11 11:40:35 UTC / 2025-09-11 19:40:35 CST (Heure de Pékin)

Cliquez sur le nom du modèle dans le classement pour accéder à sa page de détails ou d'essai.

Classement

Rang (UB)
Rang (StyleCtrl)
Modèle
Score
Intervalle de confiance
Votes
Fournisseur
Licence
Date de fin de connaissance

Explications

  • Rang (UB) : Classement calculé à partir du modèle Bradley-Terry. Ce rang reflète la performance globale du modèle dans l'arène et fournit une estimation de la borne supérieure de son score Elo, aidant à comprendre sa compétitivité potentielle.

  • Rang (StyleCtrl) : Classement après contrôle du style conversationnel. Ce rang vise à réduire les biais de préférence liés au style des réponses (par exemple verbose ou concis), évaluant plus purement les capacités fondamentales du modèle.

  • Modèle : Nom du grand modèle de langage (LLM). Cette colonne intègre des liens vers les modèles ; cliquez pour accéder au détail.

  • Score : Score Elo obtenu par le modèle via les votes des utilisateurs dans l'arène. Le score Elo est un système de classement relatif : plus le score est élevé, meilleure est la performance du modèle. Ce score est dynamique et reflète la position concurrentielle actuelle du modèle.

  • Intervalle de confiance : Intervalle de confiance à 95% du score Elo (par exemple : +6/-6). Plus cet intervalle est petit, plus le score est stable et fiable ; inversement, un intervalle large peut indiquer des données insuffisantes ou une performance variable. Il fournit une évaluation quantitative de la précision du score.

  • Votes : Nombre total de votes reçus par le modèle dans l'arène. Plus le nombre de votes est élevé, plus la fiabilité statistique du score est généralement importante.

  • Fournisseur : Organisation ou entreprise fournissant le modèle.

  • Licence : Type de licence du modèle (ex : propriétaire, Apache 2.0, MIT, etc.).

  • Date de fin de connaissance : Date limite des données d'entraînement. Aucune donnée signifie que l'information n'est pas fournie ou inconnue.

Source des données et fréquence de mise à jour

Les données de ce classement sont générées automatiquement par le projet , qui collecte et traite les données de . Ce classement est mis à jour quotidiennement par GitHub Actions.

Clause de non-responsabilité

Ce rapport est fourni à titre informatif uniquement. Les données du classement sont dynamiques et basées sur les votes de préférence des utilisateurs de Chatbot Arena pendant une période spécifique. L'exhaustivité et l'exactitude des données dépendent de la source amont et des mises à jour du projet fboulnois/llm-leaderboard-csv. Différents modèles peuvent utiliser différentes licences ; veuillez vous référer aux instructions officielles des fournisseurs de modèles avant toute utilisation.

Doubao-embedding

4095

Doubao-embedding-vision

8191

Doubao-embedding-large

4095

text-embedding-v3

8192

text-embedding-v2

2048

text-embedding-v1

2048

text-embedding-async-v2

2048

text-embedding-async-v1

2048

text-embedding-3-small

8191

text-embedding-3-large

8191

text-embedding-ada-002

8191

Embedding-V1

384

tao-8k

8192

embedding-2

1024

embedding-3

2048

hunyuan-embedding

1024

Baichuan-Text-Embedding

512

M2-BERT-80M-2K-Retrieval

2048

M2-BERT-80M-8K-Retrieval

8192

M2-BERT-80M-32K-Retrieval

32768

UAE-Large-v1

512

BGE-Large-EN-v1.5

512

BGE-Base-EN-v1.5

512

jina-embedding-b-en-v1

512

jina-embeddings-v2-base-en

8191

jina-embeddings-v2-base-zh

8191

jina-embeddings-v2-base-de

8191

jina-embeddings-v2-base-code

8191

jina-embeddings-v2-base-es

8191

jina-colbert-v1-en

8191

jina-reranker-v1-base-en

8191

jina-reranker-v1-turbo-en

8191

jina-reranker-v1-tiny-en

8191

jina-clip-v1

8191

jina-reranker-v2-base-multilingual

8191

reader-lm-1.5b

256000

reader-lm-0.5b

256000

jina-colbert-v2

8191

jina-embeddings-v3

8191

BAAI/bge-m3

8191

netease-youdao/bce-embedding-base_v1

512

BAAI/bge-large-zh-v1.5

512

BAAI/bge-large-en-v1.5

512

Pro/BAAI/bge-m3

8191

text-embedding-004

2048

nomic-embed-text-v1

8192

nomic-embed-text-v1.5

8192

gte-multilingual-base

8192

embedding-query

4000

embedding-passage

4000

embed-english-v3.0

512

embed-english-light-v3.0

512

embed-multilingual-v3.0

512

embed-multilingual-light-v3.0

512

embed-english-v2.0

512

embed-english-light-v2.0

512

embed-multilingual-v2.0

256

Adresse de référence officielle des modèles
Adresse de référence officielle des modèles
Adresse de référence officielle des modèles
Adresse de référence officielle des modèles
Adresse de référence officielle des modèles
Adresse de référence officielle des modèles
Adresse de référence officielle des modèles
Adresse de référence officielle des modèles
Adresse de référence officielle des modèles
Adresse de référence officielle des modèles
Adresse de référence officielle des modèles
Adresse de référence officielle des modèles
Adresse de référence officielle des modèles
Adresse de référence officielle des modèles

1

1

Gemini-2.5-Pro

1470

+5/-5

26,019

Google

Propriétaire

nan

2

2

Gemini-2.5-Pro-Preview-05-06

1446

+6/-6

13,715

Google

Propriétaire

nan

3

2

GLM-4.5

1434

+9/-9

4,112

Z.ai

MIT

nan

4

2

Grok-4-0709

1434

+6/-6

13,058

xAI

Propriétaire

nan

...

...

...

...

...

...

...

...

...

266

264

LLaMA-13B

840

+16/-16

2,446

Meta

Non commercial

2023/2

fboulnois/llm-leaderboard-csv
lmarena.ai
Logo
la console
[Cas courant 1] : Pour les modèles Gemini, une configuration de carte peut être nécessaire ; [Cas courant 2] : Limite de données dépassée (modèles visuels) - la taille de l'image dépasse la limite de requête ; [Cas courant 3] : Paramètre non pris en charge ou erroné - tester avec un nouvel assistant vierge ; [Cas courant 4] : Contexte trop large - réinitialiser ou réduire l'historique.
console

Déploiement local de SearXNG

Ce document a été traducido del chino por IA y aún no ha sido revisado.

Déploiement et configuration de SearXNG

CherryStudio prend en charge les recherches sur le web via SearXNG, un projet open source pouvant être déployé localement ou sur un serveur. Son mode de configuration diffère légèrement des autres solutions nécessitant des fournisseurs d'API.

Lien du projet SearXNG : SearXNG

Avantages de SearXNG

  • Open source et gratuit, sans API nécessaire

  • Respect élevé de la vie privée

  • Hautement personnalisable

Déploiement local

1. Déploiement direct via Docker

Comme SearXNG ne nécessite pas de configuration environnementale complexe, vous pouvez le déployer simplement en fournissant un port libre sans utiliser docker compose. La méthode la plus rapide consiste à utiliser Docker pour extraire directement l'image et la déployer.

1. Télécharger et configurer Docker

Après l'installation, choisissez un chemin de stockage pour l'image :

2. Rechercher et extraire l'image SearXNG

Entrez searxng dans la barre de recherche :

Extraire l'image :

3. Exécuter l'image

Après l'extraction réussie, accédez à la page Images :

Sélectionnez l'image extraite et cliquez sur Exécuter :

Ouvrez les paramètres pour configurer :

Exemple avec le port 8085 :

Après le succès de l'exécution, cliquez sur le lien pour ouvrir l'interface frontale de SearXNG :

Cette page indique que le déploiement a réussi :

Déploiement sur serveur

Comme l'installation de Docker sous Windows peut être complexe, les utilisateurs peuvent déployer SearXNG sur un serveur et le partager avec d'autres. Malheureusement, SearXNG ne prend pas encore en charge l'authentification nativement, permettant ainsi à d'autres personnes de scanner et d'utiliser abusivement votre instance déployée.

Cherry Studio prend désormais en charge la configuration de l'authentification HTTP de base (RFC7617). Si vous exposez votre SearXNG déployé sur Internet, il est impératif de configurer cette authentification via un logiciel de proxy inverse comme Nginx. Voici un bref tutoriel qui nécessite des connaissances de base en administration Linux.

Déployer SearXNG

De manière similaire, utilisez Docker pour le déploiement. Supposons que vous ayez déjà installé Docker CE sur le serveur selon le tutoriel officiel. Voici des commandes complètes pour une installation neuve sous Debian :

sudo apt update
sudo apt install git -y

# Extraire le dépôt officiel
cd /opt
git clone https://github.com/searxng/searxng-docker.git
cd /opt/searxng-docker

# Si la bande passante de votre serveur est limitée, définissez sur false
export IMAGE_PROXY=true

# Modifier le fichier de configuration
cat <<EOF > /opt/searxng-docker/searxng/settings.yml
# voir https://docs.searxng.org/admin/settings/settings.html#settings-use-default-settings
use_default_settings: true
server:
  # base_url est défini dans la variable d'environnement SEARXNG_BASE_URL, voir .env et docker-compose.yml
  secret_key: $(openssl rand -hex 32)
  limiter: false  # peut être désactivé pour une instance privée
  image_proxy: $IMAGE_PROXY
ui:
  static_use_hash: true
redis:
  url: redis://redis:6379/0
search:
  formats:
    - html
    - json
EOF

Si vous devez modifier le port d'écoute local ou réutiliser un Nginx existant, éditez le fichier docker-compose.yaml comme suit :

version: "3.7"

services:
# Si Caddy n'est pas nécessaire et que vous réutilisez un Nginx local existant, supprimez cette section.
  caddy:
    container_name: caddy
    image: docker.io/library/caddy:2-alpine
    network_mode: host
    restart: unless-stopped
    volumes:
      - ./Caddyfile:/etc/caddy/Caddyfile:ro
      - caddy-data:/data:rw
      - caddy-config:/config:rw
    environment:
      - SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost}
      - SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}
    cap_drop:
      - ALL
    cap_add:
      - NET_BIND_SERVICE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"
# Si Caddy n'est pas nécessaire et que vous réutilisez un Nginx local existant, supprimez cette section.
  redis:
    container_name: redis
    image: docker.io/valkey/valkey:8-alpine
    command: valkey-server --save 30 1 --loglevel warning
    restart: unless-stopped
    networks:
      - searxng
    volumes:
      - valkey-data2:/data
    cap_drop:
      - ALL
    cap_add:
      - SETGID
      - SETUID
      - DAC_OVERRIDE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

  searxng:
    container_name: searxng
    image: docker.io/searxng/searxng:latest
    restart: unless-stopped
    networks:
      - searxng
    # Par défaut mappé sur le port 8080 de l'hôte, si vous voulez écouter sur 8000, remplacez par "127.0.0.1:8000:8080"
    ports:
      - "127.0.0.1:8080:8080"
    volumes:
      - ./searxng:/etc/searxng:rw
    environment:
      - SEARXNG_BASE_URL=https://${SEARXNG_HOSTNAME:-localhost}/
      - UWSGI_WORKERS=${SEARXNG_UWSGI_WORKERS:-4}
      - UWSGI_THREADS=${SEARXNG_UWSGI_THREADS:-4}
    cap_drop:
      - ALL
    cap_add:
      - CHOWN
      - SETGID
      - SETUID
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

networks:
  searxng:

volumes:
# Si Caddy n'est pas nécessaire et que vous réutilisez un Nginx local existant, supprimez cette section
  caddy-data:
  caddy-config:
# Si Caddy n'est pas nécessaire et que vous réutilisez un Nginx local existant, supprimez cette section
  valkey-data2:

Exécutez docker compose up -d pour démarrer. Visualisez les journaux avec docker compose logs -f searxng.

Déployer le proxy inverse Nginx et l'authentification HTTP de base

Si vous utilisez des panneaux de serveur comme Baota ou 1Panel, consultez leur documentation pour ajouter un site et configurer le proxy inverse Nginx. Modifiez ensuite le fichier de configuration Nginx comme dans l'exemple ci-dessous :

server
{
    listen 443 ssl;

    # Votre nom d'hôte
    server_name search.example.com;

    # index index.html;
    # root /data/www/default;

    # Si SSL est configuré, ajoutez ces deux lignes
    ssl_certificate    /path/to/your/cert/fullchain.pem;
    ssl_certificate_key    /path/to/your/cert/privkey.pem;

    # HSTS
    # add_header Strict-Transport-Security "max-age=31536000; includeSubDomains; preload";

    # Configuration proxy inverse standard
    location / {
        # Ajoutez ces deux lignes dans le bloc location, conservez le reste
        auth_basic "Veuillez saisir votre nom d'utilisateur et mot de passe";
        auth_basic_user_file /etc/nginx/conf.d/search.htpasswd;

        proxy_http_version 1.1;
        proxy_set_header Connection "";
        proxy_redirect off;
        proxy_set_header Host $host;
        proxy_set_header X-Forwarded-For $proxy_protocol_addr;
        proxy_pass http://127.0.0.1:8000;
        client_max_body_size 0;
    }

    # access_log  ...;
    # error_log  ...;
}

Supposons que le fichier de configuration Nginx soit dans /etc/nginx/conf.d, placez-y également le fichier de mots de passe.

Exécutez la commande (remplacez example_name et example_password par vos identifiants) :

echo "example_name:$(openssl passwd -5 'example_password')" > /etc/nginx/conf.d/search.htpasswd

Redémarrez Nginx (ou rechargez la configuration).

Ouvrez ensuite la page web. Vous devriez être invité à saisir vos identifiants. Entrez ceux définis précédemment pour vérifier la configuration.

Configuration dans Cherry Studio

Une fois SearXNG déployé localement ou sur serveur, procédez à la configuration dans CherryStudio.

Accédez à la page des paramètres de recherche web et sélectionnez Searxng :

La validation échoue si vous entrez directement l'URL du déploiement local :

Cela est dû au format JSON non activé par défaut. Modifiez le fichier de configuration.

Revenez à Docker, dans l'onglet Fichiers, trouvez le dossier avec les étiquettes :

Déroulez et trouvez un autre dossier étiqueté :

Localisez le fichier de configuration settings.yml :

Ouvrez l'éditeur de fichiers :

À la ligne 78, seul le format html est présent :

Ajoutez le format json, enregistrez et réexécutez l'image :

Revenez dans Cherry Studio pour valider :

L'adresse peut être locale : http://localhost:port Ou l'adresse Docker : http://host.docker.internal:port

Pour les déploiements serveur avec proxy inverse et format json activé, la validation retournera l'erreur 401 si l'authentification HTTP est configurée :

Configurez l'authentification HTTP de base dans le client avec vos identifiants :

La validation devrait alors réussir.

Autres configurations

SearXNG possède désormais une capacité de recherche par défaut. Pour personnaliser les moteurs de recherche, configurez manuellement.

Notez que ces préférences n'affectent pas la configuration appelée par le grand modèle :

Pour configurer les moteurs utilisés par le grand modèle, modifiez le fichier de configuration :

Référence de configuration linguistique :

Si le contenu est trop long, copiez-le dans un IDE local, modifiez-le et collez-le dans le fichier de configuration.

Causes courantes d'échec de validation

Format de retour sans JSON

Ajoutez json aux formats de retour dans le fichier de configuration :

Moteur de recherche mal configuré

Cherry Studio sélectionne par défaut les moteurs avec des catégories web et general. Google étant souvent inaccessible en Chine, forcez l'utilisation de Baidu :

use_default_settings:
  engines:
    keep_only:
      - baidu
engines:
  - name: baidu
    engine: baidu 
    categories: 
      - web
      - general
    disabled: false

Taux de requêtes trop élevé

Désactivez le limiteur de SearXNG dans les paramètres :

Logo