Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Suivez-nous sur les réseaux sociaux : Twitter (X), Xiaohongshu, Weibo, Bilibili, Douyin
Rejoignez notre communauté : Groupe QQ (575014769), Telegram, Discord, Groupe WeChat (cliquez pour voir)
Cherry Studio est une plateforme tout-en-un d'assistant IA intégrant des fonctionnalités comme les conversations multi-modèles, la gestion de base de connaissances, la création artistique IA, la traduction, etc. Son design hautement personnalisable, ses puissantes capacités d'extension et son interface conviviale en font une solution idéale pour les utilisateurs professionnels et passionnés d'IA. Qu'ils soient débutants ou développeurs, tous trouveront dans Cherry Studio des fonctions IA adaptées pour améliorer leur productivité et créativité.
Réponses multiples : Permet de générer simultanément des réponses à une même question via plusieurs modèles, facilitant la comparaison des performances. Voir Interface de conversation.
Regroupement automatique : L'historique des conversations est automatiquement organisé par assistant pour un accès rapide.
Exportation des conversations : Permet d'exporter des conversations complètes ou partielles vers Markdown, Word, etc.
Paramètres personnalisables : Au-delà des paramètres basiques, possibilité de définir des paramètres personnalisés.
Marché d'assistants : Propose des milliers d'assistants spécialisés par secteur (traduction, programmation, rédaction), avec création personnalisée.
Rendu multi-formats : Prise en charge du rendu Markdown, des formules mathématiques et de la prévisualisation HTML.
Création artistique IA : Panneau dédié pour générer des images via descriptions textuelles.
Micro-applications IA : Outils IA web gratuits intégrés sans changer de navigateur.
Traduction : Prise en charge de la traduction contextuelle, de dialogue et de prompts.
Gestion des fichiers : Fichiers organisés par catégories (conversations, créations artistiques, bases de connaissances).
Recherche globale : Recherche rapide dans l'historique et les bases de connaissances.
Agrégation de modèles : Prise en charge des modèles d'OpenAI, Gemini, Anthropic, Azure, etc.
Récupération automatique : Liste complète des modèles disponible en un clic.
Rotation des clés API : Utilisation cyclique de multiples clés pour éviter les limitations.
Avatars adaptés : Attribution automatique d'avatars spécifiques à chaque modèle.
Fournisseurs personnalisés : Compatibilité avec des services tiers respectant les normes OpenAI/Gemini/Anthropic.
CSS personnalisé : Personnalisation globale du style visuel.
Disposition de conversations : Mode liste ou bulles, avec styles de messages personnalisés.
Avatars personnalisés : Pour l'application et les assistants.
Barre latérale modifiable : Masquage ou réorganisation des fonctionnalités selon les besoins.
Formats multiples : Prise en charge de PDF, DOCX, PPTX, XLSX, TXT, MD.
Sources variées : Fichiers locaux, URLs, sitemaps ou contenu manuel.
Exportation : Partage des bases de connaissances traitées.
Vérification intégrée : Test de segmentation après import.
Q&R rapides : Assistants contextuels activables depuis n'importe quelle application.
Traduction rapide : Traduction instantanée de mots/textes externes.
Synthèse de contenu : Résumé rapide de longs textes.
Explications simplifiées : Clarification en un clic sans prompts complexes.
Sauvegardes multiples : Locales, WebDAV et planifiées.
Sécurité des données : Utilisation entièrement locale avec modèles locaux pour éviter les fuites.
Accessibilité : Interface adaptée aux débutants pour se concentrer sur le travail ou la création.
Documentation complète : Guides détaillés et FAQ pour résoudre rapidement les problèmes.
Amélioration continue : Mises à jour régulières basées sur les retours utilisateurs.
Ouverture et extensibilité : Code source ouvert pour personnalisations avancées.
Gestion de connaissances : Construction et interrogation de bases dédiées (recherche, éducation).
Conversations multi-modèles : Génération rapide d'informations et de contenu.
Traduction et automatisation : Fonctions de traduction et traitement documentaire.
Création artistique IA : Génération d'images par descriptions textuelles.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
La page Agents est une place d'assistants où vous pouvez sélectionner ou rechercher le modèle prédéfini souhaité. En cliquant sur une carte, vous ajouterez l'assistant à la liste des assistants dans la page de conversation.
Vous pouvez également modifier et créer vos propres assistants sur cette page.
Cliquez sur Mon espace
, puis sur Créer un agent
pour commencer à créer votre propre assistant.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
La fonction de peinture prend actuellement en charge les modèles de DMXAPI, TokenFlux, AiHubMix et SiliconFlow. Vous pouvez créer un compte sur SiliconFlow et l'ajouter comme fournisseur de services pour l'utiliser.
Pour toute question sur les paramètres, passez votre souris sur le ?
dans la zone correspondante pour voir les explications.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Connectez-vous et accédez à la page des jetons
Créez un nouveau jeton (vous pouvez aussi utiliser le jeton par défaut ↑)
Copiez le jeton
Ouvrez les paramètres des fournisseurs de CherryStudio, cliquez sur Ajouter
en bas de la liste des fournisseurs
Entrez un nom de note, sélectionnez OpenAI comme fournisseur, puis cliquez sur OK
Entrez la clé que vous venez de copier
Retournez à la page où vous avez obtenu la clé API, copiez l'adresse racine dans la barre d'adresse du navigateur, par exemple :
Ajoutez les modèles (cliquez sur Gérer pour obtenir automatiquement ou saisissez manuellement) et activez l'interrupteur en haut à droite pour commencer à utiliser.
L'interface peut varier selon le thème OneAPI, mais la méthode d'ajout reste identique aux étapes ci-dessus.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Ouvrez les paramètres de Cherry Studio.
Trouvez l'option Serveur MCP
.
Cliquez sur Ajouter un serveur
.
Remplissez les paramètres du serveur MCP (). Les éléments à remplir peuvent inclure :
Nom : Un nom personnalisé, par exemple fetch-server
Type : Sélectionnez STDIO
Commande : Saisissez uvx
Paramètres : Saisissez mcp-server-fetch
(Peut inclure d'autres paramètres selon le serveur spécifique)
Cliquez sur Sauvegarder
.
Après avoir effectué cette configuration, Cherry Studio téléchargera automatiquement le serveur MCP requis - fetch server
. Une fois le téléchargement terminé, vous pourrez commencer à l'utiliser ! Remarque : Si la configuration de mcp-server-fetch échoue, essayez de redémarrer votre ordinateur.
Le serveur MCP a été ajouté avec succès dans les paramètres Serveur MCP
Comme le montre l'image ci-dessus, après avoir intégré la fonction fetch
de MCP, Cherry Studio peut mieux comprendre l'intention de la requête de l'utilisateur, obtenir des informations pertinentes sur Internet et fournir des réponses plus précises et complètes.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Contact : M. Wang 📮 : [email protected] 📱 : 18954281942 (numéro non destiné au service client)
Pour les questions d'utilisation, rejoignez notre groupe d'échange utilisateurs via le lien en bas de page d'accueil du site officiel, ou contactez-nous par email à [email protected]
Vous pouvez également soumettre des issues sur GitHub : https://github.com/CherryHQ/cherry-studio/issues
Pour un accompagnement personnalisé, rejoignez notre communauté "Knowledge Planet" (星球) : https://wx.zsxq.com/group/48888118185118?group_id=48888118185118&secret=797qkk5sx94p84zr7fxp8h27rn6c35j7&inviter_id=414151881428448&inviter_sid=91n362kab4&share_from=InviteUrl&keyword=sJyfK&type=group
Détails de la licence commerciale : https://docs.cherry-ai.com/contact-us/questions/cherrystudio-xu-ke-xie-yi
Ce document a été traducido del chino por IA y aún no ha sido revisado.
{% hint style="danger" %}
Attention : La génération d'images Gemini nécessite d'utiliser l'interface de conversation, car Gemini est un générateur d'images multimodal interactif qui ne prend pas non plus en charge le réglage des paramètres.
{% endhint %}
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Remarque : Windows 7 n'est pas compatible avec Cherry Studio.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
L'assistant
permet de personnaliser le modèle sélectionné via des paramètres tels que des prompts prédéfinis et des réglages de paramètres, afin de mieux répondre à vos attentes opérationnelles.
L'assistant système par défaut
préconfigure des paramètres génériques (sans prompt). Vous pouvez l'utiliser directement ou trouver des préréglages adaptés dans la page des agents.
L'assistant
est l'ensemble parent des sujets
. Un assistant peut contenir plusieurs sujets (conversations). Tous les sujets
partagent les paramètres et prompts de l'assistant
.
Nouveau sujet
Crée un nouveau sujet sous l'assistant actuel.
Télécharger une image ou un document
Nécessite un modèle prenant en charge les images. Les documents sont automatiquement convertis en texte comme contexte pour le modèle.
Recherche Web
Requiert une configuration dans les paramètres. Les résultats sont fournis au modèle comme contexte. Voir Mode en ligne.
Base de connaissances
Active la base de connaissances. Voir Tutoriel sur les bases de connaissances.
Serveur MCP
Active la fonctionnalité du serveur MCP. Voir Tutoriel MCP.
Générer une image
Non affiché par défaut. Pour les modèles prenant en charge la génération d'images (ex: Gemini), cliquez manuellement pour activer.
Choisir un modèle
Bascule vers un modèle spécifié pour la suite de la conversation, en conservant le contexte.
Phrases rapides
Définissez des phrases fréquentes dans les paramètres pour une insertion rapide, avec prise en charge des variables.
Effacer les messages
Supprime tous les contenus du sujet actuel.
Étendre
Agrandit la boîte de dialogue pour la saisie de textes longs.
Effacer le contexte
Réinitialise le contexte du modèle sans supprimer les contenus visibles.
Estimation des Tokens
Affiche : Contexte actuel
, Contexte maximal
(∞ = illimité), Caractères saisis
, et Tokens estimés
.
Traduire
Traduit le contenu de la boîte de saisie en anglais.
Synchronisés avec les Paramètres du modèle
de l'assistant. Voir Paramètres de l'assistant.
Séparateur de messages
:
Utilise une ligne pour séparer le contenu des messages des boutons d'action.
Utiliser des polices serif
:
Change le style de police. Modifiable via CSS personnalisé.
Afficher les numéros de ligne
:
Affiche les numéros de ligne pour les blocs de code générés.
Blocs de code pliables
:
Plie automatiquement les blocs de code longs.
Retour à la ligne dans les blocs de code
:
Active le retour à la ligne automatique pour les lignes de code longues.
Repli automatique des réflexions
:
Replie automatiquement le processus de réflexion des modèles qui le supportent.
Style des messages
:
Bascule entre le style "bulles" ou "liste".
Style du code
:
Change le style d'affichage des blocs de code.
Moteur de formules mathématiques
:
KaTeX : Rendu plus rapide, optimisé pour les performances.
MathJax : Rendu plus lent mais prend en charge davantage de symboles et commandes.
Taille de police des messages
:
Ajuste la taille des polices dans l'interface.
Afficher l'estimation des Tokens
:
Affiche les Tokens estimés pour le texte saisi (indication uniquement).
Coller les longs textes comme fichiers
:
Affiche les longs textes collés sous forme de fichiers pour réduire les interférences.
Rendu Markdown des messages saisis
:
Désactivé : Ne rend que les réponses du modèle. Activé : Rend aussi les messages envoyés.
Traduction par triple espace
:
Traduit le contenu saisi en anglais après trois appuis sur la barre d'espace.
Attention : Cela remplace le texte original.
Langue cible
:
Définit la langue pour la traduction du bouton Traduire
et du triple espace.
Sélectionnez le nom de l'assistant → Menu contextuel → Paramètres correspondants
Paramètres du prompt
Nom
:
Nom personnalisable pour identifier facilement l'assistant.
Prompt
:
Consultez les modèles dans la page des agents pour rédiger votre prompt.
Paramètres du modèle
Modèle par défaut
:
Définit un modèle par défaut pour l'assistant. Sinon, utilise le modèle global (Modèle par défaut).
Réinitialisation automatique du modèle
:
Activé : Les nouveaux sujets utilisent le modèle par défaut de l'assistant. Désactivé : Ils conservent le modèle du dernier sujet.
Exemple : Modèle par défaut = gpt-3.5-turbo. Pendant une conversation, bascule vers gpt-4o.
Activé → Nouveau sujet : gpt-3.5-turbo
Désactivé → Nouveau sujet : gpt-4o
Température
:
Contrôle la créativité des réponses (défaut: 0.7) :
Faible (0-0.3) : Réponses précises. Idéal pour le code ou l'analyse.
Moyenne (0.4-0.7) : Équilibre créativité/cohérence. Recommandé pour les discussions.
Élevée (0.8-1.0) : Sorties créatives mais moins cohérentes.
Top P (Noyau d'échantillonnage)
:
Défaut: 1. Valeur basse = réponses prévisibles, haute = diversité lexicale.
Comportement :
Faible (0.1-0.3) : Vocabulaire restreint. Bon pour la documentation technique.
Moyen (0.4-0.6) : Équilibre diversité/précision.
Élevé (0.7-1.0) : Réponses très diverses.
Taille du contexte (fenêtre)
Nombre de messages conservés dans le contexte. Plus élevé = plus de Tokens consommés :
5-10 : Conversations standards
>10 : Tâches complexes nécessitant une mémoire étendue
Important : Plus de messages = plus de Tokens
Activer la limite de longueur (MaxToken)
Limite de Tokens par réponse. Ce paramètre impacte directement la longueur et qualité des réponses.
Exemple : Pour tester la connectivité d'un modèle, MaxToken=1 suffit.
La plupart des modèles supportent 32k Tokens max (certains 64k+). À adapter selon les besoins :
Recommandations :
Discussions : 500-800
Textes courts : 800-2000
Génération de code : 2000-3600
Textes longs : 4000+ (si modèle compatible)
Attention : Les réponses peuvent être tronquées si MaxToken est trop bas.
Sortie en flux continu (Stream)
Envoie les réponses au fur et à mesure (effet "machine à écrire"). Désactivé : Réponse complète en une fois.
Paramètres personnalisés
Ajoute des paramètres personnalisés à la requête (ex: presence_penalty
). Documentation : Cliquez ici
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Le prétraitement des documents de la base de connaissances nécessite la mise à niveau de Cherry Studio vers la version v1.4.8 ou ultérieure.
Après avoir cliqué sur "Obtenir la clé API", l'adresse de demande s'ouvrira dans votre navigateur. Cliquez sur "Demander maintenant", remplissez le formulaire pour obtenir votre clé API, puis saisissez-la dans le champ correspondant.
Dans la base de connaissances créée, effectuez la configuration ci-dessus pour finaliser la configuration du prétraitement des documents.
Vous pouvez utiliser la recherche en haut à droite pour vérifier les résultats de la base de connaissances
Astuce pour la base de connaissances : Lors de l'utilisation de modèles plus performants, modifiez le mode de recherche de la base de connaissances en "reconnaissance d'intention". Cette méthode permet une description plus précise et complète de votre question.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
MCP (Model Context Protocol) est un protocole open source conçu pour fournir des informations contextuelles aux modèles de langage à grande échelle (LLM) de manière standardisée. Pour plus de détails sur le MCP, consultez
Voici un exemple avec la fonction fetch
pour illustrer l'utilisation de MCP dans Cherry Studio. Les détails complets sont disponibles dans la .
Cherry Studio utilise actuellement exclusivement et intégrés, sans réutiliser les versions déjà installées sur votre système.
Dans Paramètres > Serveur MCP
, cliquez sur le bouton Installer
pour télécharger et installer automatiquement. Comme le téléchargement s'effectue directement depuis GitHub, il peut être lent et présente un risque élevé d'échec. L'installation réussie est confirmée par la présence de fichiers dans les répertoires mentionnés ci-dessous.
Répertoires d'installation des exécutables :
Windows: C:\Users\<nom_utilisateur>\.cherrystudio\bin
macOS/Linux: ~/.cherrystudio/bin
En cas d'échec d'installation :
Vous pouvez créer des liens symboliques (soft links) vers les commandes correspondantes de votre système dans ce répertoire. Si le répertoire n'existe pas, créez-le manuellement. Vous pouvez également télécharger manuellement les exécutables :
Bun: UV:
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Rejoignez le groupe Telegram pour obtenir de l'aide : https://t.me/CherryStudioAI
Signaler des problèmes sur GitHub : https://github.com/CherryHQ/cherry-studio/issues/new/choose
Contacter les développeurs par email : [email protected]
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Sur cette interface, vous pouvez activer (désactiver) et configurer les raccourcis clavier de certaines fonctionnalités. Suivez les instructions spécifiques affichées sur l'interface pour effectuer les réglages.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Contactez par e-mail [email protected] pour obtenir l'accès éditeur
Sujet : Demande d'accès éditeur à Cherry Studio Docs Corps : Indiquez vos motivations
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Avant d'obtenir la clé API Gemini, vous devez disposer d'un projet Google Cloud (si vous en avez déjà un, cette étape peut être ignorée)
Accédez à pour créer un projet, saisissez le nom du projet et cliquez sur "Créer un projet"
Sur la page officielle des , cliquez sur Clé > Créer une clé API
Copiez la clé générée et ouvrez les de CherryStudio
Localisez le fournisseur Gemini, entrez la clé que vous venez d'obtenir
Cliquez sur "Gérer" ou "Ajouter" en bas, ajoutez les modèles pris en charge et activez le commutateur du fournisseur en haut à droite pour commencer à l'utiliser.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
1.2 Cliquez sur Paramètres en bas à gauche, sélectionnez【SiliconFlow】dans Services de modèles
1.2 Obtenir la clé API SiliconCloud
Connectez-vous à (l'inscription est automatique lors de la première connexion)
Accédez aux pour créer ou copier une clé existante
1.3 Cliquez sur Gérer pour ajouter des modèles
Cliquez sur le bouton "Conversation" dans le menu de gauche
Saisissez du texte dans la zone de saisie pour commencer à discuter
Changez de modèle via le menu déroulant en haut
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Lorsqu'aucun modèle d'assistant par défaut n'est défini pour un assistant, le modèle configuré ici sera sélectionné par défaut dans ses nouvelles conversations.
L'optimisation des mots d'incitation (prompts) et l'assistant de sélection de texte utilisent également le modèle défini ici.
Après chaque conversation, un modèle est appelé pour générer un nom de sujet à la conversation. Le modèle configuré ici est celui utilisé pour cette dénomination.
Les fonctions de traduction dans les champs de saisie de conversation, de peinture IA, ainsi que le modèle de traduction dans l'interface de traduction utilisent tous le modèle configuré ici.
Modèle utilisé pour les fonctions d'assistant rapide. Voir détails dans
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Installation automatique du service MCP (version bêta)
Implémentation de base de mémoire persistante basée sur un graphe de connaissances local. Cela permet au modèle de mémoriser les informations pertinentes de l'utilisateur entre différentes conversations.
Implémentation d'un serveur MCP fournissant des outils pour la résolution dynamique et réflexive de problèmes grâce à un processus de pensée structuré.
Implémentation d'un serveur MCP intégrant l'API de recherche Brave, offrant une double fonctionnalité de recherche web et locale.
Serveur MCP pour récupérer le contenu de pages web via URL.
Serveur Node.js implémentant le protocole de contexte de modèle (MCP) pour les opérations sur le système de fichiers.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Toutes les données ajoutées à la base de connaissances de Cherry Studio sont stockées localement. Lors de l'ajout, une copie du document est placée dans le répertoire de stockage des données de Cherry Studio.
Base de données vectorielle :
Lorsqu'un document est ajouté à la base de connaissances de Cherry Studio, il est découpé en plusieurs segments. Ces segments sont ensuite traités par un modèle d'incorporation.
Lors de l'utilisation d'un grand modèle pour des questions-réponses, les segments de texte pertinents pour la question sont recherchés et transmis ensemble au grand modèle de langage pour traitement.
Si vous avez des exigences concernant la confidentialité des données, il est recommandé d'utiliser une base de données d'incorporation locale et un grand modèle de langage local.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Connectez-vous et ouvrez la page des jetons
Cliquez sur "Ajouter un jeton"
Entrez le nom du jeton et cliquez sur "Soumettre" (configurez d'autres paramètres si nécessaire)
Accédez aux paramètres des fournisseurs de CherryStudio, cliquez sur Ajouter
en bas de la liste des fournisseurs
Saisissez un nom de référence, sélectionnez "OpenAI" comme fournisseur, puis cliquez sur "Confirmer"
Collez la clé copiée précédemment
Revenez à la page de l'API Key, copiez l'adresse racine dans la barre d'adresse du navigateur. Exemple :
Ajoutez les modèles (cliquez sur "Gérer" pour une détection automatique ou saisissez manuellement), puis activez le commutateur en haut à droite pour les utiliser.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Utilisez cette méthode lorsque des paramètres CSS incorrects sont appliqués ou si vous ne pouvez pas accéder à l'interface après avoir défini des CSS.
Ouvrez la console, cliquez sur la fenêtre CherryStudio, puis appuyez sur le raccourci Ctrl+Shift+I (macOS : command+option+I).
Dans la console qui s'ouvre, cliquez sur Console
Saisissez manuellement document.getElementById('user-defined-custom-css').remove()
– le copier-coller ne fonctionnera probablement pas.
Appuyez sur Entrée pour confirmer et effacer les paramètres CSS, puis retournez dans les paramètres d'affichage de CherryStudio pour supprimer le code CSS problématique.
MEMORY_FILE_PATH=/path/to/your/file.json
BRAVE_API_KEY=YOUR_API_KEY
mcp-server-time
--local-timezone
<votre fuseau horaire standard, par exemple : Asia/Shanghai>
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Cette interface permet d'effectuer des sauvegardes et restaurations locales ou cloud, de consulter le répertoire des données locales et de vider le cache, d'exporter les paramètres et de configurer des connexions tierces.
Actuellement, la sauvegarde prend en charge trois méthodes : sauvegarde locale, sauvegarde WebDAV et sauvegarde dans un stockage compatible S3 (stockage d'objets). Pour des explications détaillées et des tutoriels, veuillez consulter les documents suivants :
Les paramètres d'exportation permettent de configurer les options d'exportation affichées dans le menu. Vous pouvez également définir le chemin par défaut pour l'export Markdown, le style d'affichage, etc.
Cette section configure la connexion entre Cherry Studio et des applications tierces pour exporter rapidement le contenu des conversations vers vos outils de gestion des connaissances. Actuellement pris en charge : Notion, Obsidian, SiYuan Note, YuQue et Joplin. Tutoriels de configuration :
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Bienvenue sur Cherry Studio (ci-après dénommé "ce logiciel" ou "nous"). Nous accordons une grande importance à la protection de votre vie privée. Cette politique de confidentialité explique comment nous traitons et protégeons vos informations personnelles et vos données. Veuillez lire attentivement et comprendre cette politique avant d'utiliser ce logiciel :
Pour optimiser l'expérience utilisateur et améliorer la qualité du logiciel, nous ne collectons que les informations non personnelles suivantes de manière anonyme :
• Informations sur la version du logiciel ; • Activité et fréquence d'utilisation des fonctionnalités du logiciel ; • Journaux de plantages et d'erreurs anonymes ;
Ces informations sont totalement anonymes, ne concernent aucune donnée d'identification personnelle et ne peuvent être associées à vos informations personnelles.
Pour protéger au maximum votre vie privée, nous nous engageons explicitement à :
• Ne pas collecter, conserver, transmettre ou traiter les informations de clé API des services de modèles que vous saisissez dans ce logiciel ; • Ne pas collecter, conserver, transmettre ou traiter les données de conversation générées lors de votre utilisation de ce logiciel, y compris mais sans s'y limiter : contenu des discussions, informations d'instruction, données de base de connaissances, données vectorielles et autres contenus personnalisés ; • Ne pas collecter, conserver, transmettre ou traiter des informations sensibles permettant d'identifier personnellement un individu.
Ce logiciel utilise la clé API des fournisseurs de services de modèles tiers que vous avez demandée et configurée vous-même, afin d'effectuer les appels aux modèles correspondants et d'assurer les fonctionnalités de conversation. Les services de modèles que vous utilisez (par exemple, grands modèles, interfaces API, etc.) sont fournis par le fournisseur tiers que vous avez choisi et relèvent entièrement de sa responsabilité. Cherry Studio agit uniquement comme un outil local fournissant des fonctions d'appel d'interface avec les services de modèles tiers.
Par conséquent :
• Toutes les données de conversation générées entre vous et les services de grands modèles sont indépendantes de Cherry Studio. Nous ne participons ni au stockage des données, ni à toute forme de transmission ou de transit de données ; • Vous devez consulter et accepter vous-même la politique de confidentialité et les politiques associées du fournisseur de services de modèles tiers correspondant. Ces politiques de confidentialité sont accessibles sur les sites officiels de chaque fournisseur.
Vous assumez vous-même les risques potentiels pour la vie privée liés à l'utilisation des services de fournisseurs de modèles tiers. Pour les politiques de confidentialité spécifiques, les mesures de sécurité des données et les responsabilités associées, veuillez consulter le contenu pertinent sur le site officiel du fournisseur de services de modèles choisi. Nous déclinons toute responsabilité à cet égard.
Cette politique peut être ajustée lors des mises à jour des versions du logiciel. Veuillez la consulter régulièrement. En cas de modification substantielle de la politique, nous vous en informerons par des moyens appropriés.
Si vous avez des questions concernant le contenu de cette politique ou les mesures de protection de la vie privée de Cherry Studio, n'hésitez pas à nous contacter à tout moment.
Nous vous remercions d'avoir choisi et fait confiance à Cherry Studio. Nous continuerons à vous offrir une expérience produit sûre et fiable.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Dans la page des mini-programmes, vous pouvez utiliser les versions web des applications liées à l'IA des principaux fournisseurs directement dans le client. Actuellement, l'ajout et la suppression personnalisés ne sont pas pris en charge.
Windows 版本安装教程
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Remarque : Windows 7 ne prend pas en charge l'installation de Cherry Studio.
Cliquez sur Télécharger pour choisir la version appropriée
Si le navigateur indique que le fichier n'est pas approuvé, choisissez de le conserver
Choisir de conserver
→Faire confiance à Cherry-Studio
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Connectez-vous à Alibaba Cloud Bailian. Si vous n'avez pas de compte Alibaba Cloud, vous devrez en créer un.
Cliquez sur le bouton Créer mon API-KEY
en haut à droite.
Dans la fenêtre contextuelle, sélectionnez l'espace d'affaires par défaut (ou personnalisez-le si vous le souhaitez). Vous pouvez éventuellement ajouter une description.
Cliquez sur le bouton Confirmer
en bas à droite.
Vous devriez alors voir une nouvelle ligne apparaître dans la liste. Cliquez sur le bouton Afficher
à droite.
Cliquez sur le bouton Copier
.
Rendez-vous dans Cherry Studio. Accédez à Paramètres
→ Services de modèle
→ Alibaba Cloud Bailian
, trouvez le champ Clé API
et collez-y la clé copiée.
Vous pouvez ajuster les paramètres selon les instructions dans Services de modèle, puis commencer à l'utiliser.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Cherry Studio prend en charge deux méthodes de configuration des listes noires : manuelle et par ajout de flux d'abonnement. Les règles de configuration font référence à ublacklist.
Vous pouvez ajouter des règles aux résultats de recherche ou cliquer sur l'icône de la barre d'outils pour bloquer des sites spécifiques. Les règles peuvent être spécifiées en utilisant : des motifs de correspondance (exemple : *://*.example.com/*
) ou des expressions régulières (exemple : /example\.(net|org)/
).
Vous pouvez également vous abonner à des ensembles de règles publics. Ce site répertorie certains abonnements : https://iorate.github.io/ublacklist/subscriptions
Voici quelques liens de flux d'abonnement recommandés :
https://git.io/ublacklist
Chinois
https://raw.githubusercontent.com/laylavish/uBlockOrigin-HUGE-AI-Blocklist/main/list_uBlacklist.txt
Généré par IA
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Sur cette page, vous pouvez configurer le thème de couleur du logiciel, la mise en page ou utiliser un CSS personnalisé pour effectuer des réglages personnalisés.
Vous pouvez définir ici le mode de couleur par défaut de l'interface (mode clair, mode sombre ou suivre le système).
Ces paramètres concernent la disposition de l'interface de conversation.
Position des conversations
Basculement automatique vers la conversation
Lorsque ce paramètre est activé, cliquer sur le nom d'un assistant bascule automatiquement vers sa page de conversation.
Afficher l'heure de création
Affiche la date et l'heure de création sous chaque conversation lorsque activé.
Permet d'apporter des modifications d'interface personnalisées. Pour plus de détails, consultez le tutoriel avancé sur le CSS personnalisé.
如何在 Cherry Studio 使用联网模式
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Dans la fenêtre de question de Cherry Studio, cliquez sur l'icône 【Globe terrestre】 pour activer le mode en ligne.
Mode 1 : Les modèles des opérateurs possèdent une fonction de recherche en ligne intégrée
Dans ce cas, après avoir activé le mode en ligne, vous pouvez directement utiliser le service, c'est très simple.
Vous pouvez rapidement vérifier si un modèle prend en charge la connexion Internet en cherchant une petite icône de carte après son nom dans la partie supérieure de l'interface de question-réponse.
Sur la page de gestion des modèles, cette méthode vous permet également de distinguer rapidement les modèles prenant en charge le mode en ligne.
Opérateurs de modèles avec fonction de recherche en ligne actuellement pris en charge par Cherry Studio
Google Gemini
OpenRouter (tous les modèles prennent en charge la connexion Internet)
Tencent Hunyuan
Zhipu AI
Alibaba Cloud Bailian, etc.
Remarque importante : Il existe un cas particulier où même sans l'icône de globe terrestre, un modèle peut accéder à Internet, comme expliqué dans le tutoriel ci-dessous.
Mode 2 : Les modèles sans fonction de recherche utilisent le service Tavily pour accéder à Internet
Lorsqu'un modèle ne possède pas de fonction de recherche intégrée (pas d'icône de globe après son nom), mais que vous avez besoin d'informations en temps réel, utilisez le service de recherche Internet Tavily.
Lors de la première utilisation du service Tavily, une fenêtre contextuelle vous guidera dans la configuration. Suivez simplement les instructions !
Après avoir cliqué "Obtenir la clé", vous serez redirigé vers le site officiel de Tavily. Inscrivez-vous, connectez-vous, créez une clé API, puis copiez-la dans Cherry Studio.
Besoin d'aide pour l'inscription ? Consultez le tutoriel dans ce même répertoire.
Document de référence pour Tavily :
L'interface suivante indique une inscription réussie.
Testez à nouveau : les résultats montrent une recherche Internet fonctionnelle, avec un nombre de résultats par défaut de 5.
Remarque : Tavily impose des limites d'utilisation gratuite mensuelle. Le dépassement entraîne des frais.
PS : Si vous détectez des erreurs, n'hésitez pas à nous contacter.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
L'installation automatique du MCP nécessite la mise à niveau de Cherry Studio en version v1.1.18 ou ultérieure.
En complément de l'installation manuelle, Cherry Studio intègre l'outil @mcpmarket/mcp-auto-install
, offrant une méthode plus pratique pour installer un serveur MCP. Il suffit d'entrer la commande appropriée dans une conversation avec un modèle prenant en charge les services MCP.
Rappel de la phase de test :
@mcpmarket/mcp-auto-install
est actuellement en phase de test
L'efficacité dépend de "l'intelligence" du modèle : certaines configurations s'appliquent automatiquement, d'autres exigent des ajustements manuels dans les paramètres MCP
La source de recherche actuelle est @modelcontextprotocol, modifiable via configuration (voir ci-dessous)
Par exemple, saisissez :
Le système identifie automatiquement votre requête et complète l'installation via @mcpmarket/mcp-auto-install
. Cet outil prend en charge divers types de serveurs MCP, notamment :
filesystem (système de fichiers)
fetch (requête réseau)
sqlite (base de données)
etc.
La variable MCP_PACKAGE_SCOPES permet de personnaliser les sources de recherche des services MCP (valeur par défaut :
@modelcontextprotocol
).
@mcpmarket/mcp-auto-install
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Connectez-vous à
Cliquez directement
Cliquez sur dans la barre latérale
Créez une clé API
Après création réussie, cliquez sur l'icône en forme d'œil à côté de votre clé API pour l'afficher et la copier
Collez la clé API copiée dans CherryStudio, puis activez le commutateur du fournisseur de service.
Activez les modèles nécessaires dans de la console Ark. Vous pouvez activer la série Doubao, DeepSeek ou d'autres modèles selon vos besoins.
Dans le , localisez l'ID de modèle correspondant au modèle requis.
Accédez aux de Cherry Studio et sélectionnez Volc Engine
Cliquez sur "Ajouter" et collez l'ID de modèle obtenu dans la zone de texte ID de modèle
Ajoutez les modèles un par un en suivant ce processus
L'adresse API peut s'écrire de deux manières
La première est celle par défaut du client : https://ark.cn-beijing.volces.com/api/v3/
La deuxième écriture est : https://ark.cn-beijing.volces.com/api/v3/chat/completions#
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Vous vivez peut-être cette situation : 26 articles utiles épinglés sur WeChat jamais relus, plus de 10 fichiers éparpillés dans votre dossier "Ressources d'apprentissage", cherchant désespérément une théorie lue il y a six mois avec seulement quelques mots-clés en tête. Quand le volume quotidien d'information dépasse la capacité de traitement de votre cerveau, 90% des connaissances précieuses sont oubliées en 72 heures. Désormais, avec l'API de la plateforme de grands modèles Infini-AI + Cherry Studio, vous pouvez créer une base de connaissances personnelle transformant articles WeChat oubliés et contenus fragmentés en savoir structuré, accessible avec précision.
1. Service API Infini-AI : le « cerveau réflexif » de votre base, fiable et performant
En tant que « cerveau réflexif » de la base de connaissances, la plateforme Infini-AI propose des versions de modèles comme DeepSeek R1 version complète, offrant un service API stable. Actuellement, l'utilisation est gratuite après inscription, sans conditions. Elle prend en charge les modèles d'embedding populaires (bge, jina) pour construire votre base, tout en intégrant continuellement les derniers modèles open-source puissants, incluant des capacités multimodales (images, vidéos, audio).
2. Cherry Studio : construisez votre base sans code
Cherry Studio est un outil IA intuitif. Alors que le développement traditionnel d'une base RAG nécessite 1 à 2 mois, cet outil offre l'avantage d'une configuration zéro code. Importez en un clic des contenus aux formats Markdown/PDF/web. L'analyse d'un fichier de 40MB prend 1 minute. Ajoutez également des dossiers locaux, des articles sauvegardés dans WeChat ou des notes de cours.
Étape 1 : Préparatifs
Téléchargez Cherry Studio sur le site officiel (https://cherry-ai.com/)
Créez un compte : connectez-vous à la plateforme Infini-AI (https://cloud.infini-ai.com/genstudio/model?cherrystudio)
Obtenez votre clé API : dans la « Place des modèles », choisissez deepseek-r1, cliquez sur Créer et copiez la clé API + le nom du modèle
Étape 2 : Dans les paramètres de Cherry Studio, sélectionnez "Infini-AI", saisissez votre clé API et activez le service
Après ces étapes, choisissez le modèle dans l'interface pour utiliser le service API Infini-Ai dans Cherry Studio. Pour plus de simplicité, vous pouvez définir un « modèle par défaut ».
Étape 3 : Ajoutez une base de connaissances
Sélectionnez un modèle d'embedding (série bge ou jina) de la plateforme Infini-AI.
Après import de ressources d'apprentissage : "Synthétisez les dérivations clés du chapitre 3 du livre 'Machine Learning'"
Résultat généré :
Ce document a été traducido del chino por IA y aún no ha sido revisado.
L'Assistant Rapide est un outil pratique proposé par Cherry Studio qui vous permet d'accéder rapidement aux fonctionnalités d'IA dans n'importe quelle application, permettant ainsi des opérations instantanées comme poser des questions, traduire, résumer et expliquer.
Ouvrir les paramètres : Accédez à Paramètres
-> Raccourcis
-> Assistant Rapide
.
Activer l'interrupteur : Localisez et activez le bouton correspondant à Assistant Rapide
.
Configurer un raccourci clavier (optionnel) :
Raccourci par défaut Windows : Ctrl + E
Raccourci par défaut macOS : ⌘ + E
Vous pouvez personnaliser le raccourci ici pour éviter les conflits ou l'adapter à vos habitudes.
Invoquer : Dans n'importe quelle application, appuyez sur votre raccourci configuré (ou le raccourci par défaut) pour ouvrir l'Assistant Rapide.
Interagir : Dans la fenêtre de l'Assistant Rapide, vous pouvez directement effectuer les opérations suivantes :
Poser des questions rapides : Interrogez l'IA sur n'importe quel sujet.
Traduire du texte : Saisissez le texte à traduire.
Résumer du contenu : Entrez un texte long pour en obtenir un résumé.
Expliquer des concepts : Saisissez des termes ou concepts nécessitant une explication.
Fermer : Appuyez sur ESC ou cliquez n'importe où en dehors de la fenêtre pour fermer.
Conflits de raccourcis : Si le raccourci par défaut entre en conflit avec une autre application, modifiez-le.
Découvrir plus de fonctionnalités : Au-delà des fonctions documentées, l'Assistant Rapide peut supporter d'autres opérations comme la génération de code ou la conversion de style. Explorez pendant l'utilisation.
Retours et améliorations : Si vous rencontrez des problèmes ou avez des suggestions, contactez l'équipe Cherry Studio via les .
如何注册tavily?
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Accédez au site officiel ci-dessus ou, depuis Cherry Studio > Paramètres > Recherche Web > Cliquez sur "Obtenir une clé", ce qui vous redirigera directement vers la page de connexion/d'inscription de Tavily.
Si c'est votre première utilisation, vous devez d'abord créer un compte (Sign up) avant de pouvoir vous connecter (Log in). Par défaut, vous serez redirigé vers la page de connexion.
Cliquez sur "S'inscrire", entrez votre e-mail habituel ou utilisez votre compte Google/GitHub, puis définissez un mot de passe (procédure standard).
🚨🚨🚨ÉTAPE CRUCIALE Après l'inscription, une vérification en deux étapes est nécessaire : scannez le QR code pour générer un code à usage unique.
Deux solutions :
Téléchargez l'application Microsoft Authenticator (légèrement complexe)
Utilisez le mini-programme WeChat : Authentificateur Tencent (simple, recommandé)
Sur WeChat, recherchez le mini-programme : Authentificateur Tencent
Après ces étapes, l'interface ci-dessous s'affiche : copiez votre clé dans Cherry Studio pour commencer à l'utiliser.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Cherry Studio permet d'importer des sujets dans la base de données Notion.
Accédez au site pour créer une application
Créez une application
Nom : Cherry Studio
Type : Sélectionnez le premier
Icône : Vous pouvez sauvegarder cette image
Copiez la clé secrète et collez-la dans les paramètres de Cherry Studio
Ouvrez le site , créez une nouvelle page, sélectionnez le type base de données en bas, nommez-la Cherry Studio, et connectez comme indiqué
Si l'URL de votre base de données Notion ressemble à ceci :
https://www.notion.so/<long_hash_1>?v=<long_hash_2>
Alors l'ID de la base de données Notion est la partie <long_hash_1>
Remplissez le Nom du champ de titre de la page
:
Si votre interface est en anglais : saisissez Name
Si votre interface est en chinois : saisissez 名称
Félicitations, la configuration Notion est terminée ✅ Vous pouvez désormais exporter du contenu Cherry Studio vers votre base de données Notion
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Permet d'exporter des sujets et messages vers SiYuan Note.
Ouvrez SiYuan Note et créez un carnet
Ouvrez les paramètres du carnet et copiez l'ID du carnet
Collez l'ID du carnet dans les paramètres de Cherry Studio
Entrez l'adresse de SiYuan Note
Local
Généralement http://127.0.0.1:6806
Auto-hébergé
Votre domaine http://note.domain.com
Copiez le Jeton d'API
de SiYuan Note
Collez-le dans les paramètres de Cherry Studio et vérifiez
Félicitations, la configuration de SiYuan Note est terminée ✅ Vous pouvez maintenant exporter le contenu de Cherry Studio vers votre SiYuan Note
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Sur la page officielle des , cliquez sur + Create new secret key
Copiez la clé générée, puis ouvrez les de CherryStudio
Dans la section du fournisseur OpenAI, collez la clé obtenue
Cliquez sur "Gérer" ou "Ajouter" en bas, ajoutez les modèles pris en charge et activez l'interrupteur du fournisseur de services en haut à droite pour l'utiliser.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Nous sommes heureux d'accueillir les contributions à Cherry Studio ! Vous pouvez contribuer de plusieurs manières :
Contribuer au code : Développer de nouvelles fonctionnalités ou optimiser le code existant.
Corriger des bugs : Soumettre des corrections pour les bogues que vous découvrez.
Gérer les problèmes : Aider à administrer les issues GitHub.
Conception du produit : Participer aux discussions de design.
Rédiger la documentation : Améliorer les manuels utilisateurs et guides.
Participation communautaire : Rejoindre les discussions et aider les utilisateurs.
Promouvoir l'utilisation : Faire connaître Cherry Studio.
Envoyez un email à
Objet : Demande pour devenir contributeur Corps : Raison de votre candidature
# Huawei Cloud
I. Créez un compte et connectez-vous sur [Huawei Cloud](https://auth.huaweicloud.com/authui/login)
II. Cliquez sur [ce lien](https://console.huaweicloud.com/modelarts/?region=cn-southwest-2#/model-studio/homepage) pour accéder à la console ModelArts
III. Autorisation
<details>
<summary>Procédure d'autorisation (ignorer si déjà autorisé)</summary>
1. Après avoir accédé au lien (II), suivez les instructions pour accéder à la page d'autorisation (cliquez sur Utilisateur IAM → Nouvelle délégation → Utilisateur standard)
.png>)
2. Après avoir cliqué sur Créer, revenez à la page du lien (II)
3. Un message indique des autorisations d'accès insuffisantes, cliquez sur "Cliquez ici" dans le message
4. Ajoutez l'autorisation existante et confirmez
.png>)
Note : Cette méthode convient aux débutants, pas besoin de lire beaucoup de contenu, suivez simplement les instructions. Si vous parvenez à obtenir l'autorisation du premier coup, utilisez votre propre méthode.
</details>
IV. Cliquez sur Gestion de l'authentification dans la barre latérale, créez une clé API (secret) et copiez-la
<figure><img src="../../.gitbook/assets/微信截图_20250214034650.png" alt=""><figcaption></figcaption></figure>
Puis créez un nouveau fournisseur dans CherryStudio
<figure><img src="../../.gitbook/assets/image (1) (2).png" alt="" width="300"><figcaption></figcaption></figure>
Après création, saisissez la clé secrète
V. Cliquez sur Déploiement de modèles dans la barre latérale et récupérez tous
<figure><img src="../../.gitbook/assets/微信截图_20250214034751.png" alt=""><figcaption></figcaption></figure>
VI. Cliquez sur Appel
<figure><img src="../../.gitbook/assets/image (1) (2) (1).png" alt=""><figcaption></figcaption></figure>
Copiez l'adresse à ①, collez-la dans l'adresse du fournisseur CherryStudio et ajoutez un "#" à la fin
et ajoutez un "#" à la fin
et ajoutez un "#" à la fin
et ajoutez un "#" à la fin
et ajoutez un "#" à la fin
Pourquoi ajouter un "#" ? [Voir ici](https://docs.cherry-ai.com/cherrystudio/preview/settings/providers#api-di-zhi)
> Bien sûr, vous pouvez aussi ignorer cela et suivre simplement le tutoriel;
> Vous pouvez également utiliser la méthode de suppression de v1/chat/completions pour remplir. Utilisez votre méthode si vous savez comment faire, sinon suivez strictement le tutoriel.
<figure><img src="../../.gitbook/assets/image (2) (3).png" alt=""><figcaption></figcaption></figure>
Copiez ensuite le nom du modèle à ②, dans CherryStudio cliquez sur le bouton "+Ajouter" pour créer un nouveau modèle
<figure><img src="../../.gitbook/assets/image (4) (3).png" alt=""><figcaption></figcaption></figure>
Saisissez le nom du modèle tel quel, sans modifications ou guillemets. Copiez exactement comme dans l'exemple.
<figure><img src="../../.gitbook/assets/image (3) (3).png" alt=""><figcaption></figcaption></figure>
Cliquez sur Ajouter un modèle pour terminer.
{% hint style="info" %}
Dans Huawei Cloud, chaque modèle ayant une adresse différente, chaque modèle nécessite un nouveau fournisseur. Répétez simplement les étapes ci-dessus.
{% endhint %}
360gpt-pro
8k
-
Non supporté
Dialogue
360AI_360gpt
Modèle phare de la série 360 Brain, optimisé pour tâches complexes multidisciplinaires.
gemini-2.0-pro-exp-02-05
2m
8k
Non supporté
Dialogue, Reconnaissance image
Google_gemini
Modèle expérimental Gemini 2.0 Pro publié en février 2024, supportant un contexte de 2M tokens.
qwen-vl-max-latest
32k
2k
Supporté
Dialogue, Reconnaissance image
千问_qwen
Version multilingue avancée pour tâches complexes nécessitant compréhension visuelle et textuelle.
glm-4v-flash
2k
1k
Non supporté
Dialogue, Reconnaissance image
智谱_glm
Modèle gratuit avec capacités avancées de compréhension d'images.
帮我安装一个 filesystem mcp server
// `axun-uUpaWEdMEMU8C61K` correspond à l'ID de service, personnalisable
"axun-uUpaWEdMEMU8C61K": {
"name": "mcp-auto-install",
"description": "Automatically install MCP services (Beta version)",
"isActive": false,
"registryUrl": "https://registry.npmmirror.com",
"command": "npx",
"args": [
"-y",
"@mcpmarket/mcp-auto-install",
"connect",
"--json"
],
"env": {
"MCP_REGISTRY_PATH": "Détails sur https://www.npmjs.com/package/@mcpmarket/mcp-auto-install"
},
"disabledTools": []
}
MiSans Global
Multilingue
Usage commercial autorisé
MiSans Global est un projet de police personnalisée pour langues mondiales, dirigé par Xiaomi et développé conjointement avec Monotype et HanYi Foundries.
Il s'agit d'une vaste famille de polices couvrant plus de 20 systèmes d'écriture et prenant en charge plus de 600 langues.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Pour utiliser les serveurs ModelScope MCP, il est nécessaire de mettre à jour Cherry Studio vers la version v1.2.9 ou ultérieure.
Dans la version v1.2.9, Cherry Studio a établi un partenariat officiel avec ModelScope (魔搭), simplifiant considérablement les étapes d'ajout des serveurs MCP. Cela évite les erreurs de configuration et permet de découvrir une multitude de serveurs MCP au sein de la communauté ModelScope. Suivez le guide ci-dessous pour apprendre à synchroniser les serveurs MCP ModelScope avec Cherry Studio.
Dans les paramètres, cliquez sur Configuration des serveurs MCP, puis sélectionnez Synchroniser les serveurs
.
Sélectionnez ModelScope et parcourez les services MCP disponibles.
Connectez-vous à ModelScope et visualisez les détails du service MCP.
Dans les détails du service MCP, choisissez l'option pour connecter le service.
Cliquez sur "Obtenir le jeton API" dans Cherry Studio pour être redirigé vers le site officiel de ModelScope. Copiez le jeton API et collez-le dans Cherry Studio.
Les serveurs MCP de ModelScope apparaissent désormais dans la liste de Cherry Studio et peuvent être utilisés dans les conversations.
Pour ajouter de nouveaux serveurs MCP connectés ultérieurement via l'interface web de ModelScope, cliquez simplement sur Synchroniser les serveurs
.
Grâce à ces étapes, vous maîtrisez désormais la synchronisation simplifiée des serveurs MCP ModelScope avec Cherry Studio. Ce processus élimine les configurations manuelles fastidieuses et les erreurs potentielles, tout en vous donnant accès à l'immense catalogue de serveurs MCP de la communauté ModelScope.
Explorez et utilisez ces puissants services MCP pour enrichir votre expérience Cherry Studio et découvrir de nouvelles possibilités !
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Le stockage des données de Cherry Studio suit les conventions système. Les données sont automatiquement placées dans le répertoire utilisateur, aux emplacements spécifiques suivants :
macOS: /Users/username/Library/Application Support/CherryStudioDev
Windows: C:\Users\username\AppData\Roaming\CherryStudio
Linux: /home/username/.config/CherryStudio
Vous pouvez également visualiser cet emplacement ici :
Méthode 1 :
Utilisez des liens symboliques. Quittez le logiciel, déplacez les données vers votre emplacement souhaité, puis créez un lien à l'emplacement d'origine pointant vers le nouvel emplacement.
Consultez les étapes détaillées ici : https://github.com/CherryHQ/cherry-studio/issues/621#issuecomment-2588652880
Méthode 2 : Modifiez l'emplacement via les paramètres de lancement, en exploitant les caractéristiques des applications Electron.
--user-data-dir Exemple : Cherry-Studio-*-x64-portable.exe --user-data-dir="%user_data_dir%"
Exemple :
PS D:\CherryStudio> dir
目录: D:\CherryStudio
Mode LastWriteTime Length Name
---- ------------- ------ ----
d----- 2025/4/18 14:05 user-data-dir
-a---- 2025/4/14 23:05 94987175 Cherry-Studio-1.2.4-x64-portable.exe
-a---- 2025/4/18 14:05 701 init_cherry_studio.bat
init_cherry_studio.bat (encodage : ANSI)
@title Initialisation CherryStudio
@echo off
set current_path_dir=%~dp0
@echo Chemin actuel : %current_path_dir%
set user_data_dir=%current_path_dir%user-data-dir
@echo Chemin des données CherryStudio : %user_data_dir%
@echo Recherche de Cherry-Studio-*-portable.exe dans le chemin actuel
setlocal enabledelayedexpansion
for /f "delims=" %%F in ('dir /b /a-d "Cherry-Studio-*-portable*.exe" 2^>nul') do ( # Ce code s'adapte aux versions GitHub et officielles, modifiez si nécessaire
set "target_file=!cd!\%%F"
goto :break
)
:break
if defined target_file (
echo Fichier trouvé : %target_file%
) else (
echo Aucun fichier correspondant, arrêt du script
pause
exit
)
@echo Confirmez pour continuer
pause
@echo Lancement de CherryStudio
start %target_file% --user-data-dir="%user_data_dir%"
@echo Opération terminée
@echo on
exit
Structure du répertoire user-data-dir après initialisation :
PS D:\CherryStudio> dir .\user-data-dir\
目录: D:\CherryStudio\user-data-dir
Mode LastWriteTime Length Name
---- ------------- ------ ----
d----- 2025/4/18 14:29 blob_storage
d----- 2025/4/18 14:07 Cache
d----- 2025/4/18 14:07 Code Cache
d----- 2025/4/18 14:07 Data
d----- 2025/4/18 14:07 DawnGraphiteCache
d----- 2025/4/18 14:07 DawnWebGPUCache
d----- 2025/4/18 14:07 Dictionaries
d----- 2025/4/18 14:07 GPUCache
d----- 2025/4/18 14:07 IndexedDB
d----- 2025/4/18 14:07 Local Storage
d----- 2025/4/18 14:07 logs
d----- 2025/4/18 14:30 Network
d----- 2025/4/18 14:07 Partitions
d----- 2025/4/18 14:29 Session Storage
d----- 2025/4/18 14:07 Shared Dictionary
d----- 2025/4/18 14:07 WebStorage
-a---- 2025/4/18 14:07 36 .updaterId
-a---- 2025/4/18 14:29 20 config.json
-a---- 2025/4/18 14:07 434 Local State
-a---- 2025/4/18 14:29 57 Preferences
-a---- 2025/4/18 14:09 4096 SharedStorage
-a---- 2025/4/18 14:30 140 window-state.json
Ce document a été traducido del chino por IA y aún no ha sido revisado.
La base de connaissances Dify MCP nécessite de mettre à jour Cherry Studio vers la version v1.2.9 ou supérieure.
Ouvrez 搜索MCP
.
Ajoutez le serveur dify-knowledge
.
Il est nécessaire de configurer les paramètres et les variables d'environnement
La clé de la base de connaissances Dify peut être obtenue de la manière suivante
macOS 版本安装教程
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Tout d'abord, allez sur la page de téléchargement du site officiel et cliquez pour télécharger la version Mac, ou cliquez directement ci-dessous :
Veuillez télécharger la version correspondant à la puce de votre Mac
Une fois le téléchargement terminé, cliquez ici
Faites glisser l'icône pour installer
Dans le Launchpad, cherchez l'icône de Cherry Studio et cliquez dessus. Si l'interface principale de Cherry Studio s'ouvre, l'installation a réussi.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Pour utiliser GitHub Copilot, vous devez d'abord disposer d'un compte GitHub et souscrire au service GitHub Copilot. L'abonnement gratuit est possible, mais la version gratuite ne prend pas en charge le dernier modèle Claude 3.7. Pour plus de détails, consultez le site officiel de GitHub Copilot.
Cliquez sur « Se connecter à GitHub » pour obtenir le Device Code et copiez-le.
Après avoir obtenu le Device Code, cliquez sur le lien pour ouvrir le navigateur. Connectez-vous à votre compte GitHub, saisissez le Device Code et autorisez l'accès.
Après autorisation réussie, revenez à Cherry Studio et cliquez sur « Connecter GitHub ». Une fois connecté, votre nom d'utilisateur et votre avatar GitHub s'afficheront.
Cliquez sur le bouton « Gérer » ci-dessous pour récupérer automatiquement la liste des modèles actuellement pris en charge.
Les requêtes actuelles utilisent Axios, qui ne prend pas en charge les proxy SOCKS. Utilisez un proxy système ou HTTP, ou ne configurez pas de proxy dans CherryStudio pour utiliser un proxy global. Assurez-vous d'abord que votre connexion réseau est normale pour éviter cet échec.
暂时不支持Claude模型
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Avant d'obtenir la clé API de Gemini, vous devez avoir un projet Google Cloud (si vous en avez déjà un, vous pouvez sauter cette étape)
Rendez-vous sur Google Cloud pour créer un projet, renseignez le nom du projet et cliquez sur Créer un projet
Accédez à la Console Vertex AI
Dans le projet créé, activez Vertex AI API
Ouvrez la page des autorisations du compte de service et créez un compte de service
Sur la page de gestion des comptes de service, trouvez le compte que vous venez de créer, cliquez sur Clés
et créez une nouvelle clé au format JSON
Après création réussie, le fichier clé sera automatiquement enregistré sur votre ordinateur au format JSON. Veuillez le conserver en lieu sûr
Sélectionnez le fournisseur de services Vertex AI
Remplissez les champs correspondants du fichier JSON
Cliquez sur Ajouter un modèle, et vous pouvez commencer à l'utiliser avec plaisir !
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Dans la version 0.9.1, CherryStudio introduit la fonction tant attendue de Base de Connaissances.
Voici le guide d'utilisation détaillé de CherryStudio, présenté étape par étape.
Recherchez des modèles dans le service de gestion des modèles. Vous pouvez cliquer sur "Modèles d'embedding" pour filtrer rapidement ;
Trouvez le modèle nécessaire et ajoutez-le à Mes modèles.
Accès : Dans la barre d'outils gauche de CherryStudio, cliquez sur l'icône Base de connaissances pour accéder à la page de gestion ;
Ajouter : Cliquez sur Ajouter pour commencer la création ;
Nommage : Entrez le nom de la base de connaissances et ajoutez un modèle d'embedding (par exemple bge-m3) pour finaliser la création.
Ajout de fichier : Cliquez sur le bouton d'ajout pour ouvrir la sélection de fichiers ;
Sélection : Choisissez des formats supportés (pdf, docx, pptx, xlsx, txt, md, mdx, etc.) ;
Vectorisation : Le système traite automatiquement les fichiers. Lorsqu'un ✓ vert apparaît, la vectorisation est terminée.
CherryStudio prend en charge plusieurs méthodes d'import :
Dossiers : Importer un dossier entier – les formats compatibles seront vectorisés automatiquement ;
Liens web : URLs comme ;
Sitemap : Fichiers XML de sitemap, ex : ;
Texte brut : Saisie manuelle de contenu personnalisé.
Après vectorisation, lancez une recherche :
Cliquez sur "Rechercher dans la base de connaissances" en bas de page ;
Saisissez votre requête ;
Consultez les résultats ;
Le score de correspondance est affiché pour chaque résultat.
Dans une nouvelle conversation, cliquez sur l'icône Base de connaissances dans la barre d'outils et sélectionnez une base ;
Posez votre question : le modèle répondra en utilisant les données référencées ;
Les sources utilisées sont attachées à la réponse pour consultation rapide.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
La fonction de traduction de Cherry Studio vous offre un service de traduction de texte rapide et précis, prenant en charge les traductions entre plusieurs langues.
L'interface de traduction comprend principalement les éléments suivants :
Zone de sélection de la langue source :
N'importe quelle langue : Cherry Studio détectera automatiquement la langue source et effectuera la traduction.
Zone de sélection de la langue cible :
Menu déroulant : Choisissez la langue dans laquelle vous souhaitez traduire le texte.
Bouton Paramètres :
Cliquez pour accéder aux .
Défilement synchronisé :
Cliquez pour activer/désactiver la synchronisation du défilement (le défilement d'un côté entraîne le défilement de l'autre côté).
Zone de saisie de texte (gauche) :
Saisissez ou collez le texte à traduire.
Zone des résultats de traduction (droite) :
Affiche le texte traduit.
Bouton Copier : Cliquez pour copier le résultat dans le presse-papiers.
Bouton Traduire :
Cliquez pour lancer la traduction.
Historique des traductions (coin supérieur gauche) :
Cliquez pour consulter l'historique des traductions.
Sélectionnez la langue cible :
Dans la zone de sélection de la langue cible, choisissez la langue souhaitée.
Saisissez ou collez le texte :
Entrez ou collez le texte à traduire dans la zone de gauche.
Lancez la traduction :
Cliquez sur le bouton Traduire
.
Consultez et copiez les résultats :
Le résultat s'affiche dans la zone de droite.
Cliquez sur le bouton Copier pour transférer le texte dans le presse-papiers.
Q : Que faire si la traduction est inexacte ?
R : Bien que la traduction IA soit puissante, elle n'est pas parfaite. Pour les textes techniques ou contextes complexes, une relecture humaine est recommandée. Vous pouvez aussi essayer différents modèles.
Q : Quelles langues sont prises en charge ?
R : La fonction prend en charge de nombreuses langues principales. Consultez le site officiel ou les instructions dans l'application pour la liste complète.
Q : Peut-on traduire un fichier entier ?
R : L'interface actuelle est conçue pour des textes. Pour les fichiers, accédez à la page de conversation de Cherry Studio pour ajouter des fichiers à traduire.
Q : Que faire en cas de lenteur de traduction ?
R : La vitesse peut être affectée par le réseau, la longueur du texte ou la charge du serveur. Assurez-vous d'avoir une connexion stable et patientez.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Cherry Studio intègre non seulement les principaux services de modèles d'IA, mais vous offre également une puissante capacité de personnalisation. Grâce à la fonctionnalité Fournisseurs d'IA personnalisés, vous pouvez facilement intégrer n'importe quel modèle d'IA dont vous avez besoin.
Flexibilité : Libérez-vous des limites des listes prédéfinies de fournisseurs, choisissez librement le modèle d'IA qui correspond le mieux à vos besoins.
Diversité : Essayez divers modèles d'IA de différentes plateformes, découvrez leurs avantages uniques.
Contrôle : Gérez directement vos clés API et adresses d'accès pour garantir la sécurité et la confidentialité.
Personnalisation : Intégrez des modèles déployés en privé pour répondre aux besoins de scénarios métiers spécifiques.
En quelques étapes simples, vous pouvez ajouter votre fournisseur d'IA personnalisé à Cherry Studio :
Ouvrir les paramètres : Dans la barre de navigation de gauche de l'interface Cherry Studio, cliquez sur "Paramètres" (icône d'engrenage).
Accéder aux services de modèles : Dans la page des paramètres, sélectionnez l'onglet "Services de modèles".
Ajouter un fournisseur : Sur la page "Services de modèles", vous verrez la liste des fournisseurs existants. Cliquez sur le bouton "+ Ajouter" sous la liste pour ouvrir la fenêtre contextuelle "Ajouter un fournisseur".
Remplir les informations : Dans la fenêtre contextuelle, vous devez remplir les informations suivantes :
Nom du fournisseur : Attribuez un nom facilement identifiable à votre fournisseur personnalisé (exemple : MyCustomOpenAI).
Type de fournisseur : Sélectionnez le type de votre fournisseur dans la liste déroulante. Actuellement pris en charge :
OpenAI
Gemini
Anthropic
Azure OpenAI
Enregistrer la configuration : Après avoir rempli les informations, cliquez sur le bouton "Ajouter" pour sauvegarder votre configuration.
Après l'ajout, vous devez trouver le fournisseur que vous venez d'ajouter dans la liste et effectuer une configuration détaillée :
État d'activation : À l'extrémité droite de la liste des fournisseurs personnalisés se trouve un interrupteur d'activation. L'activer signifie que ce service personnalisé est activé.
Clé API :
Saisissez la clé API (API Key) fournie par votre fournisseur de services d'IA.
Cliquez sur le bouton "Vérifier" à droite pour vérifier la validité de la clé.
Adresse API :
Renseignez l'adresse d'accès API (Base URL) du service d'IA.
Veuillez consulter la documentation officielle de votre fournisseur d'IA pour obtenir l'adresse API correcte.
Gestion des modèles :
Cliquez sur le bouton "+ Ajouter" pour ajouter manuellement l'ID du modèle que vous souhaitez utiliser sous ce fournisseur. Par exemple gpt-3.5-turbo
, gemini-pro
, etc.
* Si vous n'êtes pas sûr du nom exact du modèle, référez-vous à la documentation officielle de votre fournisseur d'IA. * Cliquez sur le bouton "Gérer" pour modifier ou supprimer les modèles déjà ajoutés.
Une fois la configuration ci-dessus terminée, vous pouvez sélectionner votre fournisseur d'IA personnalisé et votre modèle dans l'interface de chat de Cherry Studio pour commencer à dialoguer avec l'IA !
vLLM est une bibliothèque d'inférence LLM rapide et facile à utiliser, similaire à Ollama. Voici comment l'intégrer à Cherry Studio :
Installer vLLM : Suivez la documentation officielle de vLLM () pour l'installer.
Lancer le service vLLM : Démarrez le service en utilisant l'interface compatible OpenAI fournie par vLLM. Deux méthodes principales sont disponibles :
Lancer via vllm.entrypoints.openai.api_server
Lancer via uvicorn
Assurez-vous que le service démarre avec succès et qu'il écoute sur le port par défaut 8000
. Vous pouvez également spécifier le port du service vLLM avec le paramètre --port
.
Ajouter le fournisseur vLLM dans Cherry Studio :
Suivez les étapes décrites précédemment pour ajouter un nouveau fournisseur d'IA personnalisé.
Nom du fournisseur : vLLM
Type de fournisseur : Sélectionnez OpenAI
.
Configurer le fournisseur vLLM :
Clé API : vLLM ne nécessitant pas de clé API, vous pouvez laisser ce champ vide ou saisir n'importe quel contenu.
Adresse API : Renseignez l'adresse API du service vLLM. Par défaut, l'adresse est : http://localhost:8000/
(si un port différent est utilisé, modifiez-le en conséquence).
Gestion des modèles : Ajoutez le nom du modèle que vous avez chargé dans vLLM. Dans l'exemple python -m vllm.entrypoints.openai.api_server --model gpt2
, vous devez saisir gpt2
.
Commencer à dialoguer : Vous pouvez désormais sélectionner le fournisseur vLLM et le modèle gpt2
dans Cherry Studio pour dialoguer avec le LLM alimenté par vLLM !
Lire attentivement la documentation : Avant d'ajouter un fournisseur personnalisé, lisez attentivement la documentation officielle de votre fournisseur d'IA pour connaître les informations clés telles que la clé API, l'adresse d'accès et les noms de modèles.
Vérifier la clé API : Utilisez le bouton "Vérifier" pour confirmer rapidement la validité de votre clé API et éviter les erreurs.
Attention à l'adresse API : L'adresse API peut varier selon les fournisseurs et modèles d'IA, assurez-vous de saisir l'adresse correcte.
Ajouter les modèles selon les besoins : N'ajoutez que les modèles que vous utiliserez réellement, évitez d'en ajouter trop inutilement.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Cherry Studio est un projet gratuit et open source. À mesure que le projet se développe, la charge de travail de l'équipe augmente également. Afin de réduire les coûts de communication et de résoudre vos problèmes rapidement et efficacement, nous vous demandons de suivre les étapes et méthodes ci-dessous avant de poser des questions. Cela permettra à l'équipe de consacrer plus de temps à la maintenance et au développement du projet. Merci pour votre coopération !
La plupart des problèmes fondamentaux peuvent être résolus en consultant attentivement la documentation :
Pour les questions sur les fonctionnalités et l'utilisation du logiciel, consultez la documentation ;
Les questions fréquentes sont répertoriées dans la page - vérifiez d'abord s'il existe une solution ;
Des problèmes plus complexes peuvent être résolus directement via la recherche ou en posant des questions dans la barre de recherche ;
Lisez attentivement le contenu des encadrés d'information dans chaque document - cela vous évitera de nombreux problèmes ;
Consultez ou recherchez des problèmes et solutions similaires sur la page de GitHub.
Pour les problèmes liés à l'utilisation des modèles mais non liés aux fonctionnalités du client (tels que les erreurs des modèles, des réponses inattendues, ou les paramètres), il est recommandé de :
Rechercher d'abord des solutions sur Internet,
Ou décrire le contenu de l'erreur et le problème à une IA pour trouver des solutions.
Si les deux premières étapes ne donnent pas de réponse ou ne résolvent pas votre problème :
Accédez à la chaîne officielle ,
,
Ou (),
Et décrivez le problème en détail.
Pour les erreurs de modèle : Fournissez une capture d'écran complète et les informations d'erreur de la console. Les informations sensibles peuvent être masquées, mais le nom du modèle, les paramètres et le contenu de l'erreur doivent figurer dans la capture. Méthode pour consulter les erreurs de la console : .
Pour les bugs logiciels : Fournissez une description précise de l'erreur et des étapes détaillées de pour faciliter le débogage. Si le problème est intermittent, décrivez le contexte, l'environnement et les paramètres de configuration. Mentionnez également les informations sur la plateforme (Windows, Mac ou Linux) et la version du logiciel.
Demande de documentation ou suggestions
Contactez la chaîne Telegram @Wangmouuu
, QQ (1355873789
) ou envoyez un e-mail à : [email protected]
.
pip install vllm # si vous utilisez pip
uv pip install vllm # si vous utilisez uv
python -m vllm.entrypoints.openai.api_server --model gpt2
vllm --model gpt2 --served-model-name gpt2
数据设置→Obsidian配置
Ce document a été traducido del chino por IA y aún no ha sido revisado.
# Tutoriel de configuration d'Obsidian
Cherry Studio prend en charge l'intégration avec Obsidian pour exporter des conversations complètes ou des messages individuels vers une bibliothèque Obsidian.
{% hint style="warning" %}
Ce processus ne nécessite pas l'installation de plugiciels Obsidian supplémentaires. Cependant, puisque le principe d'importation de Cherry Studio vers Obsidian est similaire à Obsidian Web Clipper, il est recommandé de mettre à jour Obsidian vers la dernière version (la version actuelle d'Obsidian doit être supérieure à **1.7.2**). Ceci évite les [échecs d'importation lors de conversations trop longues](https://github.com/obsidianmd/obsidian-clipper/releases/tag/0.7.0).
{% endhint %}
## Tutoriel récent
{% hint style="info" %}
Comparée à l'ancienne version, la nouvelle fonction d'exportation vers Obsidian sélectionne automatiquement le chemin de la bibliothèque, sans nécessiter la saisie manuelle du nom de bibliothèque ou du dossier.
{% endhint %}
### Étape 1 : Configurer Cherry Studio
Ouvrez les _Paramètres_ de Cherry Studio → _Paramètres des données_ → Menu _Configuration d'Obsidian_. Les noms des bibliothèques Obsidian ouvertes localement apparaîtront dans la liste déroulante. Sélectionnez votre bibliothèque cible :
<figure><img src="../.gitbook/assets/image (142).png" alt=""><figcaption></figcaption></figure>
### Étape 2 : Exporter une conversation
#### Exporter une conversation complète
Retournez à l'interface de conversation de Cherry Studio, cliquez droit sur une conversation, sélectionnez _Exporter_, puis cliquez sur _Exporter vers Obsidian_ :
<figure><img src="../.gitbook/assets/image (143).png" alt=""><figcaption></figcaption></figure>
Une fenêtre s'affiche pour configurer les **Propriétés** de la note, l'**emplacement du dossier** dans Obsidian et le **mode de traitement** :
* **Bibliothèque** : Sélectionnez d'autres bibliothèques via le menu déroulant
* **Chemin** : Choisissez le dossier de destination via le menu déroulant
* Propriétés de la note Obsidian :
* Étiquettes (tags)
* Date de création (created)
* Source (source)
* **Modes de traitement** disponibles :
* **Nouveau (remplace si existant)** : Crée une nouvelle note dans le dossier spécifié, remplace les notes existantes homonymes
* **Préfixer** : Ajoute le contenu au début d'une note existante homonyme
* **Suffixer** : Ajoute le contenu à la fin d'une note existante homonyme
{% hint style="info" %}
Seul le premier mode inclut les propriétés. Les deux autres modes ne les conservent pas.
{% endhint %}
<figure><img src="../.gitbook/assets/image (144).png" alt=""><figcaption><p>Configurer les propriétés de la note</p></figcaption></figure>
<figure><img src="../.gitbook/assets/image (145).png" alt=""><figcaption><p>Sélectionner le chemin</p></figcaption></figure>
<figure><img src="../.gitbook/assets/image (146).png" alt=""><figcaption><p>Choisir le mode de traitement</p></figcaption></figure>
Après sélection, cliquez sur **Confirmer** pour exporter la conversation vers le dossier cible d'Obsidian.
#### Exporter un message individuel
Cliquez sur le _menu à trois barres_ sous un message → _Exporter_ → _Exporter vers Obsidian_ :
<figure><img src="../.gitbook/assets/image (147).png" alt=""><figcaption><p>Exporter un message individuel</p></figcaption></figure>
La même fenêtre de configuration que pour une conversation complète s'affiche. Suivez les [instructions ci-dessus](obsidian.md#dao-chu-wan-zheng-dui-hua) pour finaliser.
### Exportation réussie
🎉 Félicitations ! Vous avez terminé la configuration d'intégration Obsidian et mené à bien le processus d'exportation.
<figure><img src="../.gitbook/assets/image (140).png" alt=""><figcaption><p>Exportation vers Obsidian</p></figcaption></figure>
<figure><img src="../.gitbook/assets/image (139).png" alt=""><figcaption><p>Vérifier le résultat</p></figcaption></figure>
***
## Ancien tutoriel (pour Cherry Studio < v1.1.13)
### Étape 1 : Préparer Obsidian
Ouvrez une bibliothèque Obsidian et créez un `dossier` pour les conversations exportées (exemple : dossier Cherry Studio) :
<figure><img src="../.gitbook/assets/image (127).png" alt=""><figcaption></figcaption></figure>
Notez le nom de `bibliothèque` encadré en bas à gauche.
### Étape 2 : Configurer Cherry Studio
Dans _Paramètres_ → _Paramètres des données_ → _Configuration d'Obsidian_, saisissez le nom de `bibliothèque` et de `dossier` obtenus à l'[étape 1](obsidian.md#di-yi-bu) :
<figure><img src="../.gitbook/assets/image (129).png" alt=""><figcaption></figcaption></figure>
Le champ `Étiquettes globales` est optionnel pour définir les étiquettes des notes exportées.
### Étape 3 : Exporter une conversation
#### Conversation complète
Cliquez droit sur une conversation → _Exporter_ → _Exporter vers Obsidian_ :
<figure><img src="../.gitbook/assets/image (138).png" alt=""><figcaption><p>Exporter une conversation complète</p></figcaption></figure>
Configurer les **Propriétés** et le **mode de traitement** (identique à la version récente).
#### Message individuel
Cliquez sur le _menu à trois barres_ → _Exporter_ → _Exporter vers Obsidian_ :
<figure><img src="../.gitbook/assets/image (141).png" alt=""><figcaption><p>Exporter un message individuel</p></figcaption></figure>
### Exportation réussie
🎉 Félicitations ! Profitez de l'intégration Obsidian 🎉
<figure><img src="../.gitbook/assets/image (140).png" alt=""><figcaption><p>Exportation vers Obsidian</p></figcaption></figure>
<figure><img src="../.gitbook/assets/image (139).png" alt=""><figcaption><p>Vérifier le résultat</p></figcaption></figure>
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Les tokens sont l'unité fondamentale de traitement du texte par les modèles d'IA, on peut les comprendre comme les plus petites unités de "pensée" du modèle. Ils ne correspondent pas exactement aux caractères ou mots tels que nous les concevons, mais représentent plutôt une méthode particulière de segmentation du texte spécifique au modèle.
1. Segmentation du chinois
Un caractère chinois est généralement encodé en 1-2 tokens
Par exemple : "你好"
≈ 2-4 tokens
2. Segmentation de l'anglais
Les mots courants représentent généralement 1 token
Les mots longs ou peu courants sont décomposés en plusieurs tokens
Par exemple :
"hello"
= 1 token
"indescribable"
= 4 tokens
3. Caractères spéciaux
Les espaces, signes de ponctuation occupent également des tokens
Un saut de ligne représente généralement 1 token
Le Tokenizer (outil de segmentation) est l'outil qui permet aux modèles d'IA de convertir du texte en tokens. Il détermine comment découper le texte d'entrée en unités minimales compréhensibles par le modèle.
1. Données d'entraînement différentes
Corpus différents entraînant des optimisations distinctes
Prise en charge variable des langues multiples
Optimisations spécifiques à certains domaines (médical, juridique, etc.)
2. Algorithmes de segmentation différents
BPE (Byte Pair Encoding) - Série GPT d'OpenAI
WordPiece - Google BERT
SentencePiece - Adapté aux scénarios multilingues
3. Objectifs d'optimisation différents
Certains privilégient la compression
D'autres la préservation sémantique
D'autres encore la vitesse de traitement
Un même texte peut produire différents nombres de tokens selon les modèles :
Entrée : "Hello, world!"
GPT-3 : 4 tokens
BERT : 3 tokens
Claude : 3 tokens
Concept de base : Un modèle d'embedding est une technique convertissant des données discrètes dimensionnelles élevées (texte, images...) en vecteurs continus de basse dimension. Cette conversion permet aux machines de mieux comprendre et traiter des données complexes. Imaginez transformer un puzzle complexe en un simple point de coordonnées qui conserve les caractéristiques clés du puzzle. Dans l'écosystème des grands modèles, il agit comme un "traducteur", transformant des informations humainement compréhensibles en formes numériques calculables par l'IA.
Mode de fonctionnement : En traitement du langage naturel, le modèle d'embedding projette les mots dans un espace vectoriel où les termes sémantiquement proches se regroupent naturellement. Par exemple :
Les vecteurs de "roi" et "reine" seront proches
Les termes comme "chat" et "chien" formeront un autre groupe
Des mots sans lien sémantique comme "voiture" et "pain" seront éloignés
Principaux scénarios d'application :
Analyse de texte : classification documentaire, analyse des sentiments
Systèmes de recommandation : suggestions de contenu personnalisées
Traitement d'images : recherche d'images similaires
Moteurs de recherche : optimisation de la recherche sémantique
Avantages clés :
Réduction dimensionnelle : simplification des données complexes
Cohérence sémantique : préservation des informations sémantiques essentielles
Efficacité computationnelle : accélération significative de l'entraînement et de l'inférence
Valeur technique : Les modèles d'embedding sont des composants fondamentaux des systèmes d'IA modernes. Ils fournissent des représentations de données de haute qualité pour les tâches d'apprentissage automatique, constituant une technologie clé dans le développement du traitement du langage naturel et de la vision par ordinateur.
Flux de travail de base :
Phase de prétraitement de la base de connaissances
Segmentation des documents en chunks (blocs de texte) appropriés
Conversion de chaque chunk en vecteur via le modèle d'embedding
Stockage des vecteurs et du texte original dans une base de données vectorielle
Phase de traitement des requêtes
Conversion de la question utilisateur en vecteur
Recherche de contenu similaire dans la base vectorielle
Fourniture des résultats pertinents comme contexte au LLM
MCP est un protocole open source visant à fournir des informations contextuelles aux grands modèles de langage (LLM) de manière standardisée.
Analogie : Imaginez MCP comme une "clé USB" pour l'IA. De même qu'une clé USB stocke divers fichiers accessibles sur ordinateur, le serveur MCP peut "brancher" différents "plugins" contextuels. Les LLM peuvent ainsi accéder à ces composants selon leurs besoins, enrichissant leurs capacités par un contexte élargi.
Comparaison avec les outils fonctionnels : Les outils fonctionnels traditionnels étendent les capacités des LLM, mais MCP propose une abstraction de niveau supérieur. Alors que les outils fonctionnels sont spécifiques à certaines tâches, MCP offre un mécanisme contextuel modulaire et universel.
Standardisation : Interface et format de données unifiés pour une collaboration transparente
Modularité : Décomposition de l'information contextuelle en modules indépendants (plugins)
Flexibilité : Sélection dynamique des plugins contextuels par les LLM
Évolutivité : Architecture ouverte à de nouveaux types de plugins contextuels
Ce document a été traducido del chino por IA y aún no ha sido revisado.
La sauvegarde des données de Cherry Studio prend en charge le stockage compatible S3 (stockage objet). Les services de stockage compatibles S3 courants incluent : AWS S3, Cloudflare R2, Alibaba Cloud OSS, Tencent Cloud COS et MinIO.
Grâce au stockage compatible S3, vous pouvez synchroniser les données entre plusieurs appareils via la méthode : Ordinateur A
Stockage S3
Ordinateur B
.
Créez un compartiment de stockage d'objets (Bucket) et notez son nom. Il est fortement recommandé de définir le compartiment en lecture/écriture privée pour éviter les fuites de données de sauvegarde !!
Consultez la documentation et accédez à la console du service cloud pour obtenir les informations du stockage compatible S3 telles que Access Key ID
, Secret Access Key
, Endpoint
, Bucket
, Region
, etc.
Endpoint : Adresse d'accès du stockage compatible S3, généralement sous la forme https://<bucket-name>.<region>.amazonaws.com
ou https://<ACCOUNT_ID>.r2.cloudflarestorage.com
.
Region : Région où se trouve le compartiment, par exemple us-west-1
, ap-southeast-1
, etc. Pour Cloudflare R2, indiquez auto
.
Bucket : Nom du compartiment.
Access Key ID et Secret Access Key : Informations d'identification pour l'authentification.
Root Path : Optionnel, spécifie le chemin racine lors de la sauvegarde dans le compartiment, vide par défaut.
Documentation associée
Cloudflare R2 : Obtenir Access Key ID et Secret Access Key
Alibaba Cloud OSS : Obtenir Access Key ID et Access Key Secret
Tencent Cloud COS : Obtenir SecretId et SecretKey
Dans les paramètres de sauvegarde S3, remplissez les informations ci-dessus, cliquez sur le bouton Sauvegarder pour effectuer la sauvegarde, et cliquez sur le bouton Gérer pour afficher et gérer la liste des fichiers de sauvegarde.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
L'utilisation ou la distribution de toute partie ou élément des Matériaux Cherry Studio implique que vous avez pris connaissance et accepté le contenu du présent Accord, qui prend effet immédiatement.
Le présent Accord de Licence Cherry Studio (ci-après "l’Accord") désigne les termes et conditions régissant l'utilisation, la copie, la distribution et la modification des Matériaux.
"Nous" (ou "Notre") désigne Shanghai Qianhui Technology Co., Ltd.
"Vous" (ou "Votre") désigne toute personne physique ou entité légale exerçant les droits accordés par le présent Accord et/ou utilisant les Matériaux à quelque fin que ce soit et dans tout domaine d'utilisation.
"Tiers" désigne toute personne ou entité légale ne partageant aucun lien de contrôle avec Nous ou Vous.
"Cherry Studio" désigne le logiciel concerné, comprenant sans limitation [exemples : bibliothèques principales, éditeur, extensions, projets d'exemple], ainsi que le code source, la documentation, les exemples de code et tout autre élément distribué avec ce dernier. (Veuillez décrire précisément selon la composition réelle de Cherry Studio)
"Matériaux" désigne collectivement Cherry Studio et la documentation (et toute partie de ceux-ci), propriété exclusive de Shanghai Qianhui Technology Co., Ltd., fournis sous le présent Accord.
"Forme Source" désigne la forme privilégiée pour apporter des modifications, comprenant notamment le code source, les fichiers sources de documentation et les fichiers de configuration.
"Forme Objet" désigne toute forme résultant d'une transformation mécanique ou d'une traduction de la Forme Source, comprenant notamment le code objet compilé, la documentation générée et les formats convertis vers d'autres types de médias.
"Utilisation Commerciale" désigne toute fin présentant un avantage ou bénéfice commercial direct ou indirect, incluant notamment la vente, la licence, l'abonnement, la publicité, le marketing, la formation, les services de conseil, etc.
"Modification" désigne tout changement, adaptation, création dérivée ou développement secondaire apporté à la Forme Source des Matériaux, incluant notamment la modification du nom de l'application, du logo, du code, des fonctionnalités, de l'interface, etc.
Utilisation commerciale gratuite (Code non modifié uniquement) : Nous Vous accordons, sous réserve des termes et conditions du présent Accord, une licence non exclusive, mondiale, non cessible, exempte de redevances, pour utiliser, copier, distribuer les Matériaux non modifiés, y compris à des fins d'Utilisation Commerciale, conformément à Nos droits de propriété intellectuelle ou autres droits existants dans les Matériaux.
Licence commerciale (si nécessaire) : Sous réserve de remplir les conditions énoncées à l'article III "Licence Commerciale", Vous devez obtenir une licence commerciale écrite explicite de Notre part pour exercer les droits en vertu du présent Accord.
Vous devez Nous contacter et obtenir une licence commerciale écrite explicite avant de continuer à utiliser les Matériaux Cherry Studio dans les cas suivants :
Modifications et créations dérivées : Vous modifiez les Matériaux ou effectuez un développement dérivé basé sur ceux-ci (incluant notamment la modification du nom de l'application, du logo, du code, des fonctionnalités, de l'interface, etc.).
Services d'entreprise : Vous fournissez des services basés sur Cherry Studio au sein de Votre entreprise ou pour des clients entreprises, prenant en charge 10 utilisateurs cumulés ou plus.
Vente groupée avec matériel : Vous préinstallez ou intégrez Cherry Studio dans un équipement ou produit matériel pour une vente groupée.
Approvisionnement à grande échelle par des institutions publiques ou éducatives : Votre cas d'usage relève d'un projet d'approvisionnement à grande échelle par des institutions gouvernementales ou éducatives, notamment impliquant des exigences sensibles (sécurité, confidentialité des données).
Service cloud public : Vous proposez un service cloud public basé sur Cherry Studio.
Vous pouvez distribuer des copies des Matériaux non modifiés ou les fournir dans le cadre d'un produit ou service contenant des Matériaux non modifiés, sous Forme Source ou Forme Objet, à condition de :
Fournir une copie du présent Accord à tout autre destinataire des Matériaux ;
Conserver dans toutes les copies des Matériaux que Vous distribuez l'avis d'attribution suivant, placé dans un fichier "NOTICE" ou texte similaire distribué avec ces copies : `"Cherry Studio est licencié sous les termes du Cherry Studio LICENSE AGREEMENT, Copyright (c) 上海千彗科技有限公司. Tous droits réservés."`
Les Matériaux peuvent être soumis à des contrôles ou restrictions à l'exportation. Vous devez respecter les lois et règlements applicables lors de leur utilisation.
Si Vous utilisez les Matériaux ou leurs résultats pour créer, entraîner, affiner ou améliorer un logiciel ou modèle destiné à être distribué, Nous Vous encourageons à indiquer clairement "Built with Cherry Studio" ou "Powered by Cherry Studio" dans la documentation associée.
Nous conservons la propriété de tous les droits de propriété intellectuelle sur les Matériaux et les œuvres dérivées créées par ou pour Nous. Sous réserve du respect du présent Accord, la propriété des Modifications et œuvres dérivées créées par Vous sera définie dans la licence commerciale applicable. Sans licence commerciale, Vous ne détenez aucun droit de propriété sur Vos Modifications/œuvres dérivées ; celles-ci restent Notre propriété.
Aucune licence d'utilisation de Nos marques commerciales, marques déposées, marques de service ou noms de produits n'est accordée, sauf pour s'acquitter des obligations de notification ou pour une utilisation raisonnable et usuelle dans la description/redistribution des Matériaux.
Si Vous engagez une action en justice (y compris une demande reconventionnelle) contre Nous ou toute entité, alléguant que les Matériaux ou leurs résultats enfreignent Vos droits de propriété intellectuelle, toutes les licences accordées par le présent Accord prendront fin à la date d'introduction de la procédure.
Nous n'avons aucune obligation de support, de mise à jour, de formation ou de développement de nouvelles versions des Matériaux, ni d'accorder de licences connexes.
Les Matériaux sont fournis "TELS QUELS", sans garantie expresse ou implicite (y compris de qualité marchande, de non-contrefaçon ou d'adéquation à un usage particulier). Nous n'offrons aucune garantie concernant leur sécurité/stabilité.
En aucun cas Nous ne serons responsables envers Vous des dommages résultant de l'utilisation ou de l'impossibilité d'utiliser les Matériaux ou leurs résultats, notamment tout dommage direct, indirect, spécial ou consécutif.
Vous Nous défendrez, indemniserez et Nous tiendrez indemnes de toute réclamation faite par un Tiers liée à Votre utilisation ou distribution des Matériaux.
Le présent Accord prend effet lors de Votre acceptation ou accès aux Matériaux et reste valide jusqu'à résiliation selon ses termes.
Nous pouvons résilier l'Accord en cas de violation de Vos obligations. Après résiliation, Vous cesserez d'utiliser les Matériaux. Les articles VII, IX et "II. Accord du contributeur" (si applicable) survivront à la résiliation.
Le présent Accord et tout litige y afférent sont régis par le droit chinois.
Tout litige né du présent Accord relève de la compétence exclusive des tribunaux populaires de Shanghai.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
En personnalisant le CSS, vous pouvez modifier l'apparence du logiciel pour qu'elle corresponde mieux à vos préférences, par exemple comme ceci :
:root {
--color-background: #1a462788;
--color-background-soft: #1a4627aa;
--color-background-mute: #1a462766;
--navbar-background: #1a4627;
--chat-background: #1a4627;
--chat-background-user: #28b561;
--chat-background-assistant: #1a462722;
}
#content-container {
background-color: #2e5d3a !important;
}
:root {
font-family: "汉仪唐美人" !important; /* police de caractères */
}
/* Couleur du texte en mode réflexion approfondie */
.ant-collapse-content-box .markdown {
color: red;
}
/* Variables de thème */
:root {
--color-black-soft: #2a2b2a; /* couleur de fond sombre */
--color-white-soft: #f8f7f2; /* couleur de fond claire */
}
/* Thème sombre */
body[theme-mode="dark"] {
/* Couleurs */
--color-background: #2b2b2b; /* couleur de fond sombre */
--color-background-soft: #303030; /* couleur de fond claire */
--color-background-mute: #282c34; /* couleur de fond neutre */
--navbar-background: var(-–color-black-soft); /* couleur de fond de la barre de navigation */
--chat-background: var(–-color-black-soft); /* couleur de fond du chat */
--chat-background-user: #323332; /* couleur de fond des messages utilisateur */
--chat-background-assistant: #2d2e2d; /* couleur de fond des messages de l'assistant */
}
/* Styles spécifiques au thème sombre */
body[theme-mode="dark"] {
#content-container {
background-color: var(-–chat-background-assistant) !important; /* couleur de fond du conteneur */
}
#content-container #messages {
background-color: var(-–chat-background-assistant); /* couleur de fond des messages */
}
.inputbar-container {
background-color: #3d3d3a; /* couleur de fond de la zone de saisie */
border: 1px solid #5e5d5940; /* couleur de bordure de la zone de saisie */
border-radius: 8px; /* rayon de bordure de la zone de saisie */
}
/* Styles de code */
code {
background-color: #e5e5e20d; /* couleur de fond du code */
color: #ea928a; /* couleur du texte du code */
}
pre code {
color: #abb2bf; /* couleur du texte du code préformaté */
}
}
/* Thème clair */
body[theme-mode="light"] {
/* Couleurs */
--color-white: #ffffff; /* blanc */
--color-background: #ebe8e2; /* couleur de fond claire */
--color-background-soft: #cbc7be; /* couleur de fond claire */
--color-background-mute: #e4e1d7; /* couleur de fond neutre */
--navbar-background: var(-–color-white-soft); /* couleur de fond de la barre de navigation */
--chat-background: var(-–color-white-soft); /* couleur de fond du chat */
--chat-background-user: #f8f7f2; /* couleur de fond des messages utilisateur */
--chat-background-assistant: #f6f4ec; /* couleur de fond des messages de l'assistant */
}
/* Styles spécifiques au thème clair */
body[theme-mode="light"] {
#content-container {
background-color: var(-–chat-background-assistant) !important; /* couleur de fond du conteneur */
}
#content-container #messages {
background-color: var(-–chat-background-assistant); /* couleur de fond des messages */
}
.inputbar-container {
background-color: #ffffff; /* couleur de fond de la zone de saisie */
border: 1px solid #87867f40; /* couleur de bordure de la zone de saisie */
border-radius: 8px; /* rayon de bordure de la zone de saisie (ajustez à votre convenance) */
}
/* Styles de code */
code {
background-color: #3d39290d; /* couleur de fond du code */
color: #7c1b13; /* couleur du texte du code */
}
pre code {
color: #000000; /* couleur du texte du code préformaté */
}
}
Pour plus de variables de thème, consultez le code source : https://github.com/CherryHQ/cherry-studio/tree/main/src/renderer/src/assets/styles
Bibliothèque de thèmes Cherry Studio : https://github.com/boilcy/cherrycss
Partage de thèmes Cherry Studio de style chinois : https://linux.do/t/topic/325119/129
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Ollama est un excellent outil open source qui vous permet d'exécuter et de gérer facilement divers grands modèles de langage (LLM) localement. Cherry Studio prend désormais en charge l'intégration d'Ollama, vous permettant d'interagir directement avec des LLM déployés localement dans une interface familière, sans dépendre des services cloud !
Ollama est un outil qui simplifie le déploiement et l'utilisation des grands modèles de langage (LLM). Il présente les caractéristiques suivantes :
Exécution locale : Les modèles s'exécutent entièrement sur votre ordinateur local, sans nécessiter de connexion Internet, protégeant ainsi votre vie privée et la sécurité de vos données.
Simplicité d'utilisation : Avec de simples commandes en ligne de commande, vous pouvez télécharger, exécuter et gérer divers LLM.
Modèles variés : Prend en charge de nombreux modèles open source populaires tels que Llama 2, Deepseek, Mistral, Gemma, etc.
Multiplateforme : Compatible avec les systèmes macOS, Windows et Linux.
API ouverte : Prend en charge une interface compatible avec OpenAI, permettant une intégration avec d'autres outils.
Pas de service cloud nécessaire : Plus de limitations de quotas ou de frais liés aux API cloud, profitez pleinement de la puissance des LLM locaux.
Confidentialité des données : Toutes vos données de conversation restent sur votre appareil local, vous n'avez pas à craindre la fuite de vos données privées.
Disponible hors ligne : Vous pouvez continuer à interagir avec le LLM même sans connexion Internet.
Personnalisation : Vous pouvez sélectionner et configurer le LLM qui vous convient le mieux selon vos besoins.
Tout d'abord, vous devez installer et exécuter Ollama sur votre ordinateur. Suivez ces étapes :
Télécharger Ollama : Visitez le site officiel d'Ollama (https://ollama.com/), téléchargez le package d'installation correspondant à votre système d'exploitation. Pour Linux, vous pouvez directement exécuter la commande suivante pour installer Ollama :
curl -fsSL https://ollama.com/install.sh | sh
Installer Ollama : Suivez les instructions de l'installateur pour terminer l'installation.
Télécharger un modèle : Ouvrez un terminal (ou invite de commandes), utilisez la commande ollama run
pour télécharger le modèle que vous souhaitez utiliser. Par exemple, pour télécharger le modèle Llama 2, vous pouvez exécuter :
ollama run llama3.2
Ollama téléchargera et exécutera automatiquement ce modèle.
Gardez Ollama en cours d'exécution : Pendant que vous interagissez avec les modèles Ollama via Cherry Studio, assurez-vous qu'Ollama reste en cours d'exécution.
Ensuite, ajoutez Ollama en tant que fournisseur de services d'IA personnalisé dans Cherry Studio :
Ouvrir les paramètres : Dans la barre de navigation gauche de l'interface Cherry Studio, cliquez sur "Paramètres" (icône d'engrenage).
Accéder aux services de modèle : Sur la page des paramètres, sélectionnez l'onglet "Services de modèle".
Ajouter un fournisseur : Cliquez sur Ollama dans la liste.
Dans la liste des fournisseurs de services, trouvez l'Ollama que vous venez d'ajouter et configurez-le en détail :
État d'activation :
Assurez-vous que l'interrupteur à l'extrême droite du fournisseur Ollama est activé, indiquant qu'il est en service.
Clé API :
Ollama n'a pas besoin par défaut d'une clé API. Vous pouvez laisser ce champ vide ou y mettre n'importe quel contenu.
Adresse API :
Remplissez l'adresse de l'API locale fournie par Ollama. Généralement, l'adresse est :
http://localhost:11434/
Si vous avez modifié le port, ajustez-le en conséquence.
Temps de maintien en activité : Cette option définit la durée de maintien de la session en minutes. Si aucune nouvelle conversation n'a lieu dans le temps imparti, Cherry Studio se déconnecte automatiquement d'Ollama pour libérer des ressources.
Gestion des modèles :
Cliquez sur le bouton "+ Ajouter" pour ajouter manuellement le nom du modèle que vous avez déjà téléchargé dans Ollama.
Par exemple, si vous avez téléchargé le modèle llama3.2
via ollama run llama3.2
, vous pouvez entrer llama3.2
ici.
Cliquez sur le bouton "Gérer" pour modifier ou supprimer les modèles ajoutés.
Une fois la configuration ci-dessus terminée, vous pouvez dans l'interface de chat de Cherry Studio, sélectionner le fournisseur de services Ollama et le modèle que vous avez téléchargé, et commencer à dialoguer avec votre LLM local !
Première exécution d'un modèle : Lors de la première exécution d'un modèle, Ollama a besoin de télécharger les fichiers du modèle, ce qui peut prendre du temps, soyez patient.
Voir les modèles disponibles : Exécutez la commande ollama list
dans un terminal pour voir la liste des modèles Ollama que vous avez téléchargés.
Exigences matérielles : L'exécution de grands modèles de langage nécessite certaines ressources informatiques (CPU, mémoire, GPU), assurez-vous que la configuration de votre ordinateur répond aux exigences du modèle.
Documentation d'Ollama : Vous pouvez cliquer sur le lien Voir la documentation et les modèles d'Ollama
dans la page de configuration pour accéder rapidement à la documentation officielle d'Ollama.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
4xx (Codes d'état d'erreur client) : Généralement des erreurs de syntaxe de requête, d'authentification ou d'autorisation empêchant le traitement de la requête.
5xx (Codes d'état d'erreur serveur) : Généralement des erreurs côté serveur comme un serveur inaccessible ou des délais de traitement dépassés.
Cliquez sur la fenêtre du client Cherry Studio, puis appuyez sur le raccourci clavier Ctrl + Shift + I (macOS : Command + Option + I)
Dans la console ouverte, cliquez sur Network
→ Cherchez dans la zone ② le dernier élément marqué d'un ×
rouge nommé completions
(pour les erreurs de dialogue/traduction) ou generations
(pour les erreurs de génération d'images) → Cliquez sur Response
pour voir le message complet (zone ④ sur l'image).
Si vous ne parvenez pas à identifier la cause de l'erreur, envoyez une capture d'écran de cette interface au .
Cette méthode fonctionne aussi pour les tests de modèles, l'ajout de bases de connaissances, ou la génération d'images. Ouvrez toujours la console avant de lancer les opérations.
Si les formules s'affichent en code, vérifiez les délimiteurs :
Utilisation des délimiteurs
Formule en ligne
Un dollar unique :
$formule$
Ou
\(
et\)
:\(formule\)
Bloc de formule
Deux dollars :
$$formule$$
Ou
\[formule\]
Exemple :
$$\sum_{i=1}^n x_i$$
Si le rendu est corrompu (surtout avec du chinois dans les formules), basculez vers le moteur de rendu KateX.
Modèle indisponible
Vérifiez si le fournisseur supporte ce modèle ou son état de service.
Utilisation d'un modèle non-embedding
Vérifiez d'abord si le modèle supporte la reconnaissance d'images. Dans Cherry Studio, les modèles populaires sont classés : une icône d'œil 👁️ après le nom indique cette capacité.
Les modèles compatibles permettent l'upload d'images. Si cette option n'apparaît pas, dans la liste des modèles du fournisseur, cliquez sur l'icône de paramètres et cochez "Image".
Les spécifications des modèles sont disponibles chez chaque fournisseur. Comme pour les embeddings, cocher l'option sur des modèles non-visuels n'aura aucun effet.
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Cherry Studio prend en charge la sauvegarde des données via le protocole WebDAV. Vous pouvez choisir un service WebDAV adapté pour effectuer des sauvegardes dans le cloud.
Basé sur WebDAV, il est possible de synchroniser les données entre plusieurs appareils via le schéma : Ordinateur A
WebDAV
Ordinateur B
.
Connectez-vous à Nutstore, cliquez sur votre nom d'utilisateur en haut à droite et sélectionnez "Informations du compte" :
Choisissez "Options de sécurité" puis cliquez sur "Ajouter une application" :
Entrez le nom de l'application et générez un mot de passe aléatoire :
Copiez et enregistrez le mot de passe :
Récupérez l'adresse du serveur, le compte et le mot de passe :
Dans les paramètres de Cherry Studio → Paramètres des données, renseignez les informations WebDAV :
Sélectionnez la sauvegarde ou la restauration des données, et configurez si besoin la périodicité des sauvegardes automatiques :
Les services WebDAV les plus accessibles sont généralement les solutions de stockage cloud :
(abonnement requis)
(achat requis)
(espace gratuit de 10 Go, limitation à 250 Mo par fichier)
(2 Go gratuits, extensibles à 16 Go par parrainage)
(10 Go gratuits + 5 Go supplémentaires par invitation)
(10 Go pour les utilisateurs gratuits)
Solutions nécessitant un déploiement autonome :
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Cherry Studio est un client desktop multi-modèles, compatible actuellement avec Windows, Linux et macOS. Il agrège les principaux modèles LLM et offre une assistance multi-scénarios. Les utilisateurs peuvent améliorer leur productivité grâce à une gestion intelligente des conversations, une personnalisation open source et des interfaces multi-thèmes.
Cherry Studio est désormais entièrement compatible avec les canaux API hautes performances de PPIO – en assurant une puissance de calcul professionnelle pour offrir des réponses rapides DeepSeek-R1/V3 et une disponibilité de service de 99,9%, vous garantissant une expérience fluide.
Le tutoriel ci-dessous contient la procédure complète d'intégration (incluant la configuration des clés), vous permettant d'activer le mode avancé « Cherry Studio + API hautes performances PPIO » en 3 minutes.
Commencez par télécharger Cherry Studio sur le site officiel : (si le lien ne fonctionne pas, vous pouvez utiliser ce lien alternatif Quark : )
(1) Cliquez d'abord sur l'icône des paramètres en bas à gauche, définissez le nom du fournisseur sur : PPIO
, puis cliquez sur "Confirmer"
(2) Rendez-vous sur la , cliquez sur 【Avatar】→【Gestion des clés API】 pour accéder au panneau de contrôle
Cliquez sur le bouton 【+ Créer】 pour générer une nouvelle clé API. Attribuez-lui un nom personnalisé. La clé n'est visible qu'au moment de sa création : copiez-la impérativement et sauvegardez-la, sous peine de compromettre son utilisation ultérieure.
(3) Dans CherryStudio, collez la clé Cliquez sur les paramètres, sélectionnez 【PPIO 派欧云】, saisissez la clé API générée sur le site, puis cliquez sur 【Vérifier】
(4) Sélectionnez un modèle : prenons l'exemple de deepseek/deepseek-r1/community. Pour en changer, remplacez simplement le nom.
Les versions DeepSeek R1 et V3 community sont fournies à titre exploratoire. Ce sont des modèles complets et non limités, avec une stabilité et des performances identiques. Pour des appels intensifs, rechargez votre compte et basculez vers une version non-community.
(1) Une fois la 【vérification】 réussie, l'utilisation normale est possible
(2) Enfin, cliquez sur 【@】 et sélectionnez le modèle DeepSeek R1 nouvellement ajouté sous le fournisseur PPIO pour démarrer une conversation !
【Source partielle du matériel : 】
Pour un apprentissage visuel, nous proposons un tutoriel vidéo sur Bilibili. Ce guide pas à pas vous permettra de maîtriser rapidement la configuration « PPIO API + Cherry Studio ». Cliquez sur le lien ci-dessous pour accéder à la vidéo et démarrer une expérience de développement fluide →
【Source vidéo : sola】
400
Format incorrect du corps de la requête, etc.
Vérifiez le contenu de l'erreur renvoyé dans la conversation ou consultez la console pour voir le message d'erreur, puis suivez les instructions.
[Cas fréquent 1] : Pour les modèles Gemini, une activation de carte bancaire peut être nécessaire ; [Cas fréquent 2] : Taille de données dépassée (surtout avec les modèles visuels). Les images dépassant la limite de taille renverront cette erreur ; [Cas fréquent 3] : Paramètre non supporté ou mal configuré. Testez avec un assistant vierge ; [Cas fréquent 4] : Limite de contexte dépassée. Effacez le contexte, démarrez une nouvelle conversation ou réduisez le nombre de messages contextuels.
401
Authentification échouée : modèle non supporté ou compte banni
Contactez le fournisseur de services ou vérifiez l'état du compte
403
Droits insuffisants pour l'opération
Suivez les instructions de l'erreur renvoyée ou dans la console
404
Ressource introuvable
Vérifiez le chemin de la requête
422
Syntaxe correcte mais erreur sémantique
Erreur dans l'interprétation JSON (ex: valeur nulle ; nombre/boolean au lieu d'une chaîne)
429
Limite de taux de requête atteinte
Attendez avant de réessayer (dépassement TPM ou RPM)
500
Erreur interne du serveur
Contactez le fournisseur de services si persistant
501
Fonctionnalité non supportée
502
Réponse invalide d'un serveur intermédiaire
503
Serveur surchargé/en maintenance
Vérifiez l'en-tête Retry-After pour le délai
504
Délai dépassé par un serveur intermédiaire
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Adresse de référence officielle des modèles
Doubao-embedding
4095
Doubao-embedding-vision
8191
Doubao-embedding-large
4095
Adresse de référence officielle des modèles
text-embedding-v3
8192
text-embedding-v2
2048
text-embedding-v1
2048
text-embedding-async-v2
2048
text-embedding-async-v1
2048
Adresse de référence officielle des modèles
text-embedding-3-small
8191
text-embedding-3-large
8191
text-embedding-ada-002
8191
Adresse de référence officielle des modèles
Embedding-V1
384
tao-8k
8192
Adresse de référence officielle des modèles
embedding-2
1024
embedding-3
2048
Adresse de référence officielle des modèles
hunyuan-embedding
1024
Adresse de référence officielle des modèles
Baichuan-Text-Embedding
512
Adresse de référence officielle des modèles
M2-BERT-80M-2K-Retrieval
2048
M2-BERT-80M-8K-Retrieval
8192
M2-BERT-80M-32K-Retrieval
32768
UAE-Large-v1
512
BGE-Large-EN-v1.5
512
BGE-Base-EN-v1.5
512
Adresse de référence officielle des modèles
jina-embedding-b-en-v1
512
jina-embeddings-v2-base-en
8191
jina-embeddings-v2-base-zh
8191
jina-embeddings-v2-base-de
8191
jina-embeddings-v2-base-code
8191
jina-embeddings-v2-base-es
8191
jina-colbert-v1-en
8191
jina-reranker-v1-base-en
8191
jina-reranker-v1-turbo-en
8191
jina-reranker-v1-tiny-en
8191
jina-clip-v1
8191
jina-reranker-v2-base-multilingual
8191
reader-lm-1.5b
256000
reader-lm-0.5b
256000
jina-colbert-v2
8191
jina-embeddings-v3
8191
Adresse de référence officielle des modèles
BAAI/bge-m3
8191
netease-youdao/bce-embedding-base_v1
512
BAAI/bge-large-zh-v1.5
512
BAAI/bge-large-en-v1.5
512
Pro/BAAI/bge-m3
8191
Adresse de référence officielle des modèles
text-embedding-004
2048
Adresse de référence officielle des modèles
nomic-embed-text-v1
8192
nomic-embed-text-v1.5
8192
gte-multilingual-base
8192
Adresse de référence officielle des modèles
embedding-query
4000
embedding-passage
4000
Adresse de référence officielle des modèles
embed-english-v3.0
512
embed-english-light-v3.0
512
embed-multilingual-v3.0
512
embed-multilingual-light-v3.0
512
embed-english-v2.0
512
embed-english-light-v2.0
512
embed-multilingual-v2.0
256
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Cette page présente uniquement les fonctionnalités de l'interface. Pour le didacticiel de configuration, reportez-vous au didacticiel dans les didacticiels de base.
Dans Cherry Studio, un seul fournisseur prend en charge l'utilisation de plusieurs clés en rotation. La rotation s'effectue en bouclant de la première à la dernière clé de la liste.
Saisissez plusieurs clés en les séparant par des virgules. Exemple :
Vous devez utiliser une virgule anglaise.
Il n'est généralement pas nécessaire de saisir l'URL de l'API lors de l'utilisation d'un fournisseur intégré. Si vous avez besoin de la modifier, veuillez saisir strictement l'URL fournie par la documentation officielle correspondante.
Si le fournisseur donne une adresse au format https://xxx.xxx.com/v1/chat/completions, ne saisissez que la partie racine de l'adresse (https://xxx.xxx.com).
Cherry Studio ajoutera automatiquement le reste du chemin (/v1/chat/completions). Si vous ne suivez pas ces instructions, cela pourrait empêcher un fonctionnement normal.
En général, en cliquant sur le bouton Gérer
en bas à gauche de la page de configuration du fournisseur, vous obtiendrez automatiquement tous les modèles pouvant être appelés par ce fournisseur. Cliquez ensuite sur le +
à côté de chaque modèle dans la liste obtenue pour l'ajouter à la liste des modèles.
Cliquez sur le bouton de vérification à côté du champ de saisie de la clé API pour tester si la configuration a réussi.
Une fois la configuration réussie, assurez-vous d'activer le commutateur en haut à droite. Sinon, le fournisseur restera désactivé et les modèles correspondants ne seront pas disponibles dans la liste des modèles.
sk-xxxx1,sk-xxxx2,sk-xxxx3,sk-xxxx4
Ce document a été traducido del chino por IA y aún no ha sido revisado.
CherryStudio prend en charge les recherches sur le web via SearXNG, un projet open source pouvant être déployé localement ou sur un serveur. Son mode de configuration diffère légèrement des autres solutions nécessitant des fournisseurs d'API.
Lien du projet SearXNG : SearXNG
Open source et gratuit, sans API nécessaire
Respect élevé de la vie privée
Hautement personnalisable
Comme SearXNG ne nécessite pas de configuration environnementale complexe, vous pouvez le déployer simplement en fournissant un port libre sans utiliser docker compose. La méthode la plus rapide consiste à utiliser Docker pour extraire directement l'image et la déployer.
1. Télécharger et configurer Docker
Après l'installation, choisissez un chemin de stockage pour l'image :
2. Rechercher et extraire l'image SearXNG
Entrez searxng dans la barre de recherche :
Extraire l'image :
3. Exécuter l'image
Après l'extraction réussie, accédez à la page Images :
Sélectionnez l'image extraite et cliquez sur Exécuter :
Ouvrez les paramètres pour configurer :
Exemple avec le port 8085
:
Après le succès de l'exécution, cliquez sur le lien pour ouvrir l'interface frontale de SearXNG :
Cette page indique que le déploiement a réussi :
Comme l'installation de Docker sous Windows peut être complexe, les utilisateurs peuvent déployer SearXNG sur un serveur et le partager avec d'autres. Malheureusement, SearXNG ne prend pas encore en charge l'authentification nativement, permettant ainsi à d'autres personnes de scanner et d'utiliser abusivement votre instance déployée.
Cherry Studio prend désormais en charge la configuration de l'authentification HTTP de base (RFC7617). Si vous exposez votre SearXNG déployé sur Internet, il est impératif de configurer cette authentification via un logiciel de proxy inverse comme Nginx. Voici un bref tutoriel qui nécessite des connaissances de base en administration Linux.
De manière similaire, utilisez Docker pour le déploiement. Supposons que vous ayez déjà installé Docker CE sur le serveur selon le tutoriel officiel. Voici des commandes complètes pour une installation neuve sous Debian :
sudo apt update
sudo apt install git -y
# Extraire le dépôt officiel
cd /opt
git clone https://github.com/searxng/searxng-docker.git
cd /opt/searxng-docker
# Si la bande passante de votre serveur est limitée, définissez sur false
export IMAGE_PROXY=true
# Modifier le fichier de configuration
cat <<EOF > /opt/searxng-docker/searxng/settings.yml
# voir https://docs.searxng.org/admin/settings/settings.html#settings-use-default-settings
use_default_settings: true
server:
# base_url est défini dans la variable d'environnement SEARXNG_BASE_URL, voir .env et docker-compose.yml
secret_key: $(openssl rand -hex 32)
limiter: false # peut être désactivé pour une instance privée
image_proxy: $IMAGE_PROXY
ui:
static_use_hash: true
redis:
url: redis://redis:6379/0
search:
formats:
- html
- json
EOF
Si vous devez modifier le port d'écoute local ou réutiliser un Nginx existant, éditez le fichier docker-compose.yaml
comme suit :
version: "3.7"
services:
# Si Caddy n'est pas nécessaire et que vous réutilisez un Nginx local existant, supprimez cette section.
caddy:
container_name: caddy
image: docker.io/library/caddy:2-alpine
network_mode: host
restart: unless-stopped
volumes:
- ./Caddyfile:/etc/caddy/Caddyfile:ro
- caddy-data:/data:rw
- caddy-config:/config:rw
environment:
- SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost}
- SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}
cap_drop:
- ALL
cap_add:
- NET_BIND_SERVICE
logging:
driver: "json-file"
options:
max-size: "1m"
max-file: "1"
# Si Caddy n'est pas nécessaire et que vous réutilisez un Nginx local existant, supprimez cette section.
redis:
container_name: redis
image: docker.io/valkey/valkey:8-alpine
command: valkey-server --save 30 1 --loglevel warning
restart: unless-stopped
networks:
- searxng
volumes:
- valkey-data2:/data
cap_drop:
- ALL
cap_add:
- SETGID
- SETUID
- DAC_OVERRIDE
logging:
driver: "json-file"
options:
max-size: "1m"
max-file: "1"
searxng:
container_name: searxng
image: docker.io/searxng/searxng:latest
restart: unless-stopped
networks:
- searxng
# Par défaut mappé sur le port 8080 de l'hôte, si vous voulez écouter sur 8000, remplacez par "127.0.0.1:8000:8080"
ports:
- "127.0.0.1:8080:8080"
volumes:
- ./searxng:/etc/searxng:rw
environment:
- SEARXNG_BASE_URL=https://${SEARXNG_HOSTNAME:-localhost}/
- UWSGI_WORKERS=${SEARXNG_UWSGI_WORKERS:-4}
- UWSGI_THREADS=${SEARXNG_UWSGI_THREADS:-4}
cap_drop:
- ALL
cap_add:
- CHOWN
- SETGID
- SETUID
logging:
driver: "json-file"
options:
max-size: "1m"
max-file: "1"
networks:
searxng:
volumes:
# Si Caddy n'est pas nécessaire et que vous réutilisez un Nginx local existant, supprimez cette section
caddy-data:
caddy-config:
# Si Caddy n'est pas nécessaire et que vous réutilisez un Nginx local existant, supprimez cette section
valkey-data2:
Exécutez docker compose up -d
pour démarrer. Visualisez les journaux avec docker compose logs -f searxng
.
Si vous utilisez des panneaux de serveur comme Baota ou 1Panel, consultez leur documentation pour ajouter un site et configurer le proxy inverse Nginx. Modifiez ensuite le fichier de configuration Nginx comme dans l'exemple ci-dessous :
server
{
listen 443 ssl;
# Votre nom d'hôte
server_name search.example.com;
# index index.html;
# root /data/www/default;
# Si SSL est configuré, ajoutez ces deux lignes
ssl_certificate /path/to/your/cert/fullchain.pem;
ssl_certificate_key /path/to/your/cert/privkey.pem;
# HSTS
# add_header Strict-Transport-Security "max-age=31536000; includeSubDomains; preload";
# Configuration proxy inverse standard
location / {
# Ajoutez ces deux lignes dans le bloc location, conservez le reste
auth_basic "Veuillez saisir votre nom d'utilisateur et mot de passe";
auth_basic_user_file /etc/nginx/conf.d/search.htpasswd;
proxy_http_version 1.1;
proxy_set_header Connection "";
proxy_redirect off;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $proxy_protocol_addr;
proxy_pass http://127.0.0.1:8000;
client_max_body_size 0;
}
# access_log ...;
# error_log ...;
}
Supposons que le fichier de configuration Nginx soit dans /etc/nginx/conf.d
, placez-y également le fichier de mots de passe.
Exécutez la commande (remplacez example_name
et example_password
par vos identifiants) :
echo "example_name:$(openssl passwd -5 'example_password')" > /etc/nginx/conf.d/search.htpasswd
Redémarrez Nginx (ou rechargez la configuration).
Ouvrez ensuite la page web. Vous devriez être invité à saisir vos identifiants. Entrez ceux définis précédemment pour vérifier la configuration.
Une fois SearXNG déployé localement ou sur serveur, procédez à la configuration dans CherryStudio.
Accédez à la page des paramètres de recherche web et sélectionnez Searxng :
La validation échoue si vous entrez directement l'URL du déploiement local :
Cela est dû au format JSON non activé par défaut. Modifiez le fichier de configuration.
Revenez à Docker, dans l'onglet Fichiers, trouvez le dossier avec les étiquettes :
Déroulez et trouvez un autre dossier étiqueté :
Localisez le fichier de configuration settings.yml :
Ouvrez l'éditeur de fichiers :
À la ligne 78, seul le format html est présent :
Ajoutez le format json, enregistrez et réexécutez l'image :
Revenez dans Cherry Studio pour valider :
L'adresse peut être locale : http://localhost:port Ou l'adresse Docker : http://host.docker.internal:port
Pour les déploiements serveur avec proxy inverse et format json activé, la validation retournera l'erreur 401 si l'authentification HTTP est configurée :
Configurez l'authentification HTTP de base dans le client avec vos identifiants :
La validation devrait alors réussir.
SearXNG possède désormais une capacité de recherche par défaut. Pour personnaliser les moteurs de recherche, configurez manuellement.
Notez que ces préférences n'affectent pas la configuration appelée par le grand modèle :
Pour configurer les moteurs utilisés par le grand modèle, modifiez le fichier de configuration :
Référence de configuration linguistique :
Si le contenu est trop long, copiez-le dans un IDE local, modifiez-le et collez-le dans le fichier de configuration.
Ajoutez json aux formats de retour dans le fichier de configuration :
Cherry Studio sélectionne par défaut les moteurs avec des catégories web et general. Google étant souvent inaccessible en Chine, forcez l'utilisation de Baidu :
use_default_settings:
engines:
keep_only:
- baidu
engines:
- name: baidu
engine: baidu
categories:
- web
- general
disabled: false
Désactivez le limiteur de SearXNG dans les paramètres :
Ce document a été traducido del chino por IA y aún no ha sido revisado.
Ce classement est généré automatiquement à partir des données de Chatbot Arena (lmarena.ai).
Dernière mise à jour des données : 2025-07-08 11:43:23 UTC / 2025-07-08 19:43:23 CST (Heure de Pékin)
1
1
1477
+5/-5
15,769
Proprietary
Pas de données
2
2
1446
+4/-5
13,997
Proprietary
Pas de données
3
3
1429
+4/-4
24,237
OpenAI
Proprietary
Pas de données
3
2
1427
+3/-4
21,965
OpenAI
Proprietary
Pas de données
3
6
1425
+4/-5
12,847
DeepSeek
MIT
Pas de données
3
7
1422
+3/-4
25,763
xAI
Proprietary
Pas de données
5
6
1418
+4/-4
21,209
Proprietary
Pas de données
6
4
1414
+5/-4
15,271
OpenAI
Proprietary
Pas de données
9
7
1398
+5/-5
17,002
Proprietary
Pas de données
9
11
1392
+5/-4
15,758
Alibaba
Apache 2.0
Pas de données
11
6
1384
+3/-4
18,275
OpenAI
Proprietary
Pas de données
11
12
1382
+3/-3
21,008
DeepSeek
MIT
Pas de données
11
17
1380
+6/-5
8,247
Tencent
Proprietary
Pas de données
11
11
1376
+6/-6
8,058
MiniMax
Apache 2.0
Pas de données
13
12
1374
+3/-5
19,430
DeepSeek
MIT
Pas de données
14
19
1370
+4/-4
19,980
Mistral
Proprietary
Pas de données
14
6
1370
+4/-4
20,056
Anthropic
Proprietary
Pas de données
15
23
1367
+4/-4
14,597
Alibaba
Apache 2.0
Pas de données
16
11
1366
+2/-3
29,038
OpenAI
Proprietary
2023/10
16
11
1363
+4/-4
17,974
OpenAI
Proprietary
Pas de données
17
23
1363
+3/-3
32,074
Alibaba
Proprietary
Pas de données
18
25
1363
+3/-3
36,915
Proprietary
Pas de données
18
31
1359
+6/-5
10,561
xAI
Proprietary
Pas de données
19
25
1360
+3/-3
26,443
Gemma
Pas de données
24
31
1344
+12/-7
4,074
Alibaba
Apache 2.0
Pas de données
25
19
1351
+3/-4
33,177
OpenAI
Proprietary
2023/10
25
12
1343
+4/-5
16,050
Anthropic
Proprietary
Pas de données
26
25
1340
+4/-4
19,404
OpenAI
Proprietary
Pas de données
26
32
1337
+7/-8
3,976
Gemma
Pas de données
26
23
1337
+5/-4
17,292
OpenAI
Proprietary
Pas de données
26
31
1334
+4/-4
22,841
DeepSeek
DeepSeek
Pas de données
26
31
1332
+13/-13
2,061
Mistral
Apache 2.0
Pas de données
28
38
1333
+4/-5
18,386
Alibaba
Apache 2.0
Pas de données
29
36
1327
+8/-6
6,028
Zhipu
Proprietary
Pas de données
30
31
1329
+4/-4
26,104
Proprietary
Pas de données
30
56
1327
+5/-7
7,517
Amazon
Proprietary
Pas de données
30
32
1326
+7/-6
6,055
Alibaba
Proprietary
Pas de données
30
31
1321
+10/-11
2,656
Nvidia
Nvidia Open Model
Pas de données
32
32
1326
+3/-3
24,524
Cohere
CC-BY-NC-4.0
Pas de données
33
42
1323
+4/-4
14,229
Alibaba
Apache 2.0
Pas de données
33
38
1321
+7/-8
5,126
StepFun
Proprietary
Pas de données
33
31
1318
+8/-10
2,452
Tencent
Proprietary
Pas de données
34
39
1312
+11/-12
2,371
Nvidia
Nvidia
Pas de données
35
39
1320
+2/-2
54,951
OpenAI
Proprietary
2023/10
35
32
1319
+3/-3
36,971
OpenAI
Proprietary
Pas de données
38
32
1318
+2/-2
58,645
Proprietary
Pas de données
38
33
1312
+8/-10
2,510
Tencent
Proprietary
Pas de données
41
18
1313
+4/-4
25,955
Anthropic
Proprietary
Pas de données
43
58
1307
+7/-8
7,379
Gemma
Pas de données
44
21
1306
+4/-3
30,677
Anthropic
Proprietary
Pas de données
47
48
1304
+2/-2
67,084
xAI
Proprietary
2024/3
47
50
1303
+4/-3
28,968
01 AI
Proprietary
Pas de données
48
35
1301
+2/-2
117,747
OpenAI
Proprietary
2023/10
48
63
1298
+4/-6
10,715
Alibaba
Proprietary
Pas de données
50
25
[Claude 3.5 Sonnet (20241022)](https://www.anthropic.com/news/3.5