
302.Ai est une plate-forme d’application AI à la rémunération qui offre les API et applications en ligne les plus complètes disponibles.
🥳 Encouragez la version iOS de NextChat en ligne!
👉 Cliquez ici pour installer maintenant
❤️ Code source à venir bientôt

🫣 NextChat Support MCP!
Avant la construction, veuillez définir env enable_mcp = true

Répondre aux exigences de déploiement de la privatisation et de la personnalisation de votre entreprise:
- Personnalisation de la marque: VI / UI sur mesure pour s’aligner de manière transparente avec votre image de marque d’entreprise.
- Intégration des ressources: Configuration unifiée et gestion de dizaines de ressources d’IA par les administrateurs de l’entreprise, prêts à l’emploi par les membres de l’équipe.
- Contrôle de l’autorisation: Les autorisations des membres clairement définies, les autorisations de ressources et les autorisations de base de connaissances, toutes contrôlées via un panneau d’administration de qualité d’entreprise.
- Intégration des connaissances: Combinant votre base de connaissances interne avec les capacités de l’IA, ce qui la rend plus pertinente pour les besoins commerciaux spécifiques de votre entreprise par rapport à l’IA générale.
- Audit de sécurité: Intercepter automatiquement les demandes sensibles et retracer tous les enregistrements de conversation historiques, garantissant l’adhésion à l’IA aux normes de sécurité de l’information d’entreprise.
- Déploiement privé: Déploiement privé au niveau de l’entreprise soutenant diverses solutions de cloud privé traditionnelles, assurant la sécurité des données et la protection de la confidentialité.
- Mises à jour continues: Mises à jour et mises à niveau en cours dans les capacités de pointe comme l’IA multimodale, assurant une innovation et un progrès cohérents.
Pour les demandes d’entreprise, veuillez contacter: business@nextchat.dev


- Déployer gratuitement avec un clic sur Vercel en moins d’une minute
- Client compact (~ 5 Mo) sur Linux / Windows / MacOS, téléchargez-le maintenant
- Entièrement compatible avec les LLMs auto-déployés, recommandés pour une utilisation avec RWKV-Runner ou Localai
- Confidentialité d’abord, toutes les données sont stockées localement dans le navigateur
- Prise en charge de Markdown: latex, sirène, survient de code, etc.
- Conception réactive, mode sombre et PWA
- Vitesse de chargement rapide rapide (~ 100 kb), support de réponse en streaming
- Nouveau dans V2: Créez, partagez et déboguez vos outils de chat avec des modèles rapides (masque)
- Invites impressionnantes propulsées par des chats-chatpt-pros-zh et des chatteaux géniaux
- Compresse automatiquement l’historique du chat pour prendre en charge de longues conversations tout en enregistrant vos jetons
- I18n: Anglais, 简体中文, 繁体中文, 日本語, Français, Español, Italiano, Türkçe, Deutsch, tiếng việt, рсский, čeština, 한국어, Indonésie
- 🚀 v2.15.8 prend désormais en charge le chat en temps réel # 5672
- 🚀 v2.15.4 L’application prend en charge en utilisant l’API Tauri Fetch LLM, plus de sécurité! # 5379
- 🚀 v2.15.0 prend désormais en charge les plugins! Lire ceci: NextChat-Awesome-Plugins
- 🚀 v2.14.0 soutient désormais les artefacts et SD
- 🚀 v2.10.1 Prise en charge du modèle Google Gemini Pro.
- 🚀 v2.9.11 Vous pouvez utiliser Azure Endpoint maintenant.
- 🚀 v2.8 Maintenant, nous avons un client qui se déroule sur toutes les plateformes!
- 🚀 v2.7 Partageons les conversations en tant qu’image ou partagez-la à Sharegpt!
- 🚀 v2.0 est publié, maintenant vous pouvez créer des modèles invites, transformer vos idées en réalité! Lisez ceci: Chatgpt Conseils d’ingénierie rapide: zéro, un et quelques coups de tir.
- Obtenez la clé API Openai;
- Faire un clic
rappelez-vous que
CODEest votre mot de passe de page; - Apprécier 🙂
Anglais> FAQ
Si vous avez déployé votre propre projet en un seul clic en suivant les étapes ci-dessus, vous pouvez rencontrer le problème des « mises à jour disponibles » en constante évolution. En effet, Vercel créera un nouveau projet pour vous par défaut au lieu de former ce projet, entraînant l’incapacité de détecter correctement les mises à jour.
Nous vous recommandons de suivre les étapes ci-dessous pour redéployer:
- Supprimer le référentiel d’origine;
- Utilisez le bouton de la fourche dans le coin supérieur droit de la page pour débarquer ce projet;
- Choisissez à nouveau dans Vercel, veuillez consulter le tutoriel détaillé.
Si vous rencontrez un échec de l’exécution de synchronisation en amont, veuillez mettre à jour manuellement le code.
Après avoir prévu le projet, en raison des limitations imposées par GitHub, vous devez activer manuellement les workflows et l’action de synchronisation en amont sur la page des actions du projet Forkée. Une fois activées, des mises à jour automatiques seront planifiées toutes les heures:


Si vous souhaitez mettre à jour instantanément, vous pouvez consulter la documentation GitHub pour apprendre à synchroniser un projet fourchu avec du code en amont.
Vous pouvez jouer ou regarder ce projet ou suivre l’auteur pour obtenir des notifications de libération à temps.
Ce projet fournit un contrôle d’accès limité. Veuillez ajouter une variable d’environnement nommée CODE Sur la page Vercel Environment Variables. La valeur doit être des mots de passe séparés par des virgules comme ceci:
Après avoir ajouté ou modifié cette variable d’environnement, veuillez redéployer le projet pour que les modifications prennent effet.
Accès à un mot de passe, séparé par la virgule.
OPENAI_API_KEY (requis)
Votre clé API OpenAI, rejoignez plusieurs clés API avec une virgule.
Défaut:
https://api.openai.com
Exemples:
http://your-openai-proxy.com
Remplacez l’URL de base de la demande de la demande de l’API OpenAI.
Spécifiez ID d’organisation OpenAI.
Exemple: https: // azure-resource-url / openai
URL Azure Deploy.
Clé Azure API.
AZURE_API_VERSION (facultatif)
Version Azure API, trouvez-la dans Azure Documentation.
GOOGLE_API_KEY (facultatif)
Google Gemini Pro API Key.
URL de l’API Google Gemini Pro.
ANTHROPIC_API_KEY (facultatif)
Clé API Claude anthropique.
ANTHROPIC_API_VERSION (facultatif)
Version API Anthropic Claude.
URL de l’API Claude anthropique.
Clé API Baidu.
BAIDU_SECRET_KEY (facultatif)
Baidu Secret Key.
URL de l’API Baidu.
BYTEDANCE_API_KEY (facultatif)
Clé API ByTedance.
URL de l’API ByTedance.
ALIBABA_API_KEY (facultatif)
Clé Alibaba Cloud API.
URL de l’API Cloud Alibaba.
URL de l’API Iflytek.
IFLYTEK_API_KEY (Facultatif)
Clé API IFLYTEK.
IFLYTEK_API_SECRET (Facultatif)
IFLYTEK API Secret.
CHATGLM_API_KEY (facultatif)
Clé API chatGLM.
URL de l’API chatGLM.
DEEPSEEK_API_KEY (facultatif)
Key API Deepseek.
URL de l’API Deepseek.
HIDE_USER_API_KEY (facultatif)
Par défaut: vide
Si vous ne souhaitez pas que les utilisateurs saisissent leur propre touche API, définissez cette valeur sur 1.
Par défaut: vide
Si vous ne souhaitez pas que les utilisateurs utilisent GPT-4, définissez cette valeur sur 1.
ENABLE_BALANCE_QUERY (facultatif)
Par défaut: vide
Si vous souhaitez que les utilisateurs interrogent l’équilibre, définissez cette valeur sur 1.
DISABLE_FAST_LINK (facultatif)
Par défaut: vide
Si vous souhaitez désactiver les paramètres d’analyse de l’URL, définissez-le sur 1.
Par défaut: Exemple vide:
+llama,+claude-2,-gpt-3.5-turbo,gpt-4-1106-preview=gpt-4-turbosignifie ajouterllama, claude-2pour modéliser la liste et supprimergpt-3.5-turboà partir de la liste et de l’affichagegpt-4-1106-previewcommegpt-4-turbo.
Pour contrôler les modèles personnalisés, utilisez + Pour ajouter un modèle personnalisé, utilisez - Pour masquer un modèle, utilisez name=displayName Pour personnaliser le nom du modèle, séparé par la virgule.
Utilisateur -all Pour désactiver tous les modèles par défaut, +all pour activer tous les modèles par défaut.
Pour Azure: utilisez modelName@Azure=deploymentName Pour personnaliser le nom du modèle et le nom de déploiement.
Exemple:
+gpt-3.5-turbo@Azure=gpt35Affichera l’optiongpt35(Azure)Dans la liste de modèles. Si vous pouvez seulement utiliser le modèle Azure,-all,+gpt-3.5-turbo@Azure=gpt35volontégpt35(Azure)La seule option dans la liste de modèles.
Pour ByTedance: utilisez modelName@bytedance=deploymentName Pour personnaliser le nom du modèle et le nom de déploiement.
Exemple:
+Doubao-lite-4k@bytedance=ep-xxxxx-xxxAffichera l’optionDoubao-lite-4k(ByteDance)Dans la liste de modèles.
DEFAULT_MODEL (facultatif)
Modifier le modèle par défaut
Par défaut: Exemple vide:
gpt-4-vision,claude-3-opus,my-custom-modelsignifie ajouter des capacités de vision à ces modèles en plus des correspondances de modèle par défaut (qui détectent des modèles contenant des mots clés comme « Vision », « Claude-3 », « Gemini-1.5 », etc.).
Ajoutez des modèles supplémentaires pour avoir des capacités de vision, au-delà de la correspondance de modèle par défaut. Plusieurs modèles doivent être séparés par des virgules.
WHITE_WEBDAV_ENDPOINTS (facultatif)
Vous pouvez utiliser cette option si vous souhaitez augmenter le nombre d’adresses de service WebDAV auxquelles vous êtes autorisé à accéder, comme l’exige le format:
- Chaque adresse doit être un point de terminaison complet
https://xxxx/yyy - Plusieurs adresses sont connectées par ‘,’
DEFAULT_INPUT_TEMPLATE (facultatif)
Personnalisez le modèle par défaut utilisé pour initialiser l’élément de configuration de prétraitement des entrées utilisateur dans les paramètres.
STABILITY_API_KEY (facultatif)
Clé de l’API de stabilité.
Personnalisez l’URL de l’API de stabilité.
Activer MCP (Protocole de contexte du modèle)
SILICONFLOW_API_KEY (facultatif)
Clé API SiliconFlow.
SILICONFLOW_URL (facultatif)
URL de l’API Siliconflow.
302.Ie API Clé.
302.ai URL de l’API.
Nodejs> = 18, docker> = 20
Avant de commencer le développement, vous devez créer un nouveau .env.local Fixez à la racine du projet et placez votre clé API:
OPENAI_API_KEY=<your api key here>
# if you are not able to access openai service, use this BASE_URL
BASE_URL=https://chatgpt1.nextweb.fun/api/proxy
# 1. install nodejs and yarn first
# 2. config local env vars in `.env.local`
# 3. run
yarn install
yarn dev
docker pull yidadaa/chatgpt-next-web
docker run -d -p 3000:3000 \
-e OPENAI_API_KEY=sk-xxxx \
-e CODE=your-password \
yidadaa/chatgpt-next-web
Vous pouvez commencer le service derrière un proxy:
docker run -d -p 3000:3000 \
-e OPENAI_API_KEY=sk-xxxx \
-e CODE=your-password \
-e PROXY_URL=http://localhost:7890 \
yidadaa/chatgpt-next-web
Si votre proxy a besoin de mot de passe, utilisez:
-e PROXY_URL="http://127.0.0.1:7890 user pass"
Si activez MCP, utilisez:
docker run -d -p 3000:3000 \
-e OPENAI_API_KEY=sk-xxxx \
-e CODE=your-password \
-e ENABLE_MCP=true \
yidadaa/chatgpt-next-web
bash <(curl -s https://raw.githubusercontent.com/Yidadaa/ChatGPT-Next-Web/main/scripts/setup.sh)
Synchronisation des enregistrements de chat (Upstash)
| 简体中文 | Anglais | Italiano | 日本語 | 한국어
Veuillez aller au [docs][./docs] Répertoire pour plus d’instructions de documentation.
Si vous souhaitez ajouter une nouvelle traduction, lisez ce document.
Achetez-moi un café
Mit




