GitHub – ChatGptNextWeb / NextChat: ✨ Assistant AI léger et rapide. Prise en charge: Web | iOS | MacOS | Android | Linux

Sommaire :

icône

302.Ai est une plate-forme d’application AI à la rémunération qui offre les API et applications en ligne les plus complètes disponibles.

🥳 Encouragez la version iOS de NextChat en ligne!

👉 Cliquez ici pour installer maintenant

❤️ Code source à venir bientôt

Image github iOS

🫣 NextChat Support MCP!

Avant la construction, veuillez définir env enable_mcp = true

Répondre aux exigences de déploiement de la privatisation et de la personnalisation de votre entreprise:

  • Personnalisation de la marque: VI / UI sur mesure pour s’aligner de manière transparente avec votre image de marque d’entreprise.
  • Intégration des ressources: Configuration unifiée et gestion de dizaines de ressources d’IA par les administrateurs de l’entreprise, prêts à l’emploi par les membres de l’équipe.
  • Contrôle de l’autorisation: Les autorisations des membres clairement définies, les autorisations de ressources et les autorisations de base de connaissances, toutes contrôlées via un panneau d’administration de qualité d’entreprise.
  • Intégration des connaissances: Combinant votre base de connaissances interne avec les capacités de l’IA, ce qui la rend plus pertinente pour les besoins commerciaux spécifiques de votre entreprise par rapport à l’IA générale.
  • Audit de sécurité: Intercepter automatiquement les demandes sensibles et retracer tous les enregistrements de conversation historiques, garantissant l’adhésion à l’IA aux normes de sécurité de l’information d’entreprise.
  • Déploiement privé: Déploiement privé au niveau de l’entreprise soutenant diverses solutions de cloud privé traditionnelles, assurant la sécurité des données et la protection de la confidentialité.
  • Mises à jour continues: Mises à jour et mises à niveau en cours dans les capacités de pointe comme l’IA multimodale, assurant une innovation et un progrès cohérents.

Pour les demandes d’entreprise, veuillez contacter: business@nextchat.dev

Paramètres

Plus

  • Déployer gratuitement avec un clic sur Vercel en moins d’une minute
  • Client compact (~ 5 Mo) sur Linux / Windows / MacOS, téléchargez-le maintenant
  • Entièrement compatible avec les LLMs auto-déployés, recommandés pour une utilisation avec RWKV-Runner ou Localai
  • Confidentialité d’abord, toutes les données sont stockées localement dans le navigateur
  • Prise en charge de Markdown: latex, sirène, survient de code, etc.
  • Conception réactive, mode sombre et PWA
  • Vitesse de chargement rapide rapide (~ 100 kb), support de réponse en streaming
  • Nouveau dans V2: Créez, partagez et déboguez vos outils de chat avec des modèles rapides (masque)
  • Invites impressionnantes propulsées par des chats-chatpt-pros-zh et des chatteaux géniaux
  • Compresse automatiquement l’historique du chat pour prendre en charge de longues conversations tout en enregistrant vos jetons
  • I18n: Anglais, 简体中文, 繁体中文, 日本語, Français, Español, Italiano, Türkçe, Deutsch, tiếng việt, рсский, čeština, 한국어, Indonésie
À LIRE  Comment boire correctement du rhum, selon un expert du rhum

主界面

  • 🚀 v2.15.8 prend désormais en charge le chat en temps réel # 5672
  • 🚀 v2.15.4 L’application prend en charge en utilisant l’API Tauri Fetch LLM, plus de sécurité! # 5379
  • 🚀 v2.15.0 prend désormais en charge les plugins! Lire ceci: NextChat-Awesome-Plugins
  • 🚀 v2.14.0 soutient désormais les artefacts et SD
  • 🚀 v2.10.1 Prise en charge du modèle Google Gemini Pro.
  • 🚀 v2.9.11 Vous pouvez utiliser Azure Endpoint maintenant.
  • 🚀 v2.8 Maintenant, nous avons un client qui se déroule sur toutes les plateformes!
  • 🚀 v2.7 Partageons les conversations en tant qu’image ou partagez-la à Sharegpt!
  • 🚀 v2.0 est publié, maintenant vous pouvez créer des modèles invites, transformer vos idées en réalité! Lisez ceci: Chatgpt Conseils d’ingénierie rapide: zéro, un et quelques coups de tir.
  1. Obtenez la clé API Openai;
  2. Faire un clic
    Déployer avec Vercelrappelez-vous que CODE est votre mot de passe de page;
  3. Apprécier 🙂

Anglais> FAQ

Si vous avez déployé votre propre projet en un seul clic en suivant les étapes ci-dessus, vous pouvez rencontrer le problème des « mises à jour disponibles » en constante évolution. En effet, Vercel créera un nouveau projet pour vous par défaut au lieu de former ce projet, entraînant l’incapacité de détecter correctement les mises à jour.

Nous vous recommandons de suivre les étapes ci-dessous pour redéployer:

  • Supprimer le référentiel d’origine;
  • Utilisez le bouton de la fourche dans le coin supérieur droit de la page pour débarquer ce projet;
  • Choisissez à nouveau dans Vercel, veuillez consulter le tutoriel détaillé.

Si vous rencontrez un échec de l’exécution de synchronisation en amont, veuillez mettre à jour manuellement le code.

Après avoir prévu le projet, en raison des limitations imposées par GitHub, vous devez activer manuellement les workflows et l’action de synchronisation en amont sur la page des actions du projet Forkée. Une fois activées, des mises à jour automatiques seront planifiées toutes les heures:

Mises à jour automatiques

Activer les mises à jour automatiques

Si vous souhaitez mettre à jour instantanément, vous pouvez consulter la documentation GitHub pour apprendre à synchroniser un projet fourchu avec du code en amont.

Vous pouvez jouer ou regarder ce projet ou suivre l’auteur pour obtenir des notifications de libération à temps.

Ce projet fournit un contrôle d’accès limité. Veuillez ajouter une variable d’environnement nommée CODE Sur la page Vercel Environment Variables. La valeur doit être des mots de passe séparés par des virgules comme ceci:

Après avoir ajouté ou modifié cette variable d’environnement, veuillez redéployer le projet pour que les modifications prennent effet.

À LIRE  39 fruits + Charge Glycémique (Mise à jour 2023)

Accès à un mot de passe, séparé par la virgule.

OPENAI_API_KEY (requis)

Votre clé API OpenAI, rejoignez plusieurs clés API avec une virgule.

Défaut: https://api.openai.com

Exemples: http://your-openai-proxy.com

Remplacez l’URL de base de la demande de la demande de l’API OpenAI.

Spécifiez ID d’organisation OpenAI.

Exemple: https: // azure-resource-url / openai

URL Azure Deploy.

Clé Azure API.

AZURE_API_VERSION (facultatif)

Version Azure API, trouvez-la dans Azure Documentation.

GOOGLE_API_KEY (facultatif)

Google Gemini Pro API Key.

URL de l’API Google Gemini Pro.

ANTHROPIC_API_KEY (facultatif)

Clé API Claude anthropique.

ANTHROPIC_API_VERSION (facultatif)

Version API Anthropic Claude.

URL de l’API Claude anthropique.

Clé API Baidu.

BAIDU_SECRET_KEY (facultatif)

Baidu Secret Key.

URL de l’API Baidu.

BYTEDANCE_API_KEY (facultatif)

Clé API ByTedance.

URL de l’API ByTedance.

ALIBABA_API_KEY (facultatif)

Clé Alibaba Cloud API.

URL de l’API Cloud Alibaba.

URL de l’API Iflytek.

IFLYTEK_API_KEY (Facultatif)

Clé API IFLYTEK.

IFLYTEK_API_SECRET (Facultatif)

IFLYTEK API Secret.

CHATGLM_API_KEY (facultatif)

Clé API chatGLM.

URL de l’API chatGLM.

DEEPSEEK_API_KEY (facultatif)

Key API Deepseek.

URL de l’API Deepseek.

HIDE_USER_API_KEY (facultatif)

Par défaut: vide

Si vous ne souhaitez pas que les utilisateurs saisissent leur propre touche API, définissez cette valeur sur 1.

Par défaut: vide

Si vous ne souhaitez pas que les utilisateurs utilisent GPT-4, définissez cette valeur sur 1.

ENABLE_BALANCE_QUERY (facultatif)

Par défaut: vide

Si vous souhaitez que les utilisateurs interrogent l’équilibre, définissez cette valeur sur 1.

DISABLE_FAST_LINK (facultatif)

Par défaut: vide

Si vous souhaitez désactiver les paramètres d’analyse de l’URL, définissez-le sur 1.

Par défaut: Exemple vide: +llama,+claude-2,-gpt-3.5-turbo,gpt-4-1106-preview=gpt-4-turbo signifie ajouter llama, claude-2 pour modéliser la liste et supprimer gpt-3.5-turbo à partir de la liste et de l’affichage gpt-4-1106-preview comme gpt-4-turbo.

Pour contrôler les modèles personnalisés, utilisez + Pour ajouter un modèle personnalisé, utilisez - Pour masquer un modèle, utilisez name=displayName Pour personnaliser le nom du modèle, séparé par la virgule.

Utilisateur -all Pour désactiver tous les modèles par défaut, +all pour activer tous les modèles par défaut.

Pour Azure: utilisez modelName@Azure=deploymentName Pour personnaliser le nom du modèle et le nom de déploiement.

Exemple: +gpt-3.5-turbo@Azure=gpt35 Affichera l’option gpt35(Azure) Dans la liste de modèles. Si vous pouvez seulement utiliser le modèle Azure, -all,+gpt-3.5-turbo@Azure=gpt35 volonté gpt35(Azure) La seule option dans la liste de modèles.

Pour ByTedance: utilisez modelName@bytedance=deploymentName Pour personnaliser le nom du modèle et le nom de déploiement.

Exemple: +Doubao-lite-4k@bytedance=ep-xxxxx-xxx Affichera l’option Doubao-lite-4k(ByteDance) Dans la liste de modèles.

DEFAULT_MODEL (facultatif)

À LIRE  Как с легостюю открыть сравку В оерационной системе Windows 10 >> инструкцц windows Windows Windows

Modifier le modèle par défaut

Par défaut: Exemple vide: gpt-4-vision,claude-3-opus,my-custom-model signifie ajouter des capacités de vision à ces modèles en plus des correspondances de modèle par défaut (qui détectent des modèles contenant des mots clés comme « Vision », « Claude-3 », « Gemini-1.5 », etc.).

Ajoutez des modèles supplémentaires pour avoir des capacités de vision, au-delà de la correspondance de modèle par défaut. Plusieurs modèles doivent être séparés par des virgules.

WHITE_WEBDAV_ENDPOINTS (facultatif)

Vous pouvez utiliser cette option si vous souhaitez augmenter le nombre d’adresses de service WebDAV auxquelles vous êtes autorisé à accéder, comme l’exige le format:

  • Chaque adresse doit être un point de terminaison complet

    https://xxxx/yyy

  • Plusieurs adresses sont connectées par ‘,’

DEFAULT_INPUT_TEMPLATE (facultatif)

Personnalisez le modèle par défaut utilisé pour initialiser l’élément de configuration de prétraitement des entrées utilisateur dans les paramètres.

STABILITY_API_KEY (facultatif)

Clé de l’API de stabilité.

Personnalisez l’URL de l’API de stabilité.

Activer MCP (Protocole de contexte du modèle)

SILICONFLOW_API_KEY (facultatif)

Clé API SiliconFlow.

SILICONFLOW_URL (facultatif)

URL de l’API Siliconflow.

302.Ie API Clé.

302.ai URL de l’API.

Nodejs> = 18, docker> = 20

Ouvert à Gitpod

Avant de commencer le développement, vous devez créer un nouveau .env.local Fixez à la racine du projet et placez votre clé API:

OPENAI_API_KEY=<your api key here>

# if you are not able to access openai service, use this BASE_URL
BASE_URL=https://chatgpt1.nextweb.fun/api/proxy
# 1. install nodejs and yarn first
# 2. config local env vars in `.env.local`
# 3. run
yarn install
yarn dev
docker pull yidadaa/chatgpt-next-web

docker run -d -p 3000:3000 \
   -e OPENAI_API_KEY=sk-xxxx \
   -e CODE=your-password \
   yidadaa/chatgpt-next-web

Vous pouvez commencer le service derrière un proxy:

docker run -d -p 3000:3000 \
   -e OPENAI_API_KEY=sk-xxxx \
   -e CODE=your-password \
   -e PROXY_URL=http://localhost:7890 \
   yidadaa/chatgpt-next-web

Si votre proxy a besoin de mot de passe, utilisez:

-e PROXY_URL="http://127.0.0.1:7890 user pass"

Si activez MCP, utilisez:

docker run -d -p 3000:3000 \
   -e OPENAI_API_KEY=sk-xxxx \
   -e CODE=your-password \
   -e ENABLE_MCP=true \
   yidadaa/chatgpt-next-web
bash <(curl -s https://raw.githubusercontent.com/Yidadaa/ChatGPT-Next-Web/main/scripts/setup.sh)

Synchronisation des enregistrements de chat (Upstash)

| 简体中文 | Anglais | Italiano | 日本語 | 한국어

Veuillez aller au [docs][./docs] Répertoire pour plus d’instructions de documentation.

Si vous souhaitez ajouter une nouvelle traduction, lisez ce document.

Achetez-moi un café

Mit

Vous voulez suivre notre blog ?

Recevez nos conseils les plus précieux dans votre boîte de réception, une fois par mois !

Articles associés