Installation et prérequis
Ce guide vous aidera à configurer et déployer votre propre instance AnonDocs. AnonDocs est conçu pour être auto-hébergé, vous donnant un contrôle complet sur vos données et votre confidentialité.
Configuration système requise
Configuration minimale
- CPU: 2 cœurs
- RAM: 4 Go (8 Go recommandés)
- Stockage: 5 Go d'espace libre
- Node.js: v18 ou supérieur
- Système d'exploitation: Linux, macOS ou Windows (WSL recommandé pour Windows)
Recommandé pour la production
- CPU: 4+ cœurs
- RAM: 16 Go ou plus
- Stockage: 20 Go+ SSD
- GPU: Optionnel mais recommandé pour un traitement LLM plus rapide (prend en charge CUDA)
Méthodes d'installation
Option 1: Docker (Recommandé)
La façon la plus simple de commencer avec AnonDocs est d'utiliser Docker.
Démarrage rapide avec Docker Compose
# Cloner le dépôt
git clone https://github.com/AI-SmartTalk/AnonDocs.git
cd AnonDocs
# Copier le fichier d'environnement
cp .env.example .env
# Modifier .env avec votre configuration
nano .env
# Démarrer avec Docker Compose
docker-compose up -d
Le service sera disponible sur http://localhost:3000.
Configuration Docker manuelle
# Construire l'image
docker build -t anondocs .
# Exécuter le conteneur
docker run -d \
--name anondocs \
-p 3000:3000 \
--env-file .env \
anondocs
Option 2: Installation directe avec Node.js
Pour le développement ou les déploiements personnalisés :
# Cloner le dépôt
git clone https://github.com/AI-SmartTalk/AnonDocs.git
cd AnonDocs
# Installer les dépendances
npm install
# Copier le fichier d'environnement
cp .env.example .env
# Modifier la configuration
nano .env
# Compiler TypeScript
npm run build
# Démarrer le serveur
npm start
Option 3: Kubernetes
Pour les déploiements Kubernetes en production, consultez le répertoire k8s/ dans le dépôt pour des exemples de manifestes.
# Appliquer les configurations Kubernetes
kubectl apply -f k8s/
Configuration initiale
1. Configuration de l'environnement
Créez un fichier .env basé sur .env.example :
cp .env.example .env
Variables de configuration principales :
# Configuration du serveur
PORT=3000
# Fournisseur LLM (ollama ou openai)
DEFAULT_LLM_PROVIDER=ollama
# Configuration Ollama (si utilisation d'Ollama)
OLLAMA_BASE_URL=http://localhost:11434
OLLAMA_MODEL=mistral-nemo
# API compatible OpenAI (si utilisation de vLLM, LM Studio, LocalAI)
OPENAI_BASE_URL=http://localhost:8000/v1
OPENAI_MODEL=mistralai/Mistral-7B-Instruct-v0.2
OPENAI_API_KEY=not-required
# Configuration du traitement
CHUNK_SIZE=1500
CHUNK_OVERLAP=0
ENABLE_PARALLEL_CHUNKS=false
2. Installer le fournisseur LLM
Avant d'exécuter AnonDocs, vous devez configurer un fournisseur LLM. Consultez Configuration du fournisseur LLM pour des instructions détaillées.
Configuration rapide d'Ollama :
# Installer Ollama
curl -fsSL https://ollama.ai/install.sh | sh
# Télécharger un modèle recommandé
ollama pull mistral-nemo
# ou
ollama pull llama3.1
3. Vérifier l'installation
# Vérifier si le serveur est en cours d'exécution
curl http://localhost:3000/health
# Réponse attendue: {"status":"ok"}
Prochaines étapes
- 📝 Guide de configuration - Options de configuration détaillées
- 🤖 Configuration du fournisseur LLM - Configurez votre fournisseur LLM
- 🚀 Options de déploiement - Stratégies de déploiement en production
- 🔒 Considérations de production - Conseils de sécurité et de mise à l'échelle
Dépannage
Port déjà utilisé
# Trouver et arrêter le processus sur le port 3000
lsof -ti:3000 | xargs kill -9
# Ou changer PORT dans .env
Échec de connexion à Ollama
- Assurez-vous qu'Ollama est en cours d'exécution :
ollama serve - Vérifiez l'URL de base :
http://localhost:11434 - Vérifiez que le modèle est téléchargé :
ollama list
Problèmes d'installation des dépendances
# Vider le cache et réinstaller
rm -rf node_modules package-lock.json
npm install
Mode développement
Pour le développement avec rechargement automatique :
npm run dev
Le serveur redémarrera automatiquement lorsque vous apporterez des modifications au code.