Aller au contenu principal

Installation et prérequis

Ce guide vous aidera à configurer et déployer votre propre instance AnonDocs. AnonDocs est conçu pour être auto-hébergé, vous donnant un contrôle complet sur vos données et votre confidentialité.

Configuration système requise

Configuration minimale

  • CPU: 2 cœurs
  • RAM: 4 Go (8 Go recommandés)
  • Stockage: 5 Go d'espace libre
  • Node.js: v18 ou supérieur
  • Système d'exploitation: Linux, macOS ou Windows (WSL recommandé pour Windows)

Recommandé pour la production

  • CPU: 4+ cœurs
  • RAM: 16 Go ou plus
  • Stockage: 20 Go+ SSD
  • GPU: Optionnel mais recommandé pour un traitement LLM plus rapide (prend en charge CUDA)

Méthodes d'installation

Option 1: Docker (Recommandé)

La façon la plus simple de commencer avec AnonDocs est d'utiliser Docker.

Démarrage rapide avec Docker Compose

# Cloner le dépôt
git clone https://github.com/AI-SmartTalk/AnonDocs.git
cd AnonDocs

# Copier le fichier d'environnement
cp .env.example .env

# Modifier .env avec votre configuration
nano .env

# Démarrer avec Docker Compose
docker-compose up -d

Le service sera disponible sur http://localhost:3000.

Configuration Docker manuelle

# Construire l'image
docker build -t anondocs .

# Exécuter le conteneur
docker run -d \
--name anondocs \
-p 3000:3000 \
--env-file .env \
anondocs

Option 2: Installation directe avec Node.js

Pour le développement ou les déploiements personnalisés :

# Cloner le dépôt
git clone https://github.com/AI-SmartTalk/AnonDocs.git
cd AnonDocs

# Installer les dépendances
npm install

# Copier le fichier d'environnement
cp .env.example .env

# Modifier la configuration
nano .env

# Compiler TypeScript
npm run build

# Démarrer le serveur
npm start

Option 3: Kubernetes

Pour les déploiements Kubernetes en production, consultez le répertoire k8s/ dans le dépôt pour des exemples de manifestes.

# Appliquer les configurations Kubernetes
kubectl apply -f k8s/

Configuration initiale

1. Configuration de l'environnement

Créez un fichier .env basé sur .env.example :

cp .env.example .env

Variables de configuration principales :

# Configuration du serveur
PORT=3000

# Fournisseur LLM (ollama ou openai)
DEFAULT_LLM_PROVIDER=ollama

# Configuration Ollama (si utilisation d'Ollama)
OLLAMA_BASE_URL=http://localhost:11434
OLLAMA_MODEL=mistral-nemo

# API compatible OpenAI (si utilisation de vLLM, LM Studio, LocalAI)
OPENAI_BASE_URL=http://localhost:8000/v1
OPENAI_MODEL=mistralai/Mistral-7B-Instruct-v0.2
OPENAI_API_KEY=not-required

# Configuration du traitement
CHUNK_SIZE=1500
CHUNK_OVERLAP=0
ENABLE_PARALLEL_CHUNKS=false

2. Installer le fournisseur LLM

Avant d'exécuter AnonDocs, vous devez configurer un fournisseur LLM. Consultez Configuration du fournisseur LLM pour des instructions détaillées.

Configuration rapide d'Ollama :

# Installer Ollama
curl -fsSL https://ollama.ai/install.sh | sh

# Télécharger un modèle recommandé
ollama pull mistral-nemo
# ou
ollama pull llama3.1

3. Vérifier l'installation

# Vérifier si le serveur est en cours d'exécution
curl http://localhost:3000/health

# Réponse attendue: {"status":"ok"}

Prochaines étapes

Dépannage

Port déjà utilisé

# Trouver et arrêter le processus sur le port 3000
lsof -ti:3000 | xargs kill -9

# Ou changer PORT dans .env

Échec de connexion à Ollama

  • Assurez-vous qu'Ollama est en cours d'exécution : ollama serve
  • Vérifiez l'URL de base : http://localhost:11434
  • Vérifiez que le modèle est téléchargé : ollama list

Problèmes d'installation des dépendances

# Vider le cache et réinstaller
rm -rf node_modules package-lock.json
npm install

Mode développement

Pour le développement avec rechargement automatique :

npm run dev

Le serveur redémarrera automatiquement lorsque vous apporterez des modifications au code.

Proudly made byAI SmartTalkAI SmartTalk