Présentation
Qu'est-ce que Heberking AI ?
▼
Heberking AI est une plateforme d'hébergement de modèles d'intelligence artificielle. Elle permet de déployer, gérer et utiliser des modèles de langage open source (LLM) comme LLaMA, Mistral ou DeepSeek dans des environnements isolés, sans compétences DevOps. Chaque instance dispose d'une WebUI de chat, d'une API compatible OpenAI et d'outils d'analytics intégrés.
À qui s'adresse Heberking AI ?
▼
Heberking AI s'adresse aux développeurs, startups, équipes techniques et entreprises qui souhaitent héberger leurs propres modèles d'IA sans gérer d'infrastructure complexe. Que vous soyez un développeur solo ou une équipe de 200 personnes, la plateforme s'adapte à votre échelle.
Comment fonctionne l'hébergement de modèles ?
▼
Heberking AI déploie vos modèles dans des conteneurs Docker isolés. Vous créez une instance, choisissez un modèle dans notre bibliothèque (ou importez votre propre fichier GGUF), et l'instance est prête en moins de 60 secondes. Chaque instance dispose de son propre accès WebUI, de ses propres clés API et de ses propres données, totalement séparées des autres clients.
Modèles IA
Quels modèles IA puis-je héberger ?
▼
Tous les modèles compatibles Ollama sont supportés : LLaMA 3, Mistral, CodeLlama, Gemma 2, Phi-3, DeepSeek, Qwen, Yi, et bien d'autres. La bibliothèque compte plus de 100 modèles disponibles en quelques clics. Vous pouvez également importer vos propres modèles au format GGUF.
Puis-je importer mes propres modèles ?
▼
Oui. En plus de la bibliothèque de modèles Ollama, vous pouvez importer vos propres modèles au format GGUF. Il suffit de téléverser votre fichier depuis le dashboard ou de pointer vers une URL de téléchargement. Les modèles fine-tunés sur vos propres données sont entièrement supportés.
Quelle est la différence entre les tailles de modèles (7B, 13B, 70B) ?
▼
Les chiffres indiquent le nombre de paramètres du modèle (7 milliards, 13 milliards, 70 milliards). En règle générale, plus un modèle est grand, meilleures sont ses performances — mais plus il consomme de ressources (RAM, VRAM). Les modèles 7B sont rapides et suffisants pour la plupart des cas d'usage. Les modèles 70B offrent des performances proches des modèles propriétaires pour les tâches complexes.
API et intégration
L'API de Heberking AI est-elle compatible avec OpenAI ?
▼
Oui, notre API est entièrement compatible avec l'API OpenAI (format /v1/chat/completions, /v1/models, etc.). Pour migrer depuis OpenAI, il suffit de remplacer l'URL de base et la clé API dans votre code. Aucune autre modification n'est nécessaire. Vos bibliothèques Python (openai), JavaScript, ou tout autre SDK fonctionneront sans changement.
Puis-je migrer depuis OpenAI facilement ?
▼
La migration est très simple. Il suffit de changer deux lignes dans votre code : l'URL de base (base_url) et la clé API. Par exemple en Python :
client = openai.OpenAI(base_url="https://votre-instance.heberking.ai/v1", api_key="hk_..."). Tout le reste de votre code reste identique.
Tarifs et facturation
Combien coûte Heberking AI ?
▼
Heberking AI propose trois plans : Starter (gratuit, 1 instance, 500 appels API/mois), Pro (29€/mois, 5 instances, 50 000 appels API/mois, analytics complets) et Enterprise (99€/mois, instances illimitées, appels API illimités, SLA et support 24/7). La facturation annuelle offre une réduction de 17%.
Y a-t-il un engagement minimum ou un contrat ?
▼
Non. Tous les abonnements Heberking AI sont sans engagement de durée minimale. Vous pouvez résilier à tout moment depuis votre espace client. Votre accès reste actif jusqu'à la fin de la période déjà payée. Aucune pénalité de résiliation n'est appliquée.
Comment fonctionne la facturation ?
▼
La facturation est mensuelle ou annuelle (avec -17% de réduction). Le paiement est sécurisé via Stripe (carte bancaire). Vous recevez une facture par e-mail à chaque renouvellement. Vous pouvez changer de plan ou résilier à tout moment depuis votre espace client.
Confidentialité et sécurité
Mes données sont-elles sécurisées et privées ?
▼
Oui. Chaque instance est exécutée dans un conteneur Docker complètement isolé. Vos conversations, modèles et fichiers sont privés et ne sont jamais partagés entre clients. Les données sont hébergées sur des serveurs en France, auto-hébergés par Heberking. Nous ne vendons aucune donnée à des tiers.
Heberking AI est-il conforme au RGPD ?
▼
Oui. Heberking AI collecte uniquement les données strictement nécessaires (e-mail, nom d'utilisateur, logs d'utilisation). Les données sont hébergées en France et traitées conformément au RGPD. Vous pouvez exercer vos droits d'accès, rectification et suppression en contactant privacy@heberking.ai.
Questions techniques
Y a-t-il une garantie de disponibilité (SLA) ?
▼
Les plans Starter et Pro ne bénéficient pas d'un SLA contractuel. Un SLA peut être négocié dans le cadre du plan Enterprise. Nous faisons tout notre possible pour maintenir un uptime élevé, mais nous ne garantissons pas une disponibilité contractuelle en dehors du plan Enterprise.
Puis-je utiliser Heberking AI sans connaissances DevOps ?
▼
Absolument. Heberking AI est conçu pour être accessible sans compétences en administration système, Docker ou Kubernetes. En quelques clics depuis le dashboard, vous déployez un modèle IA complet avec son API et sa WebUI. Tout l'aspect infrastructure est géré par Heberking AI.
Comment contacter le support ?
▼
Le support est disponible par e-mail à contact@heberking.ai. Les utilisateurs du plan Pro bénéficient d'un support prioritaire avec des délais de réponse réduits. Les utilisateurs Enterprise disposent d'un support 24/7 dédié avec un interlocuteur attitré.
Vous n'avez pas trouvé votre réponse ?
Contactez notre équipe support — nous répondons généralement en moins de 24h.