400+ modèles cloud depuis un seul endpoint ou zéro coût par token en local — c’est l’écart entre OpenRouter et Ollama. Les deux exposent une API compatible OpenAI. Mais là s’arrête la ressemblance. Et le choix entre les deux change radicalement selon ton profil.

Avant de lire — Contextualise ton besoin

Qu'est-ce que c'est ? OpenRouter = agrégateur cloud d'APIs LLM (un seul endpoint pour 400+ modèles). Ollama = runtime local pour faire tourner des modèles open-source directement sur ta machine.
À quoi ça sert ? Appeler des LLMs depuis ton code, tes automations ou tes agents IA — sans passer par un dashboard. L'un facture au token, l'autre est gratuit si tu as le hardware.
Pour qui ? Si tu construis des automations pour des clients → OpenRouter. Si tu gères des données sensibles ou que tu calcules tes coûts au long terme → Ollama. Si tu fais les deux → les deux.

Avant de choisir, comprends comment ça marche

Le problème que tu résous : Tu as besoin d’accéder à des modèles LLM depuis ton code. Mais pas n’importe comment — tu veux de la stabilité, des coûts clairs, et pas de surprise quand tu scales. Deux philosophies s’opposent.

Comment ça marche — Schéma visuel

Comment accéder à des modèles LLM

OpenRouter Routeur cloud · Pay-as-you-go au token Ton code OpenRouter 1 endpoint

Modèles disponibles :

Claude Sonnet GPT-4o OpenAI Gemini Google + 400 modèles

✓ Tous les frontier models (Claude, GPT-4o, Gemini) ✓ Change de modèle à chaque requête sans friction ✓ Setup immédiat, parfait pour prototyper

Ollama Cloud Service SaaS · Plans forfaitaires ($20/mois) Ton code Ollama Cloud API Ollama

Modèles open-source performants :

Qwen 3.5 Coder Kimi K2.6 DeepSeek Coder + modèles open-source

✓ Coût FIXE ($20/mois) — quoi qu’il arrive ✓ Modèles performants à coût bas (Qwen, DeepSeek, Kimi) ✓ Quota stable — pas de saturation, pas de surprise

Ce que tu dois retenir du schéma :

OpenRouter = courtier universel. Tu dis “Claude”, tu l’as. Tu dis “GPT-4o”, c’est fait. Mais tu paies chaque token consommé. À usage intensif (créateur contenu, agents, bulk processing), ça grimpe très vite.

Ollama Cloud = forfait opérationnel. Tu achètes un quota GPU pour le mois ($20, $100 ou gratuit). Tu l’utilises comme tu veux — pas de limite de requêtes, pas de saturation de serveurs, juste un plafond d’utilisation mensuelle. Les modèles sont open-source : Qwen Coder, DeepSeek V3, Kimi K2.6 — les pépites chinoises qui rivalisent avec GPT-3.5 ou Claude 3 sur la plupart des tâches, sauf le raisonnement ultra-complexe.

La vraie différence n'est pas la qualité. C'est : tu paies "à l'utilisation réelle token par token" (OpenRouter) vs tu paies "une capacité mensuelle" (Ollama Cloud). Deux modèles économiques opposés.

Les deux exposent une API compatible OpenAI. Changer entre les deux dans ton code = changer une URL. Une ligne.

Coûts réels

OpenRouter
Agrégateur cloud d'APIs LLM · Pay-as-you-go
Cloud
Hébergé

Pas de frais fixes. Tu achètes des crédits et tu paies au token consommé. Les tarifs correspondent exactement aux prix des providers — OpenRouter ne majore pas. La liste complète est disponible sur openrouter.ai/models.

Voir la documentation : API docs officielles · Pricing en temps réel

Pour un indépendant avec 500 000 tokens/mois : Gemini Flash à $0.075/M revient à ~$0.04, GPT-4o à $2.50/M revient à ~$1.25. Le plan gratuit couvre les tests avec DeepSeek R1, Llama 3.3 ou Gemma 3 — mais avec des limites strictes.

Plans disponibles
Gratuit
0 €/mois
20 req/min · 200 req/jour · Modèles limités (DeepSeek R1, Llama 3.3, Gemma 3)
Recommandé
Pay-as-you-go
Variable/usage
Gemini Flash $0.075/M · GPT-4o $2.50/M · Claude Sonnet $3.00/M · Rechargement auto disponible
Enterprise
Sur devis
SLA · Support dédié · Volume discounts

Points forts

  • 400+ modèles depuis un seul endpoint
  • Setup en 5 minutes
  • Accès aux modèles frontier (Claude, GPT-4o)
  • Fallback automatique entre providers

Points faibles

  • Coûts qui grimpent vite à l'usage intensif
  • Données transmises à des tiers
  • Dépendance à l'uptime OpenRouter
  • Interface anglais uniquement
À retenirOpenRouter est idéal pour démarrer vite ou accéder aux meilleurs modèles frontier. Mais à 500 000 tokens/jour, les factures deviennent sérieuses. Calcule ton break-even avec un GPU avant d'aller plus loin.
Ollama
Runtime local LLM · Self-hosted · Open-source
Local
Self-hosted

Ollama existe en deux formes. Ollama local = binaire sur ta machine, gratuit, besoin d'un GPU. Ollama Cloud = service SaaS avec plans tarifaires fixes, sans GPU requis. Ce sont deux produits différents avec des logiques de coût opposées.

Voir la documentation : Docs officielles Ollama · Bibliothèque de modèles · Pricing Ollama Cloud

Ollama Cloud facture un quota d'utilisation GPU — pas des tokens. Le plan Pro à $20/mois offre 50x plus d'utilisation GPU que le Free. Selon les estimations terrain, ça correspond à ~212M tokens/semaine. Difficile à épuiser pour un usage quotidien normal.

Ollama Cloud — Plans disponibles (mai 2026)
Free
0 $/mois
Usage léger · 1 modèle simultané · Expérimentation, chatbots, petits modèles
Recommandé
Pro
20 $/mois
50x plus que Free · 3 modèles simultanés · ~212M tokens/semaine estimés terrain · Modèles privés (3 max)
Max
100 $/mois
5x Pro · 10 modèles simultanés · Usage intensif, agents parallèles
Logique de quota Ollama Cloud : Pas de saturation par file d'attente. Pas de limite de requêtes par minute. Ollama mesure ton utilisation réelle du GPU. Tu reçois un email à 90% du quota — pas de coupure brutale. Les compteurs se remettent à zéro toutes les 5 heures (session) et toutes les semaines. Un utilisateur Pro témoigne : "J'utilise 2-3 agents Claude Code en parallèle et je n'ai jamais atteint les limites."

Points forts

  • Coût fixe prévisible ($20 quoi qu'il arrive)
  • Pas de saturation — quota GPU vs limite de requêtes
  • Modèles open-source chinois exclusifs (Kimi K2.6, GLM, Qwen)
  • Données non loguées selon leur politique

Points faibles

  • Latence très variable (2s à plusieurs minutes en heure de pointe)
  • Limite 16k tokens en sortie par requête
  • Support client quasi-inexistant (critique récurrent)
  • Modèles moins précis que les frontier sur tâches complexes
À retenirOllama Cloud Pro à $20/mois est difficile à épuiser en usage quotidien. La limite qui coince vraiment : 16k tokens en sortie par requête — soit 10x moins que les providers concurrents. Pour les agents IA avec de longs contextes de sortie, c'est un vrai frein.

Performance et latence

OpenRouter : latence cloud, fiabilité variable

OpenRouter délègue l’inférence aux providers backend. La latence dépend du modèle choisi et du provider derrière. En conditions normales : 35-50ms de latence moyenne pour un début de réponse avec les modèles principaux.

Le problème documenté : 3 pannes en 8 mois, chacune durant 35 à 50 minutes. Pas de SLA proposé sur les plans standards. Si ton application a besoin de quatre neuf d’uptime, c’est un problème réel — pas hypothétique.

r/LocalLLM · Thread "OpenRouter reliability for production?" · 847 upvotes
"Three outages in eight months is NOT acceptable for production. And no SLA either. We had to build a fallback to local Ollama — and honestly now I wonder why we still use OpenRouter at all for the critical path."

Ollama : latence locale, dépend du GPU

Sur GPU NVIDIA consommateur, Ollama génère 300+ tokens/seconde avec des modèles quantizés (Llama 3.1 8B, Mistral 7B). Sur des setups high-end, on monte à 1200 tokens/seconde. Sur Apple Silicon, les performances sont solides grâce à Metal GPU — sans configuration supplémentaire.

Latence pour un premier token : souvent sous les 10ms en local. Zéro network round-trip. Pour des agents IA qui font beaucoup d’appels consécutifs, c’est la différence entre une boucle fluide et une boucle qui rame.

Variables qui changent tout pour Ollama : La VRAM disponible détermine quelle taille de modèle tu peux faire tourner. 8GB VRAM → modèles 7B quantizés. 16GB → modèles 13B. 24GB → modèles 70B en Q4. En dessous de 8GB, les performances chutent significativement car le modèle déborde sur la RAM système.

Modèles disponibles

OpenRouter : 400+ modèles, frontier inclus

OpenRouter agrège les modèles de tous les grands providers. En mai 2026 : 400+ modèles disponibles, dont Claude 3.5 Sonnet, GPT-4o, Gemini 1.5 Pro, Llama 3.3 70B, Mistral Large, DeepSeek R1. Les modèles gratuits (DeepSeek R1, Llama 3.3, Gemma 3) sont subventionnés par OpenRouter mais avec des rate limits stricts : 20 requêtes/minute, 200 requêtes/jour.

C’est le seul endroit où tu peux switcher entre Claude et GPT-4o depuis le même code en changeant un paramètre. Pour du prototypage ou pour comparer des modèles sur la même tâche, c’est imbattable.

Ollama : modèles open-source, pas de frontier

Ollama supporte les modèles open-source téléchargeables depuis sa bibliothèque. En mai 2026 : Llama 3.x (8B, 70B), Mistral (7B, large), Gemma 3, Phi-4, DeepSeek R1, Qwen 2.5, CodeLlama, et des dizaines d’autres. Pas de Claude. Pas de GPT-4o. Pas de Gemini 1.5 Pro.

La qualité des meilleurs modèles Ollama est solide pour la plupart des cas d’automatisation. Mais sur des tâches qui nécessitent un raisonnement complexe ou de la génération de code avancée, l’écart avec les modèles frontier reste mesurable.

Pépite : Mistral 7B sur Ollama

Mistral 7B est sous-estimé. Sur les tâches de classification, extraction de données structurées et résumé court, il égale GPT-3.5-turbo sur la plupart des benchmarks — et tourne sur un GPU 8GB. C'est le modèle à tester en premier si tu explores Ollama pour de l'automatisation légère.

Pour la génération de code : CodeLlama 13B est plus précis que Mistral 7B. Si tu as 16GB de VRAM, commence par là.

Ollama Cloud vs OpenRouter : le match des offres gratuites

Les deux ont un tier gratuit. Mais leur fonctionnement est radicalement différent.

Caractéristique Ollama Cloud Free OpenRouter Free
Type de limite Quota GPU (usage léger) 20 req/min · 200 req/jour
Disponibilité Stable, pas de saturation signalée Modèles souvent saturés, erreurs 404/429 fréquentes
Prévisibilité Haute — quota défini, email à 90% Faible — disponibilité aléatoire selon charge
Modèles disponibles Sélection open-source (Qwen, GLM, Kimi…) 25+ modèles mais disponibilité variable
Modèles simultanés 1 1
Privacy Données non loguées Données peuvent servir à l'entraînement (offre gratuite)
Idéal pour Usage régulier fiable sans surprise Tester beaucoup de modèles différents

Le verdict est clair : pour un usage régulier en tier gratuit, Ollama Cloud est plus fiable. Pour explorer un maximum de modèles sans s’engager, OpenRouter reste plus flexible.

Setup et intégration

OpenRouter : 5 minutes, vraiment

  1. Crée un compte sur openrouter.ai
  2. Génère une clé API
  3. Ajoute des crédits (ou utilise le tier gratuit)
  4. Remplace l’URL de base OpenAI par https://openrouter.ai/api/v1 dans ton code

C’est tout. Si tu utilises l’API OpenAI avec le SDK Python ou JS, la migration est une ligne.

u/dev_automations · r/MachineLearning · Commentaire dans un fil sur les LLM APIs
"Setup took me literally 5 minutes. Get API key, add payment method, swap the base URL in my existing OpenAI client. Done. That's the killer feature — zero friction if you're already using the OpenAI SDK."

Ollama : 15 minutes sur Mac, 45 min+ avec GPU NVIDIA

Mac (Apple Silicon) : brew install ollamaollama serveollama pull mistral → prêt. Le plus simple. Metal GPU s’active automatiquement.

Linux + NVIDIA GPU : Installation du binaire OK. Le vrai temps se passe sur les drivers NVIDIA (version 525 minimum, 550 recommandée). Si tu pars de zéro sur une Ubuntu fraîche avec une RTX 4090, compte 30-45 minutes pour les drivers + vérification que nvidia-smi répond correctement.

Windows : Support natif disponible, y compris ARM64 depuis 2026. GPU AMD sur Windows non supporté en accélération matérielle — tout passe par CPU, ce qui est lent.

r/selfhosted · Post "Is Ollama worth it on Linux?" · Top comment
"GPU driver hell on Ubuntu. Spent 2 hours getting NVIDIA drivers right before Ollama even recognized my GPU. On Mac M2 it was literally 3 commands. The experience gap between platforms is huge."

Cas d’usage conseillés

OpenRouter — choisir quand :

  • Tu as besoin des meilleurs modèles frontier (Claude, GPT-4o) sans gérer de hardware
  • Tu prototypes vite et tu veux tester plusieurs modèles sur la même tâche
  • Tes usages sont irréguliers — bursts de requêtes suivis de périodes calmes
  • Tu développes pour des clients distribués géographiquement (latence cloud acceptable)
  • La confidentialité des données n’est pas critique dans ton cas d’usage

Ollama — choisir quand :

  • Les données sont sensibles (santé, juridique, client data) — rien ne quitte la machine
  • Tu as un usage intensif régulier (3M+ tokens/mois) — Ollama devient moins cher
  • Tu construis des agents IA avec beaucoup de loops — la latence locale fait la différence
  • Tu travailles offline ou sur des réseaux instables
  • Tu veux expérimenter sans coûts sur des modèles open-source
Le meilleur setup pour la plupart des power users : Ollama pour les tâches sensibles et répétitives du quotidien, OpenRouter pour les requêtes qui nécessitent les modèles frontier.

Ce que disent les utilisateurs réels

OpenRouter — avis vérifiés

Basé sur les avis disponibles sur G2 (note : 5.0/5 — base encore limitée), Trustpilot, et discussions Reddit (mai 2026).

Sources agrégées · Mai 2026
4.2/5
★★★★Avis mixtes selon usage
Facilité d'intégration92%
Fiabilité uptime61%
Diversité des modèles95%
Support client55%
API unifiée Setup rapide Modèles frontier Fiabilité production Support lent Rate limits agressifs (gratuit)

OpenRouter convainc sur l'intégration et la diversité de modèles. Les griefs récurrents portent sur la fiabilité en production et un support client jugé insuffisant pour des usages critiques. Pour du prototypage ou des usages non critiques, les avis sont positifs. Pour de la production à haute disponibilité, les retours sont plus mitigés.

Ollama — avis vérifiés

Basé sur les avis Product Hunt, SourceForge, Elephas Review, et discussions r/LocalLLM (mai 2026).

Sources agrégées · Mai 2026
4.4/5
★★★★Fort engagement communauté
Facilité sur Mac94%
Setup GPU Linux/Windows58%
Confidentialité des données100%
Qualité vs modèles frontier64%
Privacy by default Zero coût par token Offline capable Setup GPU complexe Qualité < frontier 2336 issues GitHub ouvertes

Ollama a une communauté très active et des retours positifs sur la simplicité Mac et la confidentialité. Le setup GPU sous Linux et Windows divise les avis. Les utilisateurs qui font la comparaison directe avec GPT-4o ou Claude 3.5 notent un écart de qualité sur les tâches complexes.

u/freelance_dev_eu · r/LocalLLM · Réponse à "Ollama for client work?" — profil : dev indépendant, données médicales
"Everything stays on my machine. No middleman, no data leak risk. That was the deciding factor for my agency work. I can't send client conversations to OpenAI or OpenRouter — legally and contractually it's not possible."

Red flags — limitations honnêtes

Red flags OpenRouter

Zéro SLA sur les plans standards. Trois pannes documentées en 8 mois, chacune entre 35 et 50 minutes. Si ton pipeline dépend d'OpenRouter et qu'il tombe, tu n'as aucun recours contractuel. Pour la production critique, il faut un fallback.
Rate limits agressifs en tier gratuit. 20 requêtes/minute et 200/jour. Pour tester, c'est bien. Pour des agents IA qui font des appels en boucle, tu passes au payant en quelques heures. Ce n'est pas un problème — c'est une réalité à intégrer dans ton budget.
Deprecation des modèles hors de ton contrôle. Si OpenAI retire un modèle ou change ses conditions, ça impacte ton code. L'abstraction OpenRouter ne te protège pas de ça — elle ajoute juste une couche de délai avant que tu le réalises.
Données transmises à des tiers multiples. Ta requête passe par OpenRouter, puis par le provider backend. Pour des données sensibles, c'est deux maillons non maîtrisés dans ta chaîne de traitement.

Red flags Ollama Cloud

Latence très variable, parfois insupportable. Des utilisateurs rapportent des temps de réponse entre 2 secondes et plusieurs minutes selon l'heure et le modèle. Sur GLM-5.1 en heure de pointe, certains ont mesuré plus de 300 secondes d'attente. Ce n'est pas un bug — c'est le comportement réel du service sous charge.
16k tokens en sortie maximum par requête. C'est la limite la plus frustrante pour un usage agentique. À titre de comparaison, la plupart des autres providers offrent 100k+ tokens en sortie. Si tu construis des agents qui génèrent de longs outputs (scripts, articles, code complexe), tu vas te heurter à ce mur rapidement.
Support client quasi-inexistant. Retour unanime de la communauté : "Si vous essayez de les contacter, vous n'obtenez tout simplement pas de réponse." Aucun SLA, aucune garantie de temps de réponse. Pour un usage pro où la continuité de service est critique, c'est un risque réel.
Catalogue limité aux modèles open-source. Pas de Claude, pas de GPT-4o, pas de Gemini. Si tu as besoin des meilleurs modèles frontier pour certaines tâches, Ollama Cloud ne peut pas te les fournir. Il faut alors sortir vers OpenRouter ou l'API directe.

Red flags Ollama local

GPU AMD sur Windows : accélération non supportée. ROCm (support AMD) est Linux-only. Sous Windows avec un GPU AMD, tout tourne sur CPU — 5 à 10x plus lent sur les gros modèles.
2336 issues GitHub ouvertes en mai 2026. Backlog significatif, des bugs GPU connus sans date de correction. Stable pour les configs courantes, plus risqué sur les setups non-standard.
Investissement hardware initial non négligeable. RTX 3060 12GB (~400€) minimum viable. RTX 4090 pour les modèles 70B. Sans GPU dédié, les performances sont décevantes.

Verdict par profil

Profil Outil recommandé Pourquoi
Indépendant dev / créateur contenu intensif Ollama Cloud Pro + OpenRouter ponctuel $20 fixe pour le quotidien (génération, debug, agents). OpenRouter avec petit crédit pour les requêtes frontier critiques
Agence avec données clients sensibles Ollama local + OpenRouter en fallback Données qui ne quittent pas la machine. OpenRouter uniquement pour les tâches sans donnée client
Dev automation volume élevé Ollama Cloud Pro ~212M tokens/semaine pour $20. Quota GPU prévisible, pas de surprise sur la facture
Startup / prototype rapide OpenRouter Accès immédiat à tous les frontier models, zéro hardware, scale au besoin
Professionnel données très sensibles Ollama local uniquement Rien ne quitte la machine. Conformité légale et contractuelle garantie
Tester beaucoup de modèles différents OpenRouter (tier gratuit) 25+ modèles gratuits, catalogue le plus large, idéal pour comparer avant de s'engager

La stratégie qui revient le plus dans les retours terrain : Ollama Cloud Pro comme “daily driver” (le gros du travail quotidien, sans surveiller le compteur) + OpenRouter avec $10 de crédit pour les rares moments où tu as besoin d’un modèle frontier (Claude Sonnet sur un bug complexe, GPT-4o pour une tâche de raisonnement avancé). Les deux sont compatibles OpenAI API — le switch dans ton code est une ligne.


Sources utilisées dans cet article : OpenRouter Pricing · OpenRouter Models · G2 OpenRouter Reviews · Ollama Setup Guide 2026 · Reliability Review OpenRouter · SourceForge Comparison · Discussions r/LocalLLM et r/MachineLearning (mai 2026)