IA générative

Quelques cas d'usage

& souveraineté

Godefroy de Compreignac

CEO @ Lonestone

2 juin 2025

Présentation de l'intervenant

Godefroy de Compreignac

Co-fondateur CEO @ Lonestone

Entrepreneur et développeur depuis 20 ans.

Early adopter enthousiaste de l’IA générative.

Agence de développement
de solutions web et IA

Île de Nantes

30+ experts salariés

Au programme

1. Cas d'usage

4. Choix des modèles

3. Confidentialité​

2. Risques

Cas d'usage

LLM

Assistant d'entreprise

Les classiques

Fournis par les créateurs de modèles.

Les SaaS indépendants

Ils intègrent les plus gros modèles et fournissent des fonctionnalités supplémentaires.

✅ Dernières versions des modèles

❌ Limité aux modèles du fournisseur

❌ Pas ou peu extensible/personnalisable

✅ Nombreux modèles disponibles
✅ Style et prompts personnalisables

✅ Base de connaissance (RAG)

✅ Intégration d'outils tiers

⚠️ Double dépendance (SaaS + fournisseur de modèle)

Assistant d'entreprise custom

Développement sur mesure

Tout est possible, dans la limite de l'état de l'art.

Avec des outils open-source comme :

 

Framework : Vercel AI SDK, LangGraph, Mastra

Base de données : Postgres, Pinecone, Chroma

Évaluation : Langfuse, LangSmith

Interface graphique : React, Assistant-UI

✅ Branding / personnalisation totale

✅ Liberté de choix de modèles

✅ Maîtrise de la donnée

✅ Intégration d'outils internes

✅ Base de connaissance (RAG)

💰 Plus coûteux au lancement

🤔 Plus complexe

MCP Server

Sur mesure

Intégration de n'importe quelle API ou logiciel avec le protocole MCP.

SDK disponible dans de nombreux langages :

https://github.com/modelcontextprotocol

Clé en main

Intégrations de milliers d'outils répandus :

Pour connecter son assistant à tous ses outils (dits "tools").

Open source

À installer soi-même en local ou sur un serveur.

Liste de MCP servers :

https://github.com/punkpeye/awesome-mcp-servers

Copilot dans une app

Dans l'éditeur de code

Pour coder plus vite et mieux.

Dans une app métier (CRM, ATS…),
sur mesure ou sur l'étagère

Pour retrouver ou consolider des informations, enregistrer des données, dicter, etc.

Solution intégrée au produit ou par un assistant externe.

Automatisations

Pour créer des workflows figés à exécuter régulièrement ou par déclencheurs.

n8n a l'avantage d'être open source et
de proposer un module Agent puissant :

Agents autonomes

Ils exécutent des actions complexes grâce à une planification
et à une délégation de tâches à des sous-agents.

⚠️ Demande des connaissances avancées en prompt engineering et souvent en code.

AutoGen

Cas d'usage

Voix

Transcription audio

Dictée

Pour prendre des notes à l'oral et éventuellement les retraiter avec un assistant IA.

SuperWhisper

Résumé de réunion

Pour enregistrer les réunions (visio et physique), les retranscrire, les résumer et les analyser.

ℹ️ La plupart utilisent l'API de transcription d'OpenAI et des appels LLM (OpenAI ou autre).

Pour plus de confidentialité/souveraineté, privilégiez des solutions qui tournent en local (Whisper en mode local) ou en France (Gladia).

Intégration sur mesure

Il est relativement facile d'intégrer des fonctionnalités de transcription dans une app avec les APIs de Gladia ou OpenAI par exemple.

Assistant vocal

Recevoir/passer des appels téléphoniques

Pour le support, la prise de commande, la prospection, etc.

Questionnaire vocal

Interview par une IA pour récolter des informations.

Exemples : CV, prise de brief, feedbacks, cas client…

Assistant vocal sur mesure

Modèles multi-modaux propriétaires

 

OpenAI Realtime API

https://platform.openai.com/docs/guides/realtime

 

Google Gemini Live

https://ai.google.dev/gemini-api/docs/live?hl=fr

Orchestration de modèles

 

Micdrop (open source) pour intégrer dans une webapp

https://github.com/lonestone/micdrop

 

Nouveaux modèles de Kyutai, bientôt open source

https://unmute.sh/

Client

Serveur

API OpenAI Realtime

Client

Serveur

STT

LLM

TTS

Transcription

Génération de réponse texte

Génération
de la voix

Risques

Risques des LLM

Confidentialité & sécurité des données

  • Fuite de données sensibles (clients, stratégie, RH…) si les données sont envoyées à un LLM non maîtrisé (via API par ex.).
  • Shadow IT : les employés utilisent ChatGPT ou autres sans encadrement, en copiant-collant des infos confidentielles.
  • Manque de contrôle sur le stockage et l’usage des données : certains LLM peuvent les utiliser pour affiner leurs modèles.
  • Non-conformité RGPD : absence de base légale pour le traitement, transferts de données hors UE, absence d’opt-out clair.

Risques des LLM

Biais & responsabilité

  • Décisions injustes ou discriminatoires (ex. recrutement, notation d’un partenaire, traitement différencié).
  • Effet d’autorité : l’entreprise suit les suggestions du LLM sans vérification humaine.
  • Biais implicites amplifiés par le modèle (langue, culture, genre, âge, etc.).
  • Problèmes légaux si une décision automatisée basée sur un LLM est contestée.

Exemples de biais :

  • Séréotypes de genre, ethniques, religieux, sociaux
  • Biais culturels occidentaux ou spécifiques à un pays (ex: vision très américano-centrée)
  • Angles de censure implicites (ex : éviter certains sujets sensibles dans des régimes autoritaires)
  • Conception biaisée de l’histoire ou de la géopolitique
  • Valeurs dominantes du pays d'origine (liberté individuelle vs. ordre collectif, conception de la vie privée, etc.),
  • Sources peu fiables ou polarisées

Risques des LLM

Dépendance & pérennité

  • Verrou technologique : dépendance forte à un fournisseur (OpenAI, Anthropic, etc.) sans alternative facile.
  • Augmentation soudaine des prix (changement de politique commerciale ou tarification à l’usage).
  • Modifications de comportement du modèle sans préavis (nouvelle version, perte de cohérence, performances différentes).
  • Pas d’accès au modèle si le fournisseur décide de restreindre certains usages (usage militaire, politique, légal…).

Risques des LLM

Fiabilité & robustesse

  • Hallucinations : le modèle peut inventer des données fausses mais formulées avec aplomb.
  • Pannes ou indisponibilités (ex. surcharge du service, problème réseau, blocage géopolitique).
  • Impossibilité d’expliquer certaines décisions : boîte noire, ce qui pose un problème de traçabilité et d’audit.

Risques des LLM

Image & réputation

  • Production de contenus offensants ou inappropriés (même involontairement).
  • Mauvaise gestion de la communication si un incident IA survient (ex : réponse déplacée à un client).
  • Crise de confiance des utilisateurs ou partenaires si l’usage de l’IA est perçu comme opaque ou dangereux.

Risques des LLM

Conformité & régulation

  • Non-respect de l’AI Act européen (niveau de risque mal évalué, absence de documentation, surveillance insuffisante).
  • Manque de gouvernance IA : pas de politique, pas de référent, pas de procédure de validation.
  • Absence de registre ou de traçabilité des prompts et des sorties utilisés dans des décisions importantes.

Risques des LLM

Qualité & contrôle des outputs

  • Réponses incorrectes ou non conformes au ton ou à la marque.
  • Incohérences dans les réponses à travers le temps ou entre utilisateurs.
  • Problèmes de versionning des modèles et de reproductibilité.

Les géants (OpenAI, Meta…) dépensent beaucoup dans la "safety",
mais aucun ne fournit ses données d'entraînement.

 

La "safety" est dépendante de choix moraux et donc de ces organisations et de leurs pays d'origine.

Est-il sûr d'utiliser OpenAI (🇺🇸) ou DeepSeek (🇨🇳) ?

On ne sait pas vraiment.

➡️ Quelques solutions :

  • Utiliser des modèles open source
  • Évaluer les biais en contexte
  • Systématiser la validation humaine dans les processus critiques
  • Privilégier des modèles européens ou souverains
  • Finetuner ou réentraîner partiellement
  • Surveiller et documenter les usages :
    • Politique d’audit
    • Gouvernance IA
    • Système d'évaluation

Confidentialité

Où vont mes données ?

On peut distinguer en général :

  • La base de données : peut rester confidentielle, jamais envoyée entièrement au LLM ni aux services tiers.
  • Des extraits de la base de données : envoyés au LLM dans le contexte pour générer une réponse.
  • Des données générées par le LLM (potentiellement provenant partiellement de la base de données) : envoyées à des tools.
  • Les sessions (prompts + réponses du LLM) : stockées dans un outil d'évaluation.

Cas général

Client

Serveur

LLM (API)

Base de données

Services tiers (tools, eval)

➡️ Il existe plusieurs degrés de confidentialité.

Même en utilisant une API de LLM comme OpenAI, on peut garantir la confidentialité des données personnelles et éviter de faire sortir toute la base données de l'infrastructure de l'entreprise.

Maximiser la sécurité & la confidentialité des données

LLM

➡️ Utiliser au maximum des outils open source.

➡️ Tout héberger sur serveur ou cloud privé.

👎 Moins performant que OpenAI et Claude

Exemples de recommandations :

Exemples

À noter

Llama 3.3 70B

Base de données

RAG

Evaluations

Autres tools

Postgres

Ragflow

Langfuse

(voir slide MCP serveurs)

👍 Très classique

👍 Assez accessible, mais les technos évoluent vite

👍 Facile et suffisant pour la plupart des usages

🤔 Dépendant des solutions à connecter

Choix des modèles

Les types de modèles

LLM - Large Language Model
(Text-to-Text)

STT - Speech-to-text

TTS - Text-to-Speech

Text-to-Image

Traitements textuels :

  • Répondre à une question

  • Planifier

  • Appeler un outil

  • Générer du code

Retranscrire de l'audio en texte.

Générer de la voix, avec clonage, émotion, etc.

Générer des images

Image-to-Text

Analyser des images

Multimodal

Plusieurs capacités simultanées : texte, images, audio…

… et bien d'autres : Text-to-Video, Image-to-Video, Image-to-3D, Voice Activity Detection, etc.

📝 📝

🗣️ 📝

📝 🗣️

📝 🖼️

Multimodal

Plusieurs capacités simultanées : texte, images, audio…

🖼️ 📝

📝 🖼️ 🗣️

Les types de modèles

✅ Code source

✅ Poids du modèle

🤔 Données d'entraînement (parfois)

✅ Documentation complète

Open source

Open weight

Propriétaire

Accès

✅ Entrainement

✅ Fine-tuning

✅ Analyse

✅ Poids du modèle

❌ Code source, données

 

❌ Code, poids, données…

Ajustement

✅ Local (petits modèles)

✅ Auto-hébergement (compliqué)

 Offres cloud

Hébergement

✅ Fine-tuning

🤔 Fine-tuning (parfois)

Local (petits modèles)

✅ Auto-hébergement (compliqué)

 Offres cloud

 Offres cloud

❌ Local, auto-hébergement

⚠️ Dépendance au fournisseur

Limiter la dépendance aux fournisseurs de modèles

Utilisation locale

➡️ Idéal pour un usage ultra confidentiel et pas trop exigeant.

⚠️ Possible uniquement avec des petits modèles et un hardware suffisant.

Auto-hébergement

➡️ Idéal pour une confidentialité maximale, un contrôle total,  et une très forte consommation.

⚠️ Très compliqué et très coûteux.

Plateformes spécialisées

➡️ Idéal pour des modèles faits maison.

⚠️ La plupart sont aux USA.

Hébergeurs classiques

 ➡️ Idéal pour héberger en France avec capacité de scaling.

⚠️ Seulement quelques modèles disponibles

Exemples de choix LLM

Propriétaire

Type

Open weight

Open weight

Précision

🇺🇸

Origine

⭐ ⭐ ⭐ ⭐

Rapidité

⭐ ⭐ ⭐

⭐ ⭐ ⭐

⭐ ⭐ ⭐ ⭐

⭐ ⭐

⭐ ⭐ ⭐

🇺🇸 🇨🇳

🇫🇷

Cloud français

✅ Scaleway, OVH

✅ Mistral, Scaleway, OVH

Coût

💰 💰 💰 💰

💰 💰

💰 💰

Idéal pour

Performances, scaling

Confidentialité, performance

Confidentialité, souveraineté 🇫🇷

Merci pour votre attention !

Restons discuter !

(Et suivez-moi sur Linkedin)

Godefroy de Compreignac

CEO @ Lonestone

Talk Technocampus 2 juin 2025

By lonestone

Private

Talk Technocampus 2 juin 2025