CHAPITRE 3 : LES LIMITES ET LE "FACT-CHECK HACK"
Sécurité et Éthique Sans Prêche
L'histoire de l'excuse embarrassante
Réunion avec un gros client. Je cite une étude : "Selon le MIT 2023, 73% des entreprises qui automatisent leur CRM augmentent leur CA de 40%."
Le directeur commercial : "Vous avez le lien ?" Je transpire. L'étude n'existe pas. L'IA l'avait inventée.
J'ai perdu de la crédibilité. Ça m'a pris 3 semaines pour la regagner.
3.1. Le piège de l'hallucination
L'IA ne sait pas dire "je ne sais pas". Elle TOUJOURS vous donne une réponse. Même si elle n'en a aucune idée.
Pourquoi ? L'IA génère du texte probable, pas la vérité vérifiée.
Les 3 types d'hallucinations dangereuses :
- Type 1 : Fausses sources - Études, livres, citations inventés (ex: avocat américain sanctionné pour 6 précédents judiciaires inventés)
- Type 2 : Faux chiffres - "78% des entreprises..." → D'où vient ce chiffre ? Mystère.
- Type 3 : Faux faits mélangés au vrai - "Napoléon exilé en 1815, a écrit ses mémoires avec Victor Hugo" (Hugo avait 13 ans !)
Signaux d'alerte :
- 🚨 Trop précis : "73,4% des entreprises..." → D'où vient ce 0,4% ?
- 🚨 Trop récent : L'IA a une date limite de formation
- 🚨 Trop parfait : La réponse tombe pile-poil ? Vérifiez.
Règle d'or : Si c'est important, vérifiez. Si c'est critique, vérifiez deux fois.
3.2. Le biais inhérent
L'IA a été formée sur internet → Elle reproduit les biais, stéréotypes et préjugés.
Biais de genre : "PDG" → homme blanc en costume. "Infirmière" → femme.
Biais culturel : "Famille heureuse" → famille blanche occidentale.
Votre responsabilité : Être conscient de ces biais. Les corriger quand vous les repérez.
3.3. L'humain dans la boucle (Human-in-the-Loop)
L'IA ne doit JAMAIS être autonome sur des décisions importantes.
Workflow Human-in-the-Loop :
- L'IA génère (premier jet, propositions, options)
- Vous analysez (cohérence, pertinence, véracité)
- Vous ajustez (corrections, contexte, humanisation)
- Vous validez (décision finale, responsabilité)
Zones obligatoires Human-in-the-Loop :
- Documents légaux (contrats, CGV) → avocat obligatoire
- Conseils médicaux → médecin obligatoire
- Décisions RH (embauche, licenciement)
- Communication sensible (crise, annonces difficiles)
- Finances personnelles importantes → conseiller
3.4. Les 3 règles d'or de la confidentialité
Règle 1 : JAMAIS d'informations personnelles identifiables
❌ Noms complets, adresses, téléphones, emails, mots de passe, cartes bancaires
✅ Anonymiser : "Client dans l'automobile" au lieu de "Jean Dupont chez Renault"
Règle 2 : JAMAIS de données confidentielles d'entreprise
❌ Documents internes, stratégies commerciales, données financières, projets R&D
✅ Généraliser : "Lancement produit SaaS B2B dans 6 mois" au lieu du plan complet
Règle 3 : Vérifiez les paramètres de confidentialité
- ChatGPT : Désactiver l'historique des conversations
- Claude : Ne pas utiliser pour entraînement (par défaut)
- Versions entreprise : Garanties renforcées
Règle simple : Si vous ne mettriez pas cette info sur un post-it dans un café, ne la mettez pas dans l'IA.
3.5. Propriété Intellectuelle (Flou juridique)
- USA 2023 : Pas de copyright sur œuvre 100% IA sans intervention humaine substantielle
- Chine 2023 : Copyright accordé si contribution humaine documentée
- Europe 2024 : Flou juridique, AI Act en déploiement
À faire : Documentez votre processus créatif (prompts, itérations, retouches). Vérifiez les CGU de l'outil.
LE HACK CLÉ : Le "Fact-Check Hack"
Demandez à l'IA d'expliquer son raisonnement pour repérer les hallucinations.
Phrase magique :
- "Explique ton processus de pensée. Comment es-tu arrivé à cette conclusion ?"
- "Montre-moi les étapes de ton raisonnement."
- "Sur quelles informations bases-tu cette réponse ?"
Pourquoi ça marche ? Si l'IA invente, le raisonnement sera flou, incohérent, avec des trous logiques.
Bonus : Double vérification
Pour infos critiques : ChatGPT + Claude. Si divergence → creusez, vérifiez les sources.
Niveaux de prudence :
- Niveau 1 (non critique) : Acceptez sans vérification approfondie
- Niveau 2 (important) : Utilisez le Fact-Check Hack
- Niveau 3 (critique) : Fact-Check + double vérification + recherche manuelle
À RETENIR
- ✓ L'IA ment souvent (par design, pas par malice)
- ✓ 3 types d'hallucinations : fausses sources, faux chiffres, faux faits
- ✓ Les biais existent (genre, culture, représentation) → corrigez
- ✓ Human-in-the-Loop obligatoire sur décisions importantes
- ✓ 3 règles confidentialité : pas d'infos perso, pas de données entreprise, vérifiez paramètres
- ✓ Fact-Check Hack : "Explique ton processus" → révèle les hallucinations
- ✓ Si important, vérifiez. Si critique, vérifiez deux fois.