
TL;DR
Les assistants de reunion IA sont-ils surs ? Pas tous. En 2025, Otter.ai a fait l'objet d'une action collective(opens in new tab) pour enregistrement sans consentement, Fireflies.ai a ete poursuivi pour collecte de donnees biometriques(opens in new tab), et l'Universite Chapman a interdit Read AI(opens in new tab) pour des raisons de securite. Les outils de reunion cloud presentent de reels risques de confidentialite : donnees stockees sur des serveurs tiers, IA entrainee sur vos conversations et enregistrements sans consentement adequat. Pour une transcription de reunion vraiment sure, le traitement local (comme Meetily) garde vos donnees sur votre appareil.
Plus de 62% des organisations(opens in new tab) utilisent desormais des assistants de reunion IA. Le marche a explose pour atteindre 3,5 milliards de dollars en 2025(opens in new tab) et devrait atteindre 34 milliards de dollars d'ici 2035.
Mais avec l'adoption croissante, les poursuites judiciaires, les interdictions universitaires et les scandales de confidentialite se multiplient egalement.
Si vous utilisez une IA de reunion basee sur le cloud, vous devez comprendre les risques. Et si vous evaluez vos options, ce guide vous aidera a distinguer les outils surs des outils problematiques.
Le signal d'alarme : les poursuites judiciaires de 2025 contre les assistants de reunion IA
Action collective contre Otter.ai (aout 2025)
En aout 2025, Justin Brewer a depose une action collective(opens in new tab) contre Otter.ai devant un tribunal federal de Californie. Les allegations sont serieuses :
"Le service de transcription alimente par IA de l'entreprise... par defaut ne demande pas l'autorisation aux participants de la reunion pour enregistrer et n'avertit pas les participants que les enregistrements sont partages avec Otter pour ameliorer ses systemes d'intelligence artificielle."
Allegations cles de la plainte(opens in new tab) :
- "OtterPilot" d'Otter rejoint automatiquement les reunions sans consentement de tous les participants
- Les donnees de reunion sont utilisees pour entrainer les modeles d'IA d'Otter sans autorisation explicite
- Le service delegue les obligations de consentement aux clients plutot que de l'obtenir directement
- Violations de la Loi sur la confidentialite des communications electroniques (ECPA)(opens in new tab), la Loi sur la fraude et l'abus informatique (CFAA)(opens in new tab) et la Loi californienne sur l'invasion de la vie privee (CIPA)(opens in new tab)
L'affaire (Brewer c. Otter.ai Inc., affaire n 5:25-cv-06911) est toujours en cours, avec le delai de reponse d'Otter prolonge jusqu'en novembre 2025(opens in new tab).
La Californie exige le consentement bipartite
La loi californienne exige le consentement de TOUTES les parties(opens in new tab) avant d'enregistrer une conversation. L'approche d'Otter, qui consiste a demander le consentement uniquement a l'organisateur de la reunion et non a tous les participants, est en contradiction directe avec cette exigence.
Poursuite contre Fireflies.ai (decembre 2025)
Quelques mois plus tard, Fireflies.ai a fait face a son propre defi juridique(opens in new tab). Katelin Cruz, residente de l'Illinois, a depose une plainte affirmant :
"L'assistant de reunion de Fireflies.AI enregistre, analyse, transcrit et stocke les caracteristiques vocales uniques (c'est-a-dire les 'empreintes vocales') de chaque participant a la reunion... y compris les personnes qui n'ont jamais cree de compte Fireflies, n'ont jamais accepte ses conditions d'utilisation et n'ont jamais donne leur consentement ecrit."
La poursuite allegue des violations de la Loi de l'Illinois sur la confidentialite des informations biometriques (BIPA)(opens in new tab) :
- Collecte de donnees biometriques vocales sans consentement
- Aucune politique publiee sur la conservation ou la destruction des donnees
- Des utilisateurs signalent que le bot continue de rejoindre les reunions meme apres la suppression de leur compte(opens in new tab)
L'Universite Chapman interdit Read AI (aout 2025)
Les etablissements universitaires agissent egalement. En aout 2025, le departement des systemes d'information de l'Universite Chapman a emis un avis de securite(opens in new tab) :
"Apres enquete, l'utilisation de Read AI est interdite en raison des risques pour la securite, la confidentialite et les donnees institutionnelles."
L'universite a cite des preoccupations concernant :
- Les donnees echappant au controle institutionnel
- Le manque de protection adequate des donnees
- Les vulnerabilites de securite des outils d'IA gratuits
Ce n'etait pas une decision isolee. Les organisations des secteurs de la sante, de l'education et du gouvernement restreignent de plus en plus l'utilisation de l'IA de reunion basee sur le cloud.
Pourquoi l'IA de reunion cloud presente des risques de confidentialite
Les poursuites mentionnees ci-dessus ne sont pas aleatoires : elles refletent des problemes systemiques dans la facon dont les outils de reunion cloud traitent vos donnees.
1. Vos conversations entrainent leur IA
La plupart des outils de reunion cloud utilisent vos transcriptions pour ameliorer leurs modeles. Extrait de la propre documentation d'Otter.ai(opens in new tab) :
"Otter utilise une methode proprietaire pour de-identifier les donnees utilisateur avant d'entrainer nos modeles."
Meme les donnees "de-identifiees" creent des risques. La poursuite contre Otter.ai allegue(opens in new tab) que les participants n'ont pas ete informes que leurs conversations entraineraient l'IA, une violation significative du consentement.
2. Donnees stockees sur des serveurs tiers
Lorsque vous utilisez une IA de reunion cloud, vos enregistrements sont heberges sur les serveurs de quelqu'un d'autre :
| Fournisseur | Emplacement des donnees | Votre controle |
|---|---|---|
| Otter.ai | AWS (US) | Limite |
| Fireflies | Cloud (US) | Limite |
| Read AI | Cloud | Limite |
| Meetily | Votre appareil | Complet |
Cela importe car :
- 29% des violations liees a l'IA proviennent de plateformes SaaS tierces(opens in new tab)
- Le cout moyen d'une violation liee a l'IA est de 5,72 millions de dollars(opens in new tab)
- Les organisations avec une IA non surveillee font face a des couts de violation superieurs de 670 000 dollars(opens in new tab) par rapport a celles avec des controles
3. Participation automatique sans consentement
Un schema particulierement preoccupant : les outils de reunion cloud qui rejoignent automatiquement les reunions sans permission explicite de tous les participants.
Extrait des plaintes d'utilisateurs concernant Fireflies(opens in new tab) :
"Par defaut, Fireflies rejoint chaque evenement du calendrier et partage les notes de reunion avec tous les participants... Essayer de le faire taire ou de le desactiver, c'est comme essayer d'enlever une tique de votre jambe."
Ce n'est pas seulement agacant : cela viole potentiellement les lois sur les ecoutes telephoniques dans 12 Etats qui exigent le consentement de toutes les parties(opens in new tab) :
- Californie
- Floride
- Illinois
- Maryland
- Massachusetts
- Michigan
- Montana
- New Hampshire
- Pennsylvanie
- Washington
- Connecticut (responsabilite civile)
- Delaware
4. L'IA fantome explose
Gartner prevoit que 40% des violations de donnees impliqueront une "IA fantome"(opens in new tab) d'ici 2027 : des outils d'IA non autorises utilises par les employes sans approbation informatique.
L'IA de reunion est particulierement vulnerable car :
- Les employes installent des extensions de navigateur sans supervision
- Les integrations de calendrier s'activent automatiquement
- L'IT peut ne pas savoir quelles reunions sont enregistrees
40% des organisations ont deja vecu un incident de confidentialite lie a l'IA(opens in new tab), et 97% des organisations ayant subi une violation manquaient de controles d'acces IA adequats(opens in new tab).
Cloud vs Local : une comparaison de securite
| Feature | IA locale (Meetily)Recommended | IA cloud (Otter, Fireflies) |
|---|---|---|
| Emplacement des donneesOu les enregistrements sont stockes | Votre appareil uniquement | Serveurs tiers |
| Entrainement IAVos donnees utilisees pour ameliorer les modeles | Jamais | Oui (de-identifie) |
| Consentement requisQui doit approuver l'enregistrement | Vous decidez | Organisateur uniquement (souvent) |
| Exposition aux violationsRisque si le fournisseur est pirate | Aucune (pas de cloud) | Elevee |
| Capacite hors ligneFonctionne sans Internet | Complete | Aucune |
| Controle de conformiteHIPAA/RGPD par conception | Complet | Limite |
| Transparence d'auditPeut verifier ce qui arrive aux donnees | Open source | Proprietaire |
Qui devrait eviter l'IA de reunion cloud ?
Sur la base du paysage juridique et des exigences de conformite, ces organisations devraient reflechir a deux fois avant d'utiliser la transcription de reunion basee sur le cloud :
Organisations de sante (HIPAA)
Les enregistrements de reunion contiennent souvent des informations de sante protegees (PHI). Bien qu'Otter.ai ait obtenu la conformite HIPAA en juillet 2025(opens in new tab) et que Fireflies ait lance "Fireflies for Healthcare"(opens in new tab), ceux-ci necessitent :
- Des forfaits entreprise (25-35+ dollars/utilisateur/mois)
- Des accords d'associe commercial (BAA)
- Une confiance dans le traitement des donnees par des tiers
Le traitement local elimine entierement le risque tiers : aucun BAA necessaire lorsque les PHI ne quittent jamais votre appareil.
Cabinets juridiques (preoccupations de privilege)
Les experts juridiques avertissent(opens in new tab) que permettre aux fournisseurs d'IA de reunion d'acceder aux transcriptions pourrait constituer une renonciation au secret professionnel avocat-client :
"Permettre aux fournisseurs d'outils de prise de notes d'acceder ou d'utiliser les transcriptions a leurs propres fins pourrait fournir des motifs de renonciation au privilege, ce qui est problematique en cas de litige."
Services financiers (SOX, PCI, SEC)
Les reglementations financieres exigent des controles stricts sur les donnees. Les donnees GSC montrent des recherches actives(opens in new tab) pour "securite donnees assistant reunion ia financier" et "assistant reunion ia reglementations financieres".
Les outils cloud creent une complexite d'audit que le traitement local evite.
Education (FERPA, politiques institutionnelles)
A la suite de l'Universite Chapman, de nombreuses institutions mettent en place des processus d'examen des outils d'IA(opens in new tab). L'IA de reunion cloud echoue souvent a ces examens.
Organisations europeennes (RGPD)
Fireflies traite les donnees sur des serveurs americains(opens in new tab), creant des problemes de transfert RGPD. Le RGPD exige(opens in new tab) une protection adequate pour les donnees quittant l'UE : les services cloud americains font face a une incertitude juridique continue ici.
Conseil RGPD : le consentement n'est pas toujours suffisant
Meme avec le consentement, le principe de minimisation des donnees(opens in new tab) du RGPD peut entrer en conflit avec l'IA de reunion qui enregistre, stocke et analyse tout. Le traitement local avec une retention controlee par l'utilisateur est l'approche la plus sure.
Comment evaluer la securite de l'IA de reunion
Avant de choisir un assistant de reunion, posez ces questions :
1. Ou vont les donnees ?
- Ideal : Reste sur votre appareil (traitement local)
- Acceptable : Cloud de votre entreprise (auto-heberge)
- Risque : Serveurs cloud du fournisseur
2. Est-ce sans bot ?
Les bots de reunion visibles creent des frictions et declenchent souvent les problemes de consentement au coeur des poursuites actuelles. Options sans bot :
- Meetily - Capture l'audio systeme localement
- Granola - Natif Mac, sans bot (mais traitement cloud)
- Natif a la plateforme - Zoom AI, Microsoft Copilot (pas de bot externe)
3. Quel est le modele de consentement ?
- Exige-t-il le consentement de TOUS les participants ?
- Peut-il rejoindre automatiquement sans approbation explicite ?
- Que se passe-t-il quand quelqu'un dit "n'enregistrez pas" ?
4. Le code est-il auditable ?
Les outils open source vous permettent de verifier exactement ce qui arrive a vos donnees. Les outils proprietaires necessitent de la confiance.
| Outil | Open Source | Auditable |
|---|---|---|
| Meetily | Oui (MIT) | Complet |
| Otter.ai | Non | Non |
| Fireflies | Non | Non |
| Whisper (modele) | Oui | Complet |
5. Quelle est la politique de conservation des donnees ?
La poursuite contre Fireflies cite specifiquement(opens in new tab) l'absence de politiques publiees de conservation/destruction comme une violation BIPA.
L'alternative locale d'abord
Si les risques ci-dessus vous preoccupent, le traitement d'IA local les resout architecturalement, non pas par des promesses de politique, mais par conception technique.
Comment fonctionne l'IA de reunion locale :
- L'audio est capture depuis l'audio systeme de votre appareil
- La transcription s'execute sur votre CPU/GPU en utilisant des modeles comme OpenAI Whisper(opens in new tab)
- Les resumes sont generes localement (ou avec l'API de votre choix)
- Toutes les donnees restent sur votre machine
Ce que cela signifie pour la confidentialite :
- Aucune violation de serveur ne peut exposer vos reunions (les donnees n'y sont pas)
- Aucune ambiguite de consentement (vous controlez l'enregistrement)
- Pas d'entrainement IA sur vos conversations (les donnees ne partent jamais)
- Conformite complete RGPD/HIPAA (pas de sous-traitants tiers)
Essayez l'IA de reunion locale
Meetily est gratuit, open source et traite tout sur votre appareil. Pas de cloud, pas de bot, pas de compromis.
Telecharger gratuitementBonnes pratiques pour toute IA de reunion
Que vous choisissiez le cloud ou le local, suivez ces recommandations :
Pour les organisations
- Creez une liste d'outils approuves - Ne laissez pas les employes installer n'importe quelle IA de reunion
- Examinez les politiques de confidentialite - En particulier les clauses sur l'entrainement des donnees et la conservation
- Etablissez des protocoles de consentement - Comment informez-vous les participants ?
- Considerez la juridiction - 12 Etats americains exigent le consentement de toutes les parties(opens in new tab)
- Auditez regulierement - Quels outils d'IA ont acces au calendrier ?
Pour les individus
- Lisez la politique de confidentialite - En particulier la section sur l'entrainement de l'IA
- Verifiez les parametres de participation automatique - Desactivez si possible
- Annoncez les enregistrements - Meme si l'outil ne le fait pas
- Verifiez la conservation des donnees - Supprimez les enregistrements dont vous n'avez pas besoin
- Considerez les options locales - Pour les conversations sensibles
Pour les reunions avec des parties externes
- Divulguez toujours l'enregistrement IA - Exigence legale et ethique
- Proposez de desactiver pour les sujets sensibles - Construisez la confiance
- Ne vous fiez pas a la detection des bots - Certains outils ne rendent pas les bots evidents
- Obtenez un consentement explicite - Le verbal ne suffit pas dans certains Etats
Questions frequentes
Frequently Asked Questions
Key Takeaways
- 1L'IA de reunion cloud fait face a de serieux defis juridiques : Otter.ai et Fireflies.ai font tous deux l'objet de poursuites en 2025 concernant le consentement et les pratiques de donnees
- 2L'Universite Chapman a interdit Read AI pour des preoccupations de confidentialite - d'autres interdictions institutionnelles sont probables
- 312 Etats americains exigent le consentement de toutes les parties pour l'enregistrement, creant un risque juridique pour les bots de reunion a participation automatique
- 440% des organisations ont vecu des incidents de confidentialite lies a l'IA ; 97% manquaient de controles adequats
- 5Le traitement d'IA local (comme Meetily) elimine l'exposition des donnees a des tiers en gardant tout sur votre appareil
- 6Pour la conformite HIPAA, RGPD et juridique, le traitement local est architecturalement plus sur que les promesses cloud
- 7Divulguez toujours l'enregistrement IA aux participants de la reunion - c'est a la fois une exigence legale et ethique
Conclusion
Le marche des assistants de reunion IA est a un point d'inflexion. L'adoption rapide (62% des organisations) a depasse les protections de la vie privee, conduisant aux poursuites et aux interdictions de 2025.
Le schema est clair :
- Les outils cloud qui rejoignent automatiquement les reunions sont juridiquement vulnerables
- Les donnees utilisees pour l'entrainement de l'IA sans consentement explicite violent les attentes en matiere de confidentialite
- Les institutions commencent a interdire les outils qui ne peuvent pas prouver une protection adequate des donnees
Si vos reunions contiennent des informations sensibles - discussions clients, donnees de sante, strategie juridique, details financiers - l'IA de reunion cloud cree un risque inutile.
Le traitement local n'est pas seulement une preference de confidentialite ; il devient une exigence de conformite.
Des outils comme Meetily qui gardent les donnees sur votre appareil resolvent ces problemes architecturalement. Aucune violation cloud ne peut exposer vos reunions. Aucun modele de consentement ambigu. Aucun entrainement d'IA tiers sur vos conversations.
Les poursuites seront tranchees par les tribunaux. Mais vous n'avez pas besoin d'attendre pour proteger les conversations les plus sensibles de votre organisation.
Pour en savoir plus sur la confidentialite des reunions, consultez nos guides sur la transcription de reunion conforme au RGPD et les exigences HIPAA pour les reunions.
IA de reunion axee sur la confidentialite
Meetily est gratuit, open source et garde vos donnees de reunion la ou elles appartiennent - sur votre appareil.
Telecharger gratuitementAbout the Author
Equipe Securite Meetily
Nous construisons des outils d'IA axes sur la confidentialite pour les professionnels qui ont besoin d'intelligence de reunion sans compromettre la souverainete des donnees. Meetily est open source, conforme HIPAA/RGPD par conception et fait confiance aux organisations soucieuses de la confidentialite dans le monde entier.
Get Started with Meetily
Meetily Pro
Advanced features for teams with priority support.
Business
Volume licensing & dedicated support for teams.

