Transparence IA
Cette page liste, conformément à l'article 50 du règlement européen sur l'intelligence artificielle (UE 2024/1689), tous les modules d'IA utilisés par MonRhumato.fr : finalité, modèle, données traitées, classification du risque, limites connues. Vous pouvez signaler une erreur ou demander des précisions.
Position de MonRhumato.fr face à l'AI Act
- ✅ Aucun système d'IA à haut risque (Annexe III) — nos modules ne classifient pas de personnes, ne notent pas de candidatures, ne contrôlent pas d'infrastructure critique, ne participent pas à une décision médicale automatisée.
- ⚠️ Modules à risque limité (Art. 50) — la majorité de nos modules génèrent du texte (résumés, traductions, profils synthétiques). Obligation de transparence : badge « IA » visible, page dédiée (celle-ci), possibilité de signaler.
- ✅ Pas de pratique interdite (Art. 5)— pas de scoring social, pas de manipulation subliminale, pas de reconnaissance d'émotion, pas de catégorisation biométrique.
- ✅ Aucun entraînement sur données utilisateur — clauses contractuelles « no-training » avec Groq Cloud et Google Generative AI. Le texte d'abstracts PubMed transmis est public et anonyme.
- ✅ Aucune donnée de santé identifiable transmise au LLM — uniquement des titres et abstracts d'articles scientifiques publics, ou des données de profil opt-in du médecin (publications, qualifications ANS).
Modules en service
Résumés FR d'articles scientifiques
Risque limitéProduire un résumé en français (titre traduit + 3-5 bullets + conclusion) pour les articles PubMed et de presse médicale anglophones.
- Modèle primaire
- llama-3.3-70b-versatile (Groq Cloud)
- Free tier 30 req/min
- Fallback
- gemini-2.0-flash (Google AI Studio)
- Données entrée
- Titre + abstract publics issus de l'API PubMed E-utilities NCBI ou de flux RSS de presse médicale. Aucune donnée utilisateur, aucun PII patient.
- Données sortie
- Résumé structuré JSON (titre FR, bullets, conclusion, pathologie suggérée).
- Cache
- Supabase `ai_summaries` permanent (hash SHA-256 des inputs)
- Justification du niveau de risque
- Article 50 AI Act — transparence requise (l'utilisateur doit savoir qu'il consulte un contenu généré). Pas Annexe III car ne classifie pas de personnes ni ne prend de décision.
Limites connues (4)
- • Hallucinations possibles : le LLM peut inventer un détail absent de l'abstract
- • Sensibilité aux titres ambigus (« in mice » mal classé en clinique)
- • Pas de relecture humaine systématique — badge « IA · à vérifier » affiché
- • Pas de revalidation : un résumé reste tel qu'il a été généré, même si le LLM s'améliore
Visible sur :
/actualite·/veille·/mon-espaceTraduction de titres anglais → français
Risque minimalTraduire les titres d'articles PubMed anglophones pour faciliter le scan rapide en feed.
- Modèle primaire
- gemini-2.0-flash (Google AI Studio)
- Données entrée
- Titres publics (chaîne de caractères, < 200 chars).
- Données sortie
- Titre traduit en français.
- Cache
- Cache permanent Supabase
- Justification du niveau de risque
- Outil de productivité linguistique sans impact sur une décision médicale. Le titre original reste affiché en survol.
Limites connues (2)
- • Termes médicaux anglo-saxons spécifiques parfois imparfaitement rendus
- • Acronymes laissés tels quels (RA, OA, AS) ce qui peut surprendre
Visible sur :
/actualite·/recommandationsProfil synthétique de praticien
Risque limitéGénérer un résumé 2-4 phrases du profil scientifique d'un rhumatologue à partir de ses publications PubMed, OpenAlex, HAL, thèses dirigées, capacités ANS.
- Modèle primaire
- llama-3.3-70b-versatile (Groq Cloud)
- Données entrée
- Données publiques agrégées : OpenAlex topics, HAL biblio, theses.fr direction, qualifications ANS, h-index iCite. Aucune donnée privée du médecin.
- Données sortie
- Texte court 2-4 phrases + chips « expertises présumées ».
- Cache
- Table `practitioner_ai_summary` — hash SHA-256 des inputs, regénération automatique uniquement si données changent
- Justification du niveau de risque
- Article 50 AI Act — transparence (badge « ✨ Profil synthétique » + note méthodologique). Affecte uniquement la présentation des données publiques.
Limites connues (3)
- • « Expertises présumées » sont des inférences, pas des spécialités déclarées par le médecin lui-même
- • Le médecin peut désactiver son profil opt-in à tout moment
- • Mise à jour automatique mais latence possible (re-hash uniquement si données changent)
Visible sur :
/rhumatologue/[slug]Classification automatique d'articles par pathologie
Risque limitéÉtiqueter chaque article scientifique d'une pathologie principale (PR, SpA, arthrose, etc.) pour filtrer le feed par pathologie.
- Modèle primaire
- llama-3.3-70b-versatile (Groq Cloud)
- Données entrée
- Titre + abstract publics.
- Données sortie
- Étiquette parmi un référentiel fermé (~15 pathologies rhumato).
- Cache
- Cache Supabase 30j
- Justification du niveau de risque
- Le médecin valide visuellement l'étiquette en lisant l'article. Pas de décision automatisée. Article 50 AI Act applicable (transparence du tag).
Limites connues (2)
- • Articles inter-pathologies (ex. « PR + SpA ») mal classés sur une seule étiquette
- • Articles méthodologiques sans pathologie spécifique parfois mal-étiquetés
Visible sur :
/actualite·/mon-espace
⚠ Vous voyez un contenu IA incorrect ?
Les LLM hallucinent — c'est inévitable. Notre engagement : corriger sous 7 jours toute erreur signalée et purger le cache si nécessaire pour forcer une régénération.
Pour signaler : copiez l'URL de la page, le passage problématique, et écrivez à dpo@monrhumato.fr. Accusé de réception sous 72 h ouvrées.
🛡️ Vos données et l'IA
- ✅ Aucune donnée patient identifiablen'est transmise à un LLM.
- ✅ Pas d'entraînement sur vos interactions (clauses contractuelles avec Groq + Google).
- ✅ Profil opt-in seulement— un médecin dont le profil n'est pas public n'a pas de résumé IA généré.
- ✅ Demande d'effacement — votre cache `practitioner_ai_summary` est purgé en parallèle de la suppression du compte.
🔐 Watermark cryptographique des outputs
Chaque résumé IA stocké dans nos bases (`ai_summaries`, `practitioner_ai_summary`) peut être signé avec une clé privée ED25519 serveur. La clé publique est exposée ci-dessous : un auditeur peut vérifier qu'un texte affiché est bien sorti de notre stack et n'a pas été falsifié, en appelant /api/ai/verify.
⏳ Watermark pas encore activé en production. Procédure côté admin : 1) exécuter node scripts/generate-ai-keypair.mjs, 2) poser les 3 vars d'env Vercel, 3) redéployer. La clé publique apparaîtra ici automatiquement.
Voir aussi : AIPD complète · registre RGPD Art. 30 · comprendre l'IA en santé · politique RGPD complète
