Veille IA Veille IA sans buzz : pour stratèges québécois.
La veille

Vol de modèle

Vol de modèle

Vol de modèle

Model extraction attack (vol de modèle par interrogation)

Terme IA Avancé

📖 Définition

L'attaque par extraction de modèle vise à reconstituer un modèle d'IA propriétaire en l'interrogeant massivement via son API publique. L'attaquant collecte des milliers ou des millions de paires (entrée, sortie) et entraîne un modèle élève qui imite le comportement de l'original. Avec des techniques modernes de distillation, un attaquant peut reproduire 90 % de la performance d'un GPT-4 propriétaire pour quelques milliers de dollars d'appels API. Pour une PME québécoise qui commercialise un modèle entraîné sur ses données métier, c'est une menace de propriété intellectuelle directe — d'où l'importance du rate limiting, watermarking et détection d'anomalies.

💬 En termes simples

C'est goûter un plat 10 000 fois pour reconstituer la recette secrète sans avoir accès aux fiches du chef.

🎯 Exemple concret

Une firme québécoise de scoring assurantiel détecte un pic d'appels API anormal depuis trois IP : 8 millions de requêtes en deux semaines. Un concurrent tentait de cloner le modèle pour 4 000 $ d'appels, contre 300 000 $ pour le réentraîner.

💡 Le saviez-vous ?

En 2026, plusieurs chercheurs ont montré qu'on peut extraire l'embedding layer complet d'un modèle de fondation propriétaire pour moins de 100 $ d'appels API — la propriété intellectuelle des LLM est plus fragile qu'on le pense.

🔐 Connexion rapide

Entrez votre courriel pour recevoir un code à 6 chiffres.

Pas besoin de mot de passe ni d'inscription. Entrez votre courriel, recevez un code par courriel, et c'est tout !