OpenAI lance un modèle open-source pour protéger les données
OpenAI lance Privacy Filter, un modèle open-source pour détecter et masquer les données personnelles dans les textes. Conçu pour les équipes traitant de gros volumes de données, il fonctionne localement avec 50 millions de paramètres actifs par requête. Disponible sous licence Apache 2.0.
Points clés
- Privacy Filter détecte 8 catégories de données sensibles : noms, adresses, emails, numéros de téléphone, URLs, dates, numéros de compte et secrets comme les mots de passe.
- Le modèle utilise seulement 50 millions de paramètres actifs par requête et peut tourner sur un laptop ou dans un navigateur.
- OpenAI précise que Privacy Filter ne garantit pas l'anonymisation légale et recommande un contrôle humain pour les secteurs sensibles.
- Le modèle est disponible sur GitHub et Hugging Face sous licence Apache 2.0, autorisant un usage commercial.
Pourquoi c'est important
Privacy Filter répond à un besoin crucial de protection des données personnelles dans le traitement automatisé des textes. Son approche open-source et localisable en fait un outil adaptable pour les entreprises soucieuses de conformité. La possibilité de l'ajuster pour réduire les faux positifs ou augmenter la détection le rend pertinent pour divers cas d'usage.
Public concerné : développeurs, entreprises
Privacy Filter peut-il garantir une anonymisation conforme au RGPD ?
Non, OpenAI précise que Privacy Filter ne fournit aucune garantie légale d'anonymisation. Le modèle doit être utilisé comme une couche supplémentaire dans une stratégie globale de protection des données, avec un contrôle humain recommandé pour les secteurs sensibles.
Commentaires (0)
Aucun commentaire pour le moment. Soyez le premier !