Chaque entreprise devrait avoir une politique en matière d’IA pour les consommateurs, mais comprendre l’intersection de l’IA et du secret professionnel de l’avocat est désormais une exigence essentielle pour la safety juridique.
Factors clés à retenir :
Les outils d’IA grand public comme les plateformes gratuites Claude, Geminia et ChatGPT ne garantissent pas la confidentialité requise pour maintenir les privilèges. Les tribunaux peuvent décider que les shoppers utilisant l’IA sans instruction spécifique de la half d’un conseiller juridique renoncent aux protections liées au travail de l’avocat. Pour les avocats, la saisie d’informations confidentielles sur les shoppers dans un outil d’IA grand public peut enfreindre la règle modèle ABA 1.6(c). Pour protéger le secret professionnel de l’avocat à l’ère de l’IA, les entreprises doivent conseiller leurs shoppers sur les risques liés à l’utilisation d’outils d’IA de qualité commerciale.
Protéger le privilège avocat-client après la décision Heppner
Une interdiction écrite d’utiliser des outils d’IA grand public est un post-it sur une porte déverrouillée. Cela n’empêche pas l’entrée. Les contrats, les contrôles strategies, la formation et l’utility doivent renforcer la politique – sinon elle reste sur papier.
Dans États-Unis c.Heppner, n° 25 Cr. 503 (SDNY, 17 février 2026), un PDG de providers financiers accusé de fraude en valeurs mobilières a utilisé la model grand public gratuite de Claude d’Anthropic pour analyser son exposition juridique. Il a agi de son propre chef, sans l’avis de ses avocats. Certaines de ses invitations incluaient des informations qu’il avait reçues de l’avocat. Lorsque les procureurs ont demandé les paperwork générés par l’IA, le tribunal a ordonné leur manufacturing, rejetant à la fois le privilège et la safety du produit du travail. Claude n’est pas avocat. Les circumstances de consommation d’Anthropic déclinent la confidentialité. Et les paperwork n’ont pas été préparés selon les directions de l’avocat.
Mais le tribunal a laissé la place à un résultat différent : si l’avocat avait ordonné au défendeur d’utiliser Claude by way of une plateforme avec des circumstances de confidentialité appropriées, le résultat aurait pu être différent. Cette distinction entre IA grand public et IA d’entreprise définit les conseils qui suivent.
Le risque s’étend au-delà des privilèges et du produit du travail
Les plateformes d’IA grand public peuvent, selon leurs circumstances par défaut, conserver les entrées des utilisateurs, s’entraîner sur celles-ci et divulguer des données à des tiers. Les circumstances de consommation qui ont contribué à faire échouer les privilèges dans Heppner peuvent également compromettre les secrets and techniques commerciaux, violer les obligations NDA ou exposer des données personnelles réglementées. Pour les avocats, la préoccupation est plus profonde : la saisie d’informations confidentielles sur les shoppers dans un outil d’IA grand public peut enfreindre la règle modèle ABA 1.6(c), qui nécessite des efforts raisonnables pour empêcher la divulgation non autorisée d’informations kin à la représentation.
Si vos shoppers utilisent l’IA pour tout ce qui implique des informations confidentielles ou sensibles, une politique ne marque que le level de départ. Voici quoi leur dire.
Identifiez les données entrant dans l’outil. Les employés du consumer peuvent saisir des termes de transaction, des informations personnelles, une stratégie de litige, des projections financières ou des paperwork réglementaires, chacun étant assorti d’obligations juridiques différentes. Aidez les shoppers à classer ce que leurs collaborateurs mettent dans les outils d’IA. Consultez les circumstances d’utilisation de la plateforme AI. Proposez de revoir les circumstances avec le consumer. Examinez spécifiquement les tendencies sur la conservation des données, la formation sur les entrées, l’examen humain et la divulgation à des tiers. Les circumstances devraient interdire la formation sur les données des shoppers, restreindre l’accès des fournisseurs et imposer des engagements de confidentialité. Surveillez les exclusions qui pourraient affaiblir un argument de confidentialité, notamment les tendencies kin aux données anonymisées, à l’examen de la sécurité ou à l’amélioration du service. Utilisez l’IA de niveau entreprise pour le travail confidentiel et juridique. Informez les shoppers que les forfaits grand public peuvent manquer de protections critiques. Les circumstances de consommation autorisent souvent la conservation des données et l’accès aux fournisseurs, ce que les accords d’entreprise interdisent. Les forfaits Entreprise ajoutent généralement des journaux d’audit, des contrôles personnalisés de conservation des données et des circumstances commerciales négociées. Déployer des contrôles strategies. Recommandez aux shoppers de travailler avec le service informatique pour bloquer les domaines d’IA grand public sur les réseaux d’entreprise et les appareils gérés et pour ajouter des outils de prévention contre la perte de données qui analysent les données sensibles envoyées aux plates-formes d’IA. Aucun contrôle n’est hermétique. Les employés utilisant des appareils personnels ou des connexions hors réseau peuvent contourner les passerelles d’entreprise. Mais les défenses en couches réduisent l’exposition. Rendre les outils approuvés faciles à utiliser. La commodité est la gravité. Si l’outil d’entreprise nécessite trois connexions et un VPN, les employés se tourneront probablement vers l’various grand public. Formez les personnes qui traitent les informations confidentielles. La formation doit aller au-delà de l’équipe juridique. Chaque employé qui traite des informations confidentielles doit comprendre la frontière entre l’IA d’entreprise et l’IA grand public et savoir que ce qu’il saisit dans un outil d’IA peut ensuite être produit lors de la découverte. Renseignez-vous sur l’utilisation antérieure de l’IA. Dès le début de toute query juridique, réglementaire ou de conformité, demandez si quelqu’un a utilisé des outils d’IA pour analyser ou discuter du problème. Une utilisation antérieure de l’IA par les consommateurs peut avoir compromis les privilèges avant que l’affaire ne vous parvienne. Faites en sorte que cette query soit aussi routinière que l’avis de suspension pour litige. Mettre à jour les protocoles de conservation et de conservation en cas de litige. Les interactions IA sont ESI soumises à des obligations de préservation et à des demandes de découverte. Les journaux de dialogue, les paperwork téléchargés, les fichiers exportés et les résumés générés par l’IA doivent tous être couverts par des avis de conservation pour litige et des politiques de conservation.
Combler l’écart pour protéger les informations confidentielles des shoppers
L’utilisation de l’IA soulève des défis bien au-delà de la safety des données, depuis les hallucinations jusqu’aux risques liés aux outils brokers. Les étapes ci-dessus se concentrent sur un facet du risque lié à l’IA : garder les informations confidentielles et sensibles hors des mauvaises plateformes.
L’utilisation de l’IA peut échapper aux protections juridiques que de nombreux utilisateurs supposent. Les entreprises qui comblent cet écart seront préparées lorsque des informations confidentielles seront contestées, des dossiers seront exigés ou des régulateurs appelleront. Ceux qui attendent pourraient en subir les conséquences lors d’une enquête préalable, dans le cadre d’une procédure disciplinaire – ou les deux.
Questions courantes sur l’utilisation de l’IA et des privilèges juridiques
Comme le montre la récente décision US c. Heppner, l’utilisation d’outils d’IA grand public (comme les variations gratuites de ChatGPT, Gemini ou Claude) peut entraîner une renonciation à un privilège.
Les variations Enterprise AI offrent généralement des fonctionnalités de « désinscription » pour la formation des données et une conformité plus stricte à la norme SOC 2 Sort II, qui sont essentielles au maintien du devoir de confidentialité en vertu de la règle modèle ABA 1.6. Il est désormais conseillé aux cupboards d’avocats de mettre à jour leurs lettres de mission et leurs avis de suspension pour litige afin d’avertir explicitement les shoppers des risques liés à l’utilisation de l’IA destinée aux consommateurs pour des questions liées à des affaires.
Les cupboards d’avocats doivent suivre les conseils qu’ils donneraient à leurs shoppers, en commençant par la liste de contrôle présentée dans cet article. Si votre cupboard n’a pas encore approuvé une politique formelle d’IA pour le cupboard d’avocats ou mis à jour ses paperwork d’engagement consumer pour inclure sa politique d’utilisation de l’IA, cela vous obligera à répondre aux questions et aux lacunes dans votre utilisation de l’IA. Entre autres questions, la politique devrait inclure des orientations claires sur l’utilisation des outils d’IA commerciaux et au niveau de l’entreprise. Il devrait aborder l’utilisation de « l’IA fantôme », les exigences en matière d’examen humain et le second où divulguer l’utilisation de l’IA aux shoppers. L’article de Catherine Attain, Au-delà de l’interdiction : Pourquoi votre cupboard d’avocats a besoin d’une politique réaliste en matière d’IA en 2026, est un wonderful information et comprend des liens vers des modèles de politique en matière d’IA des barreaux et des lignes directrices pour les cupboards d’avocats.
Picture en vedette © iStockPhoto.com


















