Publicações

IA, CONTRATOS E PROTEÇÃO DE DADOS: GOVERNANÇA É A PRÓXIMA FRONTEIRA

15.05.2026

A inteligência artificial já está dentro das petições, pareceres, minutas e contratos. Mas, ao mesmo tempo em que acelera a produção, ela também traz novas falhas estruturais: desde alucinações e informações inventadas, até “prompts” colados no meio do texto e dados sensíveis tratados sem controle — cenários que já aparecem como temas em discussão no Judiciário.

Mais do que usar a IA, o Jurídico precisa governar o seu uso. Isso significa exercer maior controle das informações que entram e saem dos modelos, para evitar alucinações, erros grosseiros e riscos graves.

Na prática, a governança em IA envolve as seguintes práticas:

  1. Controle de informações na entrada: filtrar rigorosamente o que vai para os prompts, evitando dados sensíveis, confidenciais ou com risco regulatório. Os documentos que vão à IA não devem servir de “treino” para modelos de IA;
  2. Checagem obrigatória de resultados (outputs): qualquer trecho gerado pela IA precisa ser validado por um profissional humano, com revisão de normas, jurisprudência e cláusulas;
  3. Controle sobre risco contratual e de responsabilidade: contratos com provedores de IA devem prever cláusulas claras sobre segurança, privacidade, confidencialidade, uso de dados, responsabilidade por danos e limitação de uso de outputs;
  4. Proteção de dados e LGPD: quanto mais dados fornecidos para a IA, mais rigoroso precisa ser o mapeamento de fluxos, o consentimento informado e a política interna de uso. Uma falha de governança pode gerar penalidades como multa e envio de ofícios às autoridades para apuração de responsabilidade profissional e, nos piores casos, processo coletivo e crise reputacional.

Além disso, é preciso treinar as equipes para:

  1. Revisão de comandos e prompts: Não colar ou deixar prompts esquecidos no texto final;
  2. Revisão de citações: Não aceitar citações de jurisprudência, doutrina ou normas jurídicas que não tenham sido revisadas uma a uma – as fontes podem simplesmente não existir (caso de alucinação), ou já terem sido revogadas e/ou substituídas;
  3. Checagem de dados e fatos: A fluência e aparente elegância da IA pode mascarar erros factuais graves. Cada dado e fato precisa ser verificado e confirmado. É preciso checar também se a concatenação de ideias e argumentos é coerente e aderente aos fatos.

O papel do Jurídico não é apenas revisar o texto da IA, mas desenhar e implementar a governança em torno dela: políticas de uso, checklists de verificação, rubricas para revisão humana e protocolos de ação e resposta rápida, para quando algo der errado.

A governança, controlada pelo Jurídico, pode evitar que a IA se torne uma fonte de possíveis e graves danos.

Cadastre-se para receber as nossas publicações

    Contato

    Rua Funchal, 263 – Bloco 01 – Conj. 122
    Vila Olímpia | 04551-060
    São Paulo | SP | Brasil

    contato@lenglerlaw.com