✦ Framework Adaptado para Empresas Brasileiras

Política de Uso de IA
Generativa para Empresas

Estrutura robusta com tabela de usos aprovados, controles de dados,
transparência e conformidade LGPD. Exporte em PDF gratuitamente.

Sem cadastro 100% no navegador Conformidade LGPD Tabela de usos aprovados Exporta em PDF
O que é uma Política de IA (e por que sua empresa precisa) Fechar guia

Uma política de IA (ou política de uso de IA generativa) é um documento interno que define regras claras para o uso de ferramentas como ChatGPT, Gemini e Copilot no trabalho: quais usos são permitidos, quais exigem aprovação e o que é proibido para proteger a empresa.

Na prática, ela reduz risco jurídico e reputacional, melhora a governança e cria um padrão único para times de TI, Jurídico, Compliance, RH e Marketing.

Checklist: o que uma boa Política de IA deve conter

  • Ferramentas aprovadas e processo de homologação de novas ferramentas.
  • Proteção de dados (LGPD): o que nunca pode ser inserido em IA (ex.: dados pessoais, segredos, credenciais).
  • Tabela de usos: aceitos diretamente vs. usos que exigem autorização prévia.
  • Transparência: quando declarar que foi usado IA em conteúdos internos/externos.
  • Responsabilidade e verificação de outputs (alucinações, vieses, direitos autorais).
  • Consequências por descumprimento, vigência e revisão periódica.

Como usar este gerador

  • Preencha os 5 passos com dados da sua empresa e regras desejadas.
  • O documento é gerado na hora para você imprimir / salvar em PDF.
  • Se o envio por e-mail falhar, o link direto aparece no topo do documento.

Para quem é

  • Empresas que estao adotando IA e precisam de padrao unico.
  • Times com dados sensiveis (clientes, financeiro, saude, RH).
  • Negocios que publicam conteudo externo em nome da marca.

Importante

Este documento é um modelo orientativo. Para implantacao oficial, recomendamos revisao por assessoria juridica e adequacao ao contexto da sua empresa.

politica de IA politica de IA generativa politica de uso de IA politica de IA e LGPD modelo politica de IA politica de IA corporativa
Passo 1 de 5 — Identificação da empresa

🏢 Identificação da empresa

Dados que constarão no cabeçalho oficial do documento.

Informe o nome da empresa.
Selecione o setor.
Selecione o porte.

🛠️ Ferramentas de IA aprovadas

Liste as ferramentas que passaram pela revisão tecnológica interna. Novas ferramentas não listadas exigirão aprovação prévia.

Selecione ao menos uma ferramenta ou informe no campo acima.

📋 Tabela de usos: liberado vs. exige aprovação

Classifique os usos de IA. A coluna verde entra como Usos Aceitos; a amarela como Exige Autorização Prévia no documento final.

✅ Liberado diretamente
⚠️ Exige aprovação prévia
Selecione ao menos um uso em cada coluna.

🔒 Dados, verificação e transparência

Defina quais informações nunca devem ir para ferramentas de IA e os requisitos de divulgação e verificação de outputs.

Categorias de informação que nunca devem ser inseridas em IA:
Selecione ao menos uma categoria de dado restrito.
⚠️ Requisito de transparência na divulgação
Selecione o critério de transparência.
✅ Verificação obrigatória de outputs

Todo colaborador deve verificar os outputs gerados por IA quanto a: alucinações e imprecisões factuais, viés ou discriminação e violação de direitos autorais antes de utilizar o conteúdo profissionalmente.

📄 Penalidades, vigência e geração

Informe um e-mail válido.
Selecione o nível de sanção.

FAQ: Política de IA (perguntas frequentes)

Estas respostas cobrem dúvidas comuns de empresas buscando política de IA, modelo de política de IA e política de IA e LGPD.

O que é uma política de IA?

É um documento interno que define regras para uso de IA generativa no trabalho: ferramentas permitidas, dados proibidos, responsabilidades, transparência e governança. Também ajuda a padronizar decisões entre áreas (TI, Jurídico, RH e Compliance).

Política de IA e LGPD: qual a relação?

A política de IA deve orientar como tratar dados pessoais e dados sensíveis ao usar ferramentas externas. Em geral, o recomendado é proibir o envio de dados identificáveis e definir um processo de aprovação para casos de exceção e uso de fornecedores homologados.

O que não pode colocar no ChatGPT/Gemini/Copilot segundo uma política de IA?

Em regra, evite inserir qualquer informação confidencial. Exemplos comuns:

  • Dados pessoais identificáveis de clientes e colaboradores (CPF, RG, endereços, e-mails).
  • Dados financeiros, bancários e informações estratégicas não públicas.
  • Senhas, tokens, credenciais e segredos de API.
  • Contratos, documentos jurídicos sigilosos e propriedade intelectual não publicada.
Uma política de IA precisa listar ferramentas aprovadas?

Sim. Isso evita uso “por conta própria” de ferramentas desconhecidas e facilita auditoria. Além disso, a política deve prever como solicitar a homologação de novas ferramentas e quem aprova.

Como definir “usos liberados” vs “usos que exigem aprovação”?

Uma boa prática é separar por risco. Usos internos com dados públicos e sem impacto relevante tendem a ser liberados. Já usos com dados de clientes, decisões sensíveis (RH) ou publicações externas geralmente exigem autorização.

Quando a empresa deve exigir transparência (declarar uso de IA)?

Depende do risco e do público. Muitas empresas exigem declaração em materiais externos quando a IA teve participação relevante, e sempre que houver exigência legal, contratual ou regulatória.

A política de IA substitui revisão humana?

Não. A política deve reforçar que outputs de IA precisam de verificação humana (alucinações, vieses, aderência ao contexto e direitos autorais). A responsabilidade do conteúdo final é do colaborador e da empresa.

Qual a diferença entre política de IA e política de segurança da informação?

A política de segurança é mais ampla (acessos, dispositivos, redes, incidentes). A política de IA foca em riscos e regras específicas do uso de IA generativa, incluindo dados inseridos, ferramentas homologadas e transparência.

Este gerador serve como “modelo de política de IA” para empresas?

Sim: ele cria um modelo personalizado baseado nas suas escolhas. Para adoção oficial, ajuste para sua realidade (processos internos, fornecedores, área responsável) e valide com Jurídico/Compliance.

Com que frequência revisar uma política de IA?

IA muda rápido. Uma revisão a cada 6 meses costuma ser adequada, e também sempre que houver mudança relevante em ferramentas, riscos, contratos, incidentes ou exigências legais.

Uma política de IA precisa prever penalidades?

É recomendado. Penalidades e consequências ajudam a dar efetividade ao documento e alinham expectativas. O ideal é manter progressividade e prever exceções e processo de apuração.

Como transformar a política em PDF?

Depois de gerar o documento, clique em Imprimir / Baixar para abrir o documento em nova aba. Em seguida use Ctrl+P (ou Cmd+P no Mac) e escolha “Salvar como PDF”.

🖨️ Imprimir / Baixar Abre o documento em nova aba