Política de Uso de Inteligência Artificial — FACX

1. Resumo executivo

A FACX utiliza tecnologias de Inteligência Artificial (IA) para melhorar experiências acadêmicas, administrativas e de comunicação. Nós nos comprometemos a usar IA de forma segura, transparente, ética e em conformidade com a legislação aplicável (incluindo a LGPD), garantindo respeito à privacidade, equidade e supervisão humana.

2. Escopo

Esta política aplica-se a:

  • Todas as ferramentas de IA desenvolvidas ou contratadas pela FACX.

  • Funcionários, professores, estudantes, parceiros e fornecedores que usem ou implantem soluções de IA em nome da FACX.

  • Sistemas que processam dados pessoais, acadêmicos, administrativos ou outras informações relacionadas às atividades da FACX.

3. Definições

  • IA (Inteligência Artificial): Sistemas capazes de processar dados e executar tarefas que normalmente exigiriam inteligência humana (ex.: modelos de linguagem, classificação automática, recomendadores, visão computacional).

  • Dados Pessoais: Informação identificável sobre uma pessoa física.

  • Modelos de Terceiros: Soluções de IA fornecidas por empresas externas (ex.: APIs de linguagem, visão, etc.).

  • Tomada de decisão automatizada: Decisões tomadas sem intervenção humana significativa.

4. Princípios orientadores

  1. Transparência: Informaremos claramente quando e como usamos IA.

  2. Privacidade e proteção de dados: Tratamento de dados de acordo com a LGPD e demais normas aplicáveis.

  3. Justiça e não discriminação: Mitigar vieses e evitar discriminação direta ou indireta.

  4. Segurança: Proteger modelos e dados contra acessos não autorizados.

  5. Responsabilidade: Haverá responsáveis claros por cada sistema de IA.

  6. Supervisão humana: Decisões sensíveis terão revisão ou intervenção humana.

  7. Acessibilidade: Soluções devem ser acessíveis e inclusivas sempre que possível.

  8. Melhoria contínua: Monitoramento e auditoria periódica dos sistemas.

5. Transparência e comunicação ao usuário

  • Em todas as interfaces públicas (site, apps, portais acadêmicos) onde IA gera conteúdo, recomendações ou decisões, exibiremos um aviso claro do tipo:
    “Este conteúdo/assistente utiliza Inteligência Artificial. Para dúvidas ou contestação, contate: comercial@facx.edu.br”.

  • Quando uma decisão importante (ex.: seleção para bolsa, avaliação automatizada, processamento disciplinar) envolver IA, o usuário será informado e terá acesso a contato para solicitar revisão humana.

6. Tratamento de dados e privacidade

  • Coleta mínima: coletamos apenas os dados estritamente necessários para a finalidade declarada.

  • Finalidade explícita: cada uso de IA terá finalidades documentadas (ex.: triagem de currículos, ajuda em estudos, suporte ao aluno).

  • Base legal: operações com dados pessoais terão base legal adequada (consentimento, execução de contrato, obrigação legal, interesse legítimo quando justificável).

  • Direitos dos titulares: garantimos mecanismos para que titulares acessem, corrijam, portem e solicitem exclusão de seus dados.

  • Retenção: política clara de retenção e descarte seguro de dados.

  • Terceirização: contratos com fornecedores de IA devem prever cláusulas de proteção de dados, subcontratação, auditoria e responsabilidade.

7. Uso permitido (exemplos)

  • Assistentes virtuais para informações administrativas (matrícula, horários).

  • Ferramentas de apoio à aprendizagem (recomendações de conteúdo, feedback formativo).

  • Análise estatística anônima para melhoria de cursos e gestão acadêmica.

  • Ferramentas de acessibilidade (transcrições, leitura automática).

  • Sistemas de detecção de plágio com revisão humana em casos contestados.

8. Uso proibido ou restrito

  • Decisões automatizadas sem possibilidade de revisão humana quando impactam diretamente o vínculo acadêmico, avaliação final ou sanções disciplinares.

  • Uso de IA para vigilância invasiva que viole privacidade (gravação ou monitoramento sem base legal/consentimento).

  • Aplicação de modelos não auditados em processos seletivos, avaliações ou concessão de benefícios sem validação de vieses.

  • Compartilhamento de dados sensíveis com modelos de terceiros sem anonimização ou garantias contratuais adequadas.

9. Mitigação de vieses e qualidade do modelo

  • Avaliação pré-implantação: todo modelo passa por testes de desempenho e de vieses distribuídos por grupos relevantes (gênero, raça, região, curso).

  • Atualização e re-treinamento: rotinas documentadas para atualizar modelos e corrigir vieses identificados.

  • Logs e auditoria: manter registros de decisões automatizadas para auditoria e investigação.

10. Supervisão humana e governança

  • Cada sistema de IA terá:

    • Responsável técnico (equipe/fornecedor).

    • Responsável por conformidade (equipe jurídica/privacidade).

    • Plano de resposta a incidentes.

  • Comitê de Governança de IA (recomendado): equipe multidisciplinar (TI, jurídico, pedagógico, ética estudantil) que aprova projetos de IA e revisa incidentes e auditorias.

11. Segurança

  • Criptografia de dados em trânsito e em repouso.

  • Controle de acessos e logs de atividades.

  • Testes de segurança regulares e avaliação de fornecedores de nuvem.

  • Planos de recuperação e continuidade operacional.

12. Fornecedores e modelos de terceiros

  • Auditoria contratual: cláusulas que obriguem fornecedores a:

    • Garantir proteção de dados (LGPD).

    • Permitir auditorias técnicas ou relatórios de completude.

    • Informar sobre uso de sub-fornecedores.

  • Preferir modelos com documentação, “model cards” e histórico de atualizações.

13. Direitos e contatos dos usuários

  • Canal para dúvidas, solicitações de revisão ou contestação: comercial@facx.edu.br.

  • Procedimento: pedido recebido → análise em 7 dias úteis  → resposta e, se necessário, revisão humana.

  • Mecanismo de recurso formal para decisões automatizadas com impacto.

14. Acessibilidade e usabilidade

  • Interfaces com IA devem seguir padrões de acessibilidade (quando aplicável).

  • Disponibilizar alternativas humanas para pessoas que não queiram ou não possam interagir com ferramentas automatizadas.

15. Compliance legal e ética

  • Alinhar práticas com a LGPD, Marco Civil da Internet e normativas educacionais.

  • Monitorar e adequar-se a novas regulamentações sobre IA.

16. Transparência técnica (model cards)

Para cada sistema relevante recomendamos publicar um “Model Card” público contendo:

  • Descrição do sistema, versão e fornecedor.

  • Finalidade de uso.

  • Tipos de dados utilizados no treinamento (de forma geral, sem violar confidencialidade).

  • Limitações conhecidas e riscos.

  • Contatos para questões/relato de problemas.

17. Treinamento e capacitação

  • Usuários internos (professores, funcionários) receberão treinamento sobre:

    • Uso responsável de IA.

    • Interpretação de resultados e revisão humana.

    • Como reportar problemas, vieses ou incidentes.

18. Monitoramento, auditoria e indicadores

  • Métricas a acompanhar: acurácia, taxa de erro por subgrupos, número de contestações, tempo de resolução de incidentes, incidentes de segurança.

  • Auditorias periódicas (internas/externas) e publicação de relatórios resumidos de impacto (ex.: anualmente).

19. Incidentes e responsabilização

  • Plano de resposta a incidentes com comunicação aos afetados e às autoridades competentes quando necessário.

  • Penalidades internas e cláusulas contratuais com fornecedores em caso de descumprimento.

20. Revisão e atualização da política

  • Esta política será revisada ao menos anualmente ou sempre que houver mudanças legais, tecnológicas ou operacionais relevantes.

  • Mudanças significativas serão comunicadas aos usuários e à comunidade acadêmica.


Texto curto para aviso no site

“Algumas funcionalidades deste site utilizam Inteligência Artificial para melhorar a experiência e oferecer recomendações. Se desejar, você pode solicitar revisão humana de qualquer conteúdo ou decisão automatizada. Contato: comercial@facx.edu.br.”

Aviso para formulários/consentimento

“Autorizo o uso dos meus dados para fins de melhoria de serviços e análises por ferramentas de IA da FACX, conforme descrito na Política de Privacidade e na Política de IA. Sei que posso solicitar acesso, correção ou exclusão a qualquer momento via comercial@facx.edu.br.”

Há mais de 20 anos
semeando conhecimento
e colhendo futuros

CONTATOS

CPA RELATÓRIOS

Desenvolvido por