Política de Uso de Inteligência Artificial — FACX
1. Resumo executivo
A FACX utiliza tecnologias de Inteligência Artificial (IA) para melhorar experiências acadêmicas, administrativas e de comunicação. Nós nos comprometemos a usar IA de forma segura, transparente, ética e em conformidade com a legislação aplicável (incluindo a LGPD), garantindo respeito à privacidade, equidade e supervisão humana.
2. Escopo
Esta política aplica-se a:
Todas as ferramentas de IA desenvolvidas ou contratadas pela FACX.
Funcionários, professores, estudantes, parceiros e fornecedores que usem ou implantem soluções de IA em nome da FACX.
Sistemas que processam dados pessoais, acadêmicos, administrativos ou outras informações relacionadas às atividades da FACX.
3. Definições
IA (Inteligência Artificial): Sistemas capazes de processar dados e executar tarefas que normalmente exigiriam inteligência humana (ex.: modelos de linguagem, classificação automática, recomendadores, visão computacional).
Dados Pessoais: Informação identificável sobre uma pessoa física.
Modelos de Terceiros: Soluções de IA fornecidas por empresas externas (ex.: APIs de linguagem, visão, etc.).
Tomada de decisão automatizada: Decisões tomadas sem intervenção humana significativa.
4. Princípios orientadores
Transparência: Informaremos claramente quando e como usamos IA.
Privacidade e proteção de dados: Tratamento de dados de acordo com a LGPD e demais normas aplicáveis.
Justiça e não discriminação: Mitigar vieses e evitar discriminação direta ou indireta.
Segurança: Proteger modelos e dados contra acessos não autorizados.
Responsabilidade: Haverá responsáveis claros por cada sistema de IA.
Supervisão humana: Decisões sensíveis terão revisão ou intervenção humana.
Acessibilidade: Soluções devem ser acessíveis e inclusivas sempre que possível.
Melhoria contínua: Monitoramento e auditoria periódica dos sistemas.
5. Transparência e comunicação ao usuário
Em todas as interfaces públicas (site, apps, portais acadêmicos) onde IA gera conteúdo, recomendações ou decisões, exibiremos um aviso claro do tipo:
“Este conteúdo/assistente utiliza Inteligência Artificial. Para dúvidas ou contestação, contate: comercial@facx.edu.br”.Quando uma decisão importante (ex.: seleção para bolsa, avaliação automatizada, processamento disciplinar) envolver IA, o usuário será informado e terá acesso a contato para solicitar revisão humana.
6. Tratamento de dados e privacidade
Coleta mínima: coletamos apenas os dados estritamente necessários para a finalidade declarada.
Finalidade explícita: cada uso de IA terá finalidades documentadas (ex.: triagem de currículos, ajuda em estudos, suporte ao aluno).
Base legal: operações com dados pessoais terão base legal adequada (consentimento, execução de contrato, obrigação legal, interesse legítimo quando justificável).
Direitos dos titulares: garantimos mecanismos para que titulares acessem, corrijam, portem e solicitem exclusão de seus dados.
Retenção: política clara de retenção e descarte seguro de dados.
Terceirização: contratos com fornecedores de IA devem prever cláusulas de proteção de dados, subcontratação, auditoria e responsabilidade.
7. Uso permitido (exemplos)
Assistentes virtuais para informações administrativas (matrícula, horários).
Ferramentas de apoio à aprendizagem (recomendações de conteúdo, feedback formativo).
Análise estatística anônima para melhoria de cursos e gestão acadêmica.
Ferramentas de acessibilidade (transcrições, leitura automática).
Sistemas de detecção de plágio com revisão humana em casos contestados.
8. Uso proibido ou restrito
Decisões automatizadas sem possibilidade de revisão humana quando impactam diretamente o vínculo acadêmico, avaliação final ou sanções disciplinares.
Uso de IA para vigilância invasiva que viole privacidade (gravação ou monitoramento sem base legal/consentimento).
Aplicação de modelos não auditados em processos seletivos, avaliações ou concessão de benefícios sem validação de vieses.
Compartilhamento de dados sensíveis com modelos de terceiros sem anonimização ou garantias contratuais adequadas.
9. Mitigação de vieses e qualidade do modelo
Avaliação pré-implantação: todo modelo passa por testes de desempenho e de vieses distribuídos por grupos relevantes (gênero, raça, região, curso).
Atualização e re-treinamento: rotinas documentadas para atualizar modelos e corrigir vieses identificados.
Logs e auditoria: manter registros de decisões automatizadas para auditoria e investigação.
10. Supervisão humana e governança
Cada sistema de IA terá:
Responsável técnico (equipe/fornecedor).
Responsável por conformidade (equipe jurídica/privacidade).
Plano de resposta a incidentes.
Comitê de Governança de IA (recomendado): equipe multidisciplinar (TI, jurídico, pedagógico, ética estudantil) que aprova projetos de IA e revisa incidentes e auditorias.
11. Segurança
Criptografia de dados em trânsito e em repouso.
Controle de acessos e logs de atividades.
Testes de segurança regulares e avaliação de fornecedores de nuvem.
Planos de recuperação e continuidade operacional.
12. Fornecedores e modelos de terceiros
Auditoria contratual: cláusulas que obriguem fornecedores a:
Garantir proteção de dados (LGPD).
Permitir auditorias técnicas ou relatórios de completude.
Informar sobre uso de sub-fornecedores.
Preferir modelos com documentação, “model cards” e histórico de atualizações.
13. Direitos e contatos dos usuários
Canal para dúvidas, solicitações de revisão ou contestação: comercial@facx.edu.br.
Procedimento: pedido recebido → análise em 7 dias úteis → resposta e, se necessário, revisão humana.
Mecanismo de recurso formal para decisões automatizadas com impacto.
14. Acessibilidade e usabilidade
Interfaces com IA devem seguir padrões de acessibilidade (quando aplicável).
Disponibilizar alternativas humanas para pessoas que não queiram ou não possam interagir com ferramentas automatizadas.
15. Compliance legal e ética
Alinhar práticas com a LGPD, Marco Civil da Internet e normativas educacionais.
Monitorar e adequar-se a novas regulamentações sobre IA.
16. Transparência técnica (model cards)
Para cada sistema relevante recomendamos publicar um “Model Card” público contendo:
Descrição do sistema, versão e fornecedor.
Finalidade de uso.
Tipos de dados utilizados no treinamento (de forma geral, sem violar confidencialidade).
Limitações conhecidas e riscos.
Contatos para questões/relato de problemas.
17. Treinamento e capacitação
Usuários internos (professores, funcionários) receberão treinamento sobre:
Uso responsável de IA.
Interpretação de resultados e revisão humana.
Como reportar problemas, vieses ou incidentes.
18. Monitoramento, auditoria e indicadores
Métricas a acompanhar: acurácia, taxa de erro por subgrupos, número de contestações, tempo de resolução de incidentes, incidentes de segurança.
Auditorias periódicas (internas/externas) e publicação de relatórios resumidos de impacto (ex.: anualmente).
19. Incidentes e responsabilização
Plano de resposta a incidentes com comunicação aos afetados e às autoridades competentes quando necessário.
Penalidades internas e cláusulas contratuais com fornecedores em caso de descumprimento.
20. Revisão e atualização da política
Esta política será revisada ao menos anualmente ou sempre que houver mudanças legais, tecnológicas ou operacionais relevantes.
Mudanças significativas serão comunicadas aos usuários e à comunidade acadêmica.
Texto curto para aviso no site
“Algumas funcionalidades deste site utilizam Inteligência Artificial para melhorar a experiência e oferecer recomendações. Se desejar, você pode solicitar revisão humana de qualquer conteúdo ou decisão automatizada. Contato: comercial@facx.edu.br.”
Aviso para formulários/consentimento
“Autorizo o uso dos meus dados para fins de melhoria de serviços e análises por ferramentas de IA da FACX, conforme descrito na Política de Privacidade e na Política de IA. Sei que posso solicitar acesso, correção ou exclusão a qualquer momento via comercial@facx.edu.br.”