Conteúdo / Main content
Menu Rodapé
  1. Início
  2. Cursos
  3. Engenharia Informática
  4. Inteligência Artificial Confiável e Responsável

Inteligência Artificial Confiável e Responsável

Código 17934
Ano 1
Semestre S2
Créditos ECTS 6
Carga Horária PL(30H)/T(30H)
Área Científica Informática
Objectivos de Aprendizagem A disciplina introduz os conceitos fundamentais para o desenvolvimento e avaliação de sistemas de Inteligência Artificial (IA) que sejam transparentes, confiáveis, justos e robustos. Pretende-se que os estudantes compreendam as técnicas para interpretar modelos complexos e mitigar enviesamentos. Além disso, serão abordados conceitos de causalidade e metodologias para inferência causal, essenciais para garantir decisões fundamentadas e éticas.
No final da Unidade Curricular, o estudante deve ser capaz de:
a. Compreender os princípios de IA responsável e confiável (transparência, justiça, robustez, segurança);
b. Aplicar técnicas de interpretabilidade global e local em modelos de aprendizagem automática;
c. Identificar e mitigar enviesamentos em dados e modelos;
d. Avaliar riscos associados a ataques adversariais e incerteza em modelos de aprendizagem automática;
e. Compreender os fundamentos da causalidade e aplicar métodos de inferência causal em dados observacionais.
Conteúdos programáticos A. Transparência:
- Técnicas globais de interpretabilidade: Ceteris Paribus, ICE, PDP, ALE
- Técnicas locais de interpretabilidade: Shapley Values, SHAP, LIME
- Interpretabilidade em CNNs: Visualização de filtros e ativações, Maximização de ativações, Network Dissection
- Mapas de Saliência: Backpropagation, Guided-backpropagation, Grad-CAM, DeepLIFT, Integrated Gradients

B. Enviesamento e Justiça:
- Tipos de enviesamento
- Métricas e medidas de mitigação

C. Confiabilidade, Robustez e Segurança:
- Ataques adversariais
- Estimativa de incerteza: Gaussian Process Regression
- Supervisão Humana: HITL, HOTL, HIC, Human-out-of-the-Loop

D. Causalidade:
- Introdução à causalidade: Causalidade vs Correlação
- Potential Outcomes Framework, Average Treatment Effect, RCTs
- Estimativa do efeito causal em dados observacionais: Propensity Score Matching, Variáveis Instrumentais
Metodologias de Ensino e Critérios de Avaliação Metodologias de ensino:
• Aulas teóricas;
• Aulas prático-laboratoriais;
• Projetos Individuais;
• Tutoria para esclarecimento de dúvidas e acompanhar o aluno no desenvolvimento do seu projeto.

Métodos e Critérios de Avaliação:
As componentes teóricas e práticas são avaliadas recorrendo a dois elementos principais:
- uma prova escrita (T) de avaliação de conhecimentos, com um peso de 70% na nota final;
- um trabalho prático individual com relatório de execução e apresentação, com peso de 30% na nota final.
Classificação Ensino-Aprendizagem (CEA) = 0.7T + 0.3TP
Admissão ao exame final: CEA >= 6 valores (regulamento da UBI).
Bibliografia principal Molnar, C. (2025). Interpretable Machine Learning: A Guide for Making Black Box Models Explainable (3rd ed.).
Munn, M., & Pitman, D. (2022). Explainable AI for Practitioners: Designing and Implementing Explainable ML Solutions. Sebastopol, CA: O’Reilly Media.
Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and Machine Learning: Limitations and Opportunities. Cambridge, MA: fairmlbook.org.
Rasmussen, C. E., & Williams, C. K. I. (2006). Gaussian Processes for Machine Learning. Cambridge, MA: MIT Press.
Verbeke, W., Baesens, B., De Smedt, J., De Weerdt, J., & Weytjens, H. (2025). AI for Business: From Data to Decisions. (Preliminary version). AI for Business
Pearl, J. (2009). Causality: Models, Reasoning, and Inference. Cambridge University Press
Língua Português
Data da última atualização: 2026-01-12
As cookies utilizadas neste sítio web não recolhem informação pessoal que permitam a sua identificação. Ao continuar está a aceitar a política de cookies.