| Código |
17934
|
| Ano |
1
|
| Semestre |
S2
|
| Créditos ECTS |
6
|
| Carga Horária |
PL(30H)/T(30H)
|
| Área Científica |
Informática
|
|
Objectivos de Aprendizagem |
A disciplina introduz os conceitos fundamentais para o desenvolvimento e avaliação de sistemas de Inteligência Artificial (IA) que sejam transparentes, confiáveis, justos e robustos. Pretende-se que os estudantes compreendam as técnicas para interpretar modelos complexos e mitigar enviesamentos. Além disso, serão abordados conceitos de causalidade e metodologias para inferência causal, essenciais para garantir decisões fundamentadas e éticas. No final da Unidade Curricular, o estudante deve ser capaz de: a. Compreender os princípios de IA responsável e confiável (transparência, justiça, robustez, segurança); b. Aplicar técnicas de interpretabilidade global e local em modelos de aprendizagem automática; c. Identificar e mitigar enviesamentos em dados e modelos; d. Avaliar riscos associados a ataques adversariais e incerteza em modelos de aprendizagem automática; e. Compreender os fundamentos da causalidade e aplicar métodos de inferência causal em dados observacionais.
|
|
Conteúdos programáticos |
A. Transparência: - Técnicas globais de interpretabilidade: Ceteris Paribus, ICE, PDP, ALE - Técnicas locais de interpretabilidade: Shapley Values, SHAP, LIME - Interpretabilidade em CNNs: Visualização de filtros e ativações, Maximização de ativações, Network Dissection - Mapas de Saliência: Backpropagation, Guided-backpropagation, Grad-CAM, DeepLIFT, Integrated Gradients
B. Enviesamento e Justiça: - Tipos de enviesamento - Métricas e medidas de mitigação
C. Confiabilidade, Robustez e Segurança: - Ataques adversariais - Estimativa de incerteza: Gaussian Process Regression - Supervisão Humana: HITL, HOTL, HIC, Human-out-of-the-Loop
D. Causalidade: - Introdução à causalidade: Causalidade vs Correlação - Potential Outcomes Framework, Average Treatment Effect, RCTs - Estimativa do efeito causal em dados observacionais: Propensity Score Matching, Variáveis Instrumentais
|
|
Metodologias de Ensino e Critérios de Avaliação |
Metodologias de ensino: • Aulas teóricas; • Aulas prático-laboratoriais; • Projetos Individuais; • Tutoria para esclarecimento de dúvidas e acompanhar o aluno no desenvolvimento do seu projeto.
Métodos e Critérios de Avaliação: As componentes teóricas e práticas são avaliadas recorrendo a dois elementos principais: - uma prova escrita (T) de avaliação de conhecimentos, com um peso de 70% na nota final; - um trabalho prático individual com relatório de execução e apresentação, com peso de 30% na nota final. Classificação Ensino-Aprendizagem (CEA) = 0.7T + 0.3TP Admissão ao exame final: CEA >= 6 valores (regulamento da UBI).
|
|
Bibliografia principal |
Molnar, C. (2025). Interpretable Machine Learning: A Guide for Making Black Box Models Explainable (3rd ed.). Munn, M., & Pitman, D. (2022). Explainable AI for Practitioners: Designing and Implementing Explainable ML Solutions. Sebastopol, CA: O’Reilly Media. Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and Machine Learning: Limitations and Opportunities. Cambridge, MA: fairmlbook.org. Rasmussen, C. E., & Williams, C. K. I. (2006). Gaussian Processes for Machine Learning. Cambridge, MA: MIT Press. Verbeke, W., Baesens, B., De Smedt, J., De Weerdt, J., & Weytjens, H. (2025). AI for Business: From Data to Decisions. (Preliminary version). AI for Business Pearl, J. (2009). Causality: Models, Reasoning, and Inference. Cambridge University Press
|
| Língua |
Português
|