| Código |
16676
|
| Ano |
2
|
| Semestre |
S1
|
| Créditos ECTS |
6
|
| Carga Horária |
PL(30H)/T(30H)
|
| Área Científica |
Informática
|
|
Objectivos de Aprendizagem |
No final da UC, os estudantes saberão conceber, avaliar e otimizar prompts para Modelos de Linguagem de Grande Escala (LLMs). Compreenderão a estrutura dos prompts, gestão de contexto, alucinações e enviesamentos, dominando técnicas como zero/few-shot, chain-of-thought e role-based prompting. Desenvolverão pensamento crítico para validar respostas e iterar prompts em tarefas reais.
Estes objetivos alinham-se com o método de ensino adotado, focado numa abordagem eminentemente prática (learning by doing). A teoria sobre a mecânica dos LLMs é consolidada em aulas laboratoriais através da interação direta com modelos estado da arte. Com exercícios de prompt engineering e projetos aplicados, os alunos testam e refinam as suas interações continuamente. Esta articulação garante uma transição fluida entre a compreensão teórica e a execução, capacitando os estudantes para extrair o máximo valor de sistemas de IA complexos.
|
|
Conteúdos programáticos |
O programa da Unidade Curricular está organizado de forma progressiva nos seguintes módulos: - Princípios fundamentais, mecânica base dos LLMs, panorama de aplicações e desafios comuns (ex: alucinações). - Componentes de um prompt eficaz, formulação clara de diretrizes, delimitação de tarefas e formatação rigorosa de outputs. - Gestão otimizada da janela de contexto e estratégias de role-playing (instruções baseadas em papéis) para adaptação de domínio. - Abordagens Zero-shot e Few-shot. Implementação de Chain-of-Thought (raciocínio passo-a-passo) e meta-instruções iterativas. - Métricas de avaliação qualitativa e quantitativa. Identificação e mitigação de enviesamentos (bias) e considerações éticas na IA generativa. - Automação de fluxos de trabalho, extração de dados, geração de código, estímulo criativo e apoio à decisão. - Integração programática via APIs de LLMs (ex: OpenAI, modelos open-source) e introdução a estratégias de Fine-Tuning.
|
|
Bibliografia principal |
Brian Roemmele, The Art of Prompt Engineering OpenAI, GPT Best Practices Guide (recurso online) Lilian Weng, Prompt Engineering Techniques & Applications (artigos de blog) Artigos científicos sobre PLN e estratégias de prompting em conferências como ACL, NeurIPS e outras relacionadas com inteligência artificial
|
| Língua |
Português
|