imagem de topo do site
Realizado por: logo sbct Escola Regional de Alto Desempenho do Rio de Janeiro 2024
5 a 7 de novembro de 2024




Local:
Instituto de Matemática e Estatística
Universidade do Estado do Rio de Janeiro - UERJ

Endereço:
Pavilhão João Lyra Filho
Rua São Francisco Xavier, 524, 6º andar, sala RAV-62
Rio de Janeiro - Rio de Janeiro
CEP 20550-013 - Brasil

Palestrantes Convidados


BORIN

Edson Borin

Universidade de Campinas

MELO

Alba Melo

Universidade de Brasília

MARZULO

Leandro Marzulo

Google

SALGADO

Luciana Salgado

Universidade Federal Fluminense

VINOD

Vinod Rebello

Universidade Federal Fluminense

COSTA

Mônica Costa

Hewlett Packard Enterprise

NVIDIA

Pedro Mário Cruz

NVIDIA


ERAD - Minicursos

Minicurso 1: Introdução a Paralelização de Aplicações com OpenMP

AUTORES:

  • Daniel Bougleux (UFF)
  • Miguel Freitas (UFF)

HORÁRIO:

Terça-feira, 05/11, 8h30-10h30

LOCAL:

Sala 6023-2

EMENTA:

  1. Medição de desempenho (cálculo de speedup)
  2. Criação de threads com OpenMP
  3. Paralelismo a nível de loop
  4. Escopo de dados
  5. Paralelismo a nível de regiões
  6. Sincronização

Minicurso 2: Introdução à programação em CUDA

AUTORES:

  • Lucas Menduina Ramos Evangelista (UFRRJ)
  • Gabriel Marinho de Souza (UFRRJ)
  • Juliana Nascente (UFRRJ)
  • Marcelo Zamith (UFRRJ)

HORÁRIO:

Terça-feira, 05/11, 15h30-17h30

LOCAL:

Sala 6142

EMENTA:

  1. Introdução ao CUDA
    1. O que é CUDA?
    2. A história
    3. GPU e sua arquitetura
    4. CPU x GPU

  2. Ambiente de Desenvolvimento: Instalação do CUDA Toolkit

  3. Conceitos Basicos de Programação em CUDA
    1. Estrutura de um programa CUDA: Kernel e threads
    2. Funções e variáveis em CUDA
    3. Memoria: tipos e hierarquia - global, local compartilhada, constante e textura
    4. Instancia dos kernels e execução das ˜threads

  4. Paralelismo em CUDA
    1. Grids e Blocos
    2. Organização de threads
    3. Estratégias de paralelismo
    4. Exemplos de problemas paralelizados

  5. Otimização de Performance
    1. Acesso a memória e coalescência
    2. Redução de divergência de threads
    3. Uso da memória compartilhada

  6. Exemplos e prática
    1. Soma de vetores
    2. Multiplicação de matrizes
    3. Análise de performance e comparação com CPU

  7. Conclusão e Perguntas
    1. Revisão dos principais pontos
    2. Discussão sobre o futuro do CUDA, GPU e IA
    3. Sessão de perguntas e respostas

Minicurso 3: Programação Paralela Híbrida: MPI + OpenMP Offloading

AUTOR:

  • Calebe P. Bianchini1 (Mackenzie - SP)
  • Evaldo B. Costa (UFRJ)
  • Gabriel P. Silva (UFRJ)

HORÁRIO:

Quarta-feira, 06/11, 8h30-10h30

LOCAL:

Sala 6145-2

EMENTA:

  1. Introdução
    1. Arquitetura de Computadores Paralelos
    2. Aceleradores em GPUs
    3. Modelos de programação
      1. Paralelismo com MPI
      2. Paralelismo com OpenMP

  2. Programação Paralela Híbrida: MPI + OpemMP Offloading
    1. Modelo de Programação: MPI + OpenMP
    2. Modelo de Programação: MPI + OpenMP Offloading
    3. Estudo de Caso

Realização Organização e Execução Patrocínio
SBC uerj     cefet/rj    uff     rural    
lncc   ufrj    
HP Emterprise
Apoio:
PPG-CompMat UERJ IME UERJ