Aprendizagem profunda se estende até supercomputadores científicos

Day 3 Keynote: Made Here Together (Cloud Next '18) (Julho 2019).

Anonim

Aprendizado de máquina, uma forma de inteligência artificial, goza de sucesso sem precedentes em aplicações comerciais. No entanto, o uso de aprendizado de máquina em computação de alto desempenho para ciência tem sido limitado. Por quê? Ferramentas avançadas de aprendizado de máquina não foram projetadas para grandes conjuntos de dados, como aqueles usados ​​para estudar estrelas e planetas. Uma equipe da Intel, o Centro Nacional de Computação Científica de Pesquisa Energética (NERSC) e Stanford mudaram essa situação. Eles desenvolveram o primeiro software de aprendizagem profunda de 15 petaflops. Eles demonstraram sua capacidade de lidar com grandes conjuntos de dados por meio de execuções de testes no supercomputador Cori.

Usando técnicas de aprendizado de máquina em supercomputadores, os cientistas poderiam extrair insights de conjuntos de dados grandes e complexos. Instrumentos poderosos, como aceleradores, produzem grandes conjuntos de dados. O novo software pode tornar os maiores supercomputadores do mundo capazes de encaixar esses dados em usos profundos de aprendizado. Os insights resultantes poderiam beneficiar a modelagem de sistemas da Terra, energia de fusão e astrofísica.

As técnicas de aprendizado de máquina têm potencial para permitir que os cientistas extraiam informações valiosas de conjuntos de dados grandes e complexos que são produzidos por aceleradores, fontes de luz, telescópios e simulações de computador. Embora essas técnicas tenham obtido grande sucesso em diversos aplicativos comerciais, seu uso na computação de alto desempenho para a ciência foi limitado porque as ferramentas existentes não foram projetadas para funcionar com conjuntos de dados do tamanho de terabytes a petabytes encontrados em muitos domínios da ciência.

Para resolver esse problema, uma colaboração entre a Intel, o Centro Nacional de Computação Científica de Pesquisa Energética e a Universidade de Stanford tem trabalhado para resolver problemas que surgem ao usar técnicas de aprendizado profundo, uma forma de aprendizado de máquina, em conjuntos de dados de terabytes e petabytes. A equipe desenvolveu o primeiro software de aprendizagem profunda de 15 petaflops. Eles demonstraram sua escalabilidade para aplicativos com uso intensivo de dados, executando várias execuções de treinamento usando grandes conjuntos de dados científicos. As corridas usaram conjuntos de dados baseados em física e clima no Cori, um supercomputador localizado no Centro de Computação Científica da National Energy Research. Eles alcançaram uma taxa de pico entre 11, 73 e 15, 07 petaflops (precisão simples) e um desempenho sustentado médio de 11, 41 a 13, 47 petaflops. (Um petaflop é um milhão de bilhões de cálculos por segundo.)

menu
menu