Logotipo do Site Inovação Tecnológica





Plantão

Intel cria núcleo de computação paralela na Unesp

Com informações da Agência Fapesp - 03/09/2014


O Núcleo de Computação Científica (NCC) da Universidade Estadual Paulista (Unesp) foi selecionado pela Intel para integrar um programa de computação paralela - no qual uma grande tarefa computacional é distribuída e realizada ao mesmo tempo por computadores de alto desempenho, de forma a otimizar o uso deles e reduzir o tempo para a conclusão do trabalho.

A Unesp será a segunda universidade no Brasil a sediar um dos mais de 40 centros de computação paralela apoiados pela Intel no mundo. Outros centros estão em instituições como Universidade de Stanford (EUA), Instituto Federal de Tecnologia de Zurique (Suíça), Universidade de Bristol (Reino Unido) e na Organização Europeia para a Pesquisa Nuclear (CERN).

No Brasil, o outro núcleo de computação paralela da empresa é o Coppe, Instituto de Engenharia da Universidade Federal do Rio de Janeiro (UFRJ).

"É fundamental não ficarmos para trás no que diz respeito aos principais avanços em computação de alto desempenho. Temos que prestar um serviço de qualidade à comunidade acadêmica da Unesp e, ao mesmo tempo, acompanhar a evolução tecnológica na área muito de perto e não de uma forma superficial", afirmou Sérgio Novaes, diretor científico do NCC (Núcleo de Computação Científica).

A parceria também possibilitará aplicar a experiência e o conhecimento adquirido em computação paralela em física experimental de altas energias, que é uma área de interesse do NCC.

Escolha criteriosa

"O processo de escolha das instituições de pesquisa para integrar o programa de computação paralela da Intel é extremamente criterioso e são poucos os países com duas instituições selecionadas para participar do programa, como é o caso do Brasil", disse Fernando Martins, diretor executivo da Intel Brasil.

"Isso demonstra não só a excelência dessas instituições, mas também a importância do Brasil no uso e no desenvolvimento de aplicativos para computação de alto desempenho", ressaltou.

Um dos critérios para a escolha de uma instituição para participar do programa é ter pesquisadores com conhecimento e experiência em computação paralela a fim de desenvolver aplicativos (softwares) para computação de alto desempenho em suas áreas de excelência na pesquisa.

A ideia é que os aplicativos desenvolvidos nos centros de computação paralela financiados pela empresa sejam disponibilizados para utilização pela comunidade científica e técnica em computação de alto desempenho.

"A expectativa é que os pesquisadores e profissionais que trabalham nesses projetos de desenvolvimento de softwares compartilhem os resultados com a comunidade científica e técnica em computação de alto desempenho no Brasil por meio de simpósios que organizamos com essa finalidade", disse Martins.

Dilema computacional

O Núcleo de Computação Científica da Unesp abriga, além do GridUnesp, o Centro de Pesquisa e Análise de São Paulo (Sprace), um suporte computacional ao grupo de pesquisadores em Física de Altas Energias que integra o experimento CMS (Solenoide Compacto de Múons), do LHC (Grande Colisor de Hádrons).

"Por meio do Sprace, os pesquisadores e estudantes do grupo de Física de Altas Energias da Unesp usam recursos computacionais e de armazenamento instalados no datacenter do NCC e processam e participam da análise de dados produzidos pelo CMS,", contou Novaes.

De acordo com ele, a comunidade científica envolvida nas observações experimentais realizadas no LHC deverá enfrentar, a partir de 2015, um "dilema computacional".

Isso porque o LHC deverá voltar a operar no próximo ano com maior energia - entre 13 e 14 teraelétrons-volt (TeV), contra 8 TeV com a qual rodou nos últimos anos - o que será acompanhado do aumento do número de eventos no colisor.

O problema, contudo, é que a capacidade computacional instalada pelo LHC - denominada Worldwide Computing Grid do LHC (WLCG), que conecta 100 mil processadores em 34 países, incluindo os do Sprace, no Brasil - não deverá ser suficiente para processar e armazenar a enorme quantidade de dados que serão gerados.

"Há uma pressão, inclusive dos países membros do CERN, para encontrar saída para esse dilema computacional", disse Novaes. "Uma saída natural seria explorar as novas arquiteturas de computação que têm chegado ao mercado, como chips com até 256 cores [núcleos de processamento], para tentar paralelizar os processos e, dessa forma, diminuir a necessidades de grandes investimentos em computação de alto desempenho."

Aplicações em radioterapia

Os pesquisadores têm-se esforçado para desenvolver e aprimorar os softwares a fim de aumentar o paralelismo e a escalabilidade das aplicações.

No caso do CERN, um dos softwares candidatos para realizar a paralelização da imensa quantidade de dados do LHC a partir de 2015 é o Geant4, desenvolvido por um grupo de pesquisadores de Física de Altas Energias do CERN.

O software permite simular a interação da radiação com a matéria, como ocorre no interior dos detectores de partículas do LHC. "O Geant4 simula praticamente todos os eventos que envolvem a interação da radiação com a matéria que podem ocorrer no interior do detector.

E é por meio dessa simulação que conseguimos prever como serão medidas as partículas detectadas no colisor", detalhou Novaes. Como a interação da radiação com a matéria é de interesse não somente da Física de Altas Energias, a aplicação do software começou a se expandir para outras áreas, como a de radioterapia.

"O software é utilizado hoje para calcular a dosimetria de radiação no tratamento de câncer, por exemplo, em que a dose de radiação tem que ser concentrada em um tumor alvo e é preciso reduzir a exposição dos tecidos saudáveis, por exemplo", disse Novaes.

Segundo o pesquisador, no âmbito do programa de centros de computação paralela da Intel, o NCC terá como objetivo adaptar o software às arquiteturas computacionais modernas e desenvolver novas estratégias e algoritmos para que o programa use de forma eficiente os novos processadores multinúcleos.

Além disso, os pesquisadores deverão manter colaboração com colegas do Grupo de Simulações do Fermilab, dos Estados Unidos, que se dedicam a realizar otimizações do Geant4 e trabalham em parceria com engenheiros de software do CERN no desenvolvimento de uma nova versão do software, o Geant-V.







Outras notícias sobre:
  • Nuvem
  • Software Livre
  • Inteligência Artificial
  • Supercomputadores

Mais tópicos