Hoje todas as fontes de notícias estão relatando os resultados dos primeiros testes no LHC ( Larger Hadron Collider ), o superacelerador de partículas.
Mas o interessante é notar a utilização da tecnnologia de sistemas distribuídos Grid Computing como infra-estrutura para análise dos dados obtidos com a pesquisa.
De acordo com o projeto, a pesquisa deve produzir em torno de 15 Petabyte de informações anuais que serão analisadas por pesquisadores ao redor do mundo. Para ilustrar a quantidade de informação gerada pelo LHC, o líder do projeto Grid Computing para o LHC explica:
"You can think of each experiment as a giant digital camera with around 150 million pixels taking snapshots 600 million times a second" (CBS News).
Grid Computing visa computar grande quantidade de dados em um modelo paralelo usando recursos computacionais espalhados ao redor do mundo. Segundo o CBS News, a infra-estrutura de Grid Computing do projeto LHC possui atualmente 60.000 máquinas conectadas provendo recursos computacionais para a pesquisa.
É possivel notar um grande avanço da credibilidade na utilização de Grid Computing para projetos de pesquisas que necessitam de grande capacidade de processamento. Tal tecnologia pode ser fundamental para sucessos de projetos pois possui muitos benefícios, como, baixo custo, alta-disponibilidade, eliminação do Ponto Único de Falha (Single Point of Failure) e principalmente por usar, através da colaboração, recursos computacionais com capacidade excedente.
Maiores Informações:
http://lhc.web.cern.ch/lhc/ ( LHC Project )
http://lcg.web.cern.ch/LCG/Default.htm ( LHC Grid Computing Project )
Assinar:
Postar comentários (Atom)
Nenhum comentário:
Postar um comentário