
Supercomputador
Os supercomputadores são computadores com alta capacidade de processamento de memória e dados utilizados para finalidades científicas. Eles têm hardware superavançado, um desempenho altíssimo e incomparável em relação aos notebooks caseiros. Os primeiros começaram a surgir nos anos 60, com o empenho de algumas companhias como a Cray Research.

Na atualidade, um supercomputador é uma máquina que conta com poder de processamento milhares de vezes superior ao de um computador convencional. Ele é atualizado com tecnologia de ponta e tem grande capacidade de memória. Em virtude disso, é capaz de resolver algoritmos mais complexos, aplicar Machine Learning ou aprendizado de máquina e Inteligência Artificial.
O processamento dos supercomputadores é mais rápido e, com os algoritmos mais eficientes, reduz os riscos das operações e antecipa as decisões dos profissionais envolvidos. As máquinas elevam o retorno dos investimentos e aumentam a economia dos projetos de exploração e produção de petróleo. Elas foram projetadas com o uso intensivo de IA e de grandes capacidades computacionais.
Os supercomputadores podem ser aplicados em áreas de pesquisa, as quais exigem uma enorme quantidade de processamento para o êxito dos pesquisadores. As máquinas são úteis para a realização de pesquisas militares, científicas, químicas e da área da medicina.
Os primeiros supercomputadores foram criados na década de 1960 por Seymour Cray. Seymour Cray fundou sua própria empresa, a Cray Research, em 1970 e dominou o mercado da supercomputação durante 25 anos (1965-1990).
Os tipos de supercomputadores
Processadores vetoriais paralelos (PVP)
Sistemas compostos de poucos processadores poderosos. A interconexão é feita, em geral, por uma matriz de chaveamento (crossbar) de alta vazão. A memória é compartilhada, e os sistemas podem ser classificados como multiprocessadores UMA. Normalmente não utilizam memória cache, usando para essa função um grande número de registradores vetoriais e um buffer de instrução. Exemplos: Cray C-90 (máximo de 16 processadores), Cray T-90 (máximo de 32 processadores), Fujitsu VPi 700 (máximo de 256 processadores). O NEC SX-6 também é um PVP, e o Earth Simulator, que é um NEC SX-6, já foi o número 1 na lista das 500 máquinas mais poderosas do mundo, possuindo 5 120 processadores.
Multiprocessadores simétricos (SMP)
Os Symmetric Multiprocessors são sistemas constituídos de processadores comerciais conectados a uma memória compartilhada, podendo também ser classificados como multiprocessadores UMA. Utilizam-se amplamente de memória cache e todos os processadores têm igual acesso ao barramento e à memória compartilhada. São mais fáceis de programar que máquinas que se comunicam por troca de mensagens, já que a forma de programação se aproxima daquela feita em sistemas convencionais, mas tem como desvantagem o uso de um barramento de interconexão (permitindo apenas uma transação por vez). Esta limitação pode reduzir a escalabilidade desta classe de sistemas, fazendo com que sistemas comerciais estejam, geralmente, limitados a 64 processadores. Exemplos: IBM R50 (máximo de 8 processadores), SGI Power Challenge (máximo de 36 processadores), SUN Ultra Enterprise 10 000 (máximo de 64 processadores) e HP/Convex Exemplar X-Class (máximo de 32 nós de 16 processadores cada).
Máquinas maciçamente paralelas (MPP)
Os MPPs (Massively Parallel Processors) são multicomputadores NORMA construídos com milhares de processadores comerciais conectados por uma rede de alta velocidade. O alto desempenho é obtido com o grande número de processadores. O fato de haver troca de mensagens torna a programação mais difícil que nos casos em que a memória é compartilhada. Exemplos: Intel Paragon (máximo de 4 000 processadores), Connection Machine CM-5 (máximo de 2 048 processadores), IBM SP2 (máximo de 512 processadores) e Cray T3D (máximo de 2 048 processadores).
Máquinas com memória compartilhada distribuída (DSM)
Nos sistemas DSM (Distributed Shared Memory), mesmo com a memória sendo distribuída entre os nós, todos os processadores podem acessar todas as memórias. O espaço de endereçamento único, o compartilhamento de dados e o controle de coerência de cache são conseguidos com software. Podem ser sistemas NUMA com memória entrelaçada distribuída, ou sistemas NORMA (com memórias locais), onde as memórias podem ser ligadas através de adaptadores de rede (AR) a uma rede de interconexão específica, que permite o acesso a memórias remotas. A máquina, nos dois casos, é considerada CC-NUMA ou SC-NUMA dependendo da implementação da coerência de cache. Exemplo: SGI Origin (máximo de 512 processadores).
Redes de estações de trabalho (NOW)
As redes de estações de trabalho (NOW – Network of Workstations) são constituídas de várias estações de trabalho interligadas por alguma tecnologia tradicional de rede, como Ethernet e ATM. Na prática são redes locais utilizadas na execução de aplicações paralelas. Podem ser vistas como máquinas NORMA de baixo custo, ou sem custo algum caso a rede já exista, ou seja, esta é uma solução significativamente mais barata em relação aos MPPs. A desvantagem clara que se vê em uma rede de estações de trabalho é o fato de que as redes tradicionais costumam ser usadas apenas em tarefas menores (para compartilhar arquivos e acessar impressoras remotas, por exemplo), e geralmente não são otimizadas para operações de comunicação de uma aplicação paralela. O resultado é uma alta latência nessas operações, o que compromete o desempenho da máquina como um todo. São usadas principalmente em instituições de ensino para o estudo de processamento paralelo e distribuído.
NORC
• Em 1954, para fins de Defesa Nacional, o primeiro supercomputador foi
criado: O NORC. Desenvolvido pela IBM e instalado na Base Naval de
Dahlgren, nos Estados Unidos.
• O NORC conseguia fazer cálculos em 67 kOPS, ou seja, 67 mil operações
por segundo, quando a unidade de medida dos supercomputadores ainda
era OPS, operações por segundo.
IBM 7030(stretch)
1961

O IBM 7030, também conhecido por Strech, foi o primeiro supercomputador lançado na segunda geração, desenvolvido pela IBM, o seu tamanho era bem reduzido comparado com máquinas como o ENIAC, podendo ocupar somente uma sala comum. Ele era utilizado por grandes companhias, com um custo em torno de 13 milhões de dólares na época. Esta máquina executava cálculos na casa dos microssegundos, o que permitia até um milhão de operações por segundo. Dessa maneira, um novo patamar de velocidade foi atingido. Comparado com os da primeira geração, o IBM 7030 era bem mais confiável. Várias linguagens foram desenvolvidas para os computadores de segunda geração, como Fortran, Cobol e Algol. Assim, softwares já poderiam ser criados com mais facilidade. Muitos mainframes (modo como as máquinas dessa época são chamadas) ainda estão em funcionamento em várias empresas no dias de hoje, como na própria IBM.
Cray-1

• O Cray-1, lançado em 1976, é um dos primeiros supercomputadores a utilizar circuitos integrados, com a capacidade de realizar cálculos em 160 megaFLOPS, com o fim de realizar pesquisas aerodinâmicas e meteorológicas.
• Seymour Cray — considerado o pai da supercomputação
A necessidade de cálculos
Como já dissemos, os supercomputadores são extremamente necessários no mundo da Ciência. Por causa de seu altíssimo poder de processamento, as máquinas são capazes de calcular possibilidades, cruzar informações, fazer previsões... Tudo isso faz da tecnologia uma ferramenta imprescindível no desenvolvimento de soluções para as mais diversas questões.
Como funciona os cálculos
Eles funcionam a partir dos Flops
FLOPS (flops, FLOP/s ou flop/s) é um acrônimo na computação que significa FLoating-point Operations Per Second (operações de ponto flutuante por segundo). Um megaflops (MFLOPS) corresponde um milhão de operações por segundo. A unidade de medida 1 gigaflops (GFLOPS), corresponde a um bilhão de operações.Um teraflops (TFLOPS) corresponde a um trilhão de operações, um petaflops (PFLOPS) corresponde a um quatrilhão de operações por segundo. • Uma calculadora simples, que faça as quatro operações básicas (adição, subtração, multiplicação e divisão) tem uma capacidade de processamento de 10 FLOPS. • Na década de 70, os supercomputadores da época atingiram a marca de 100 megaflops. Traduzindo os números para a realidade dos usuários 100 megaflops equivalem à capacidade de processamento de um Pentium de 60 MHz. • Em 2007, um supercomputador criado pela empresa japonesa, em parceria com a Hitachi, a Intel e a NEC, atingiu a marca de um petaflops. Nele foram associados 4808 processadores Xeon Dual-Core. O resultado equivale a impressionante marca de um quatrilhão de operações por segundo.
Na medicina
Uma das principais atribuições da supercomputação está na medicina. Graças a seus grandes poderes de processamento, os supercomputadores podem ser usados para calcular a interação de medicamentos e tratamentos com base em condições genéticas, cruzamento de informações com resultados passados e até mesmo simulações.

Dessa forma, os supercomputadores — e também sistemas de Big Data — se tornaram grandes aliados dos médicos e cientistas que estão em busca da cura do câncer, de DSTs e de várias outras doenças que ainda não conhecem uma solução definitiva. O Watson da IBM, por exemplo, pode ser um excelente auxílio na busca pela cura do câncer.
Para isso, A IBM firmou uma parceria com 14 entidades especializadas nos Estados Unidos e no Canadá. Essa parceria criar tratamentos personalizados a partir da análise de DNA — retirado do tumor dos pacientes individuais a fim de encontrar mutações causadoras da doença e então determinar as melhores formas de combate às células cancerígenas
Também em guerras
Mas antes de cientistas usarem superPCs para encontrar curas de doenças, as supermáquinas foram usadas para causar destruição. Durante a Segunda Guerra, os nazistas usaram a conhecida máquina Lorenz para codificar as comunicações e impedir que os inimigos conseguissem interceptar qualquer plano.

Foi aí que os britânicos investiram pesado na Colossus, que é considerado o primeiro computador do mundo — a história do projeto é contada no filme "O Jogo da Imitação", que conta também um pouco da vida de Alan Turing. Foi com esse supercomputador que os aliados conseguiram informações cruciais para derrotar os nazistas em várias batalhas travadas durante a Guerra.
E atualmente
Ainda hoje
Em 2012, vários institutos de pesquisa ainda utilizam os supercomputadores com finalidades bélicas. Além de calcular rotas de mísseis e impactos de munições e novas armas, eles podem ser usados até mesmo em simulações. Os supercomputadores da Administração Nacional de Segurança Nuclear e da Universidade de Purdue (EUA), por exemplo, podem simular as capacidades de bombas nucleares com extrema precisão.
Previsão do tempo
Se na antiguidade, os agricultores aprendiam a olhar para as estrelas e calcular quando ia chover, hoje isso não é mais possível — além de as estações do ano não serem mais tão exatas, ainda existe uma série de fatores que torna toda previsão mais complicada. E é por isso que os supercomputadores se tornam tão necessários . Cruzando informações sobre presença e densidade de nuvens, velocidade e direção dos ventos, temperatura das massas de ar e outros dados relevantes, eles podem definir quando vai haver chuva ou quando vai esfriar ou quando o Sol estará mais presente — apenas para citar alguns rápidos exemplos.

E tudo isso é bem mais pesado do que um jogo ou um aplicativo comum. Por isso, os grandes equipamentos de laboratórios de pesquisa fazem o trabalho sujo de calcular todas as possibilidades. Depois disso, os cientistas ainda precisam analisar as informações para que elas possam ser traduzidas em termos que todos nós possamos entender.
Astronomia

Você acha difícil calcular distâncias entre dois locais? Agora eleve isso para o nível astronômico, em que dois locais podem estar separados por anos-luz de distância. É claro que isso demanda computadores de altíssima potência para que as informações não saiam distorcidas.
E isso é apenas uma função muito rasa dessas máquinas, que ainda podem estudar a velocidade de asteroides, meteoritos, galáxias... Isso sem falar nas simulações físicas que podem permitir aos cientistas entenderem muito melhor o funcionamento do universo, além de garantir mais confiabilidade aos testes de teorias quânticas e astrofísicas. Aqui no Brasil, um dos mais importantes é o supercomputador de astronomia da USP.
Ranking
5° - Mira (Estados Unidos)
Os Estados Unidos possuem certa hegemonia na lista e na quinta posição temos o Mira, que fica localizado no Laboratório Nacional de Argonne. Este supercomputador possui uma velocidade de 8,5 PFlop/s graças aos seus 786 mil núcleos de processamento desenvolvidos pela IBM.
4° - K Computer (Japão)
O K Computer é o segundo computador asiático do ranking, localizado no Instituto Avançado para Ciência Computacional, em Kobe, alcançando uma taxa média de 10,5 PFlop/s. Este supercomputador tem pouco mais de 705 mil núcleos e 1.410.048 GB de memória.
3° - Sequoia (Estados Unidos)

Outro que se manteve na mesma posição por alguns anos foi o Sequoia, do Laboratório Nacional Lawrence Livermore. Este supercomputador possui 1,5 milhões de núcleos e 1.520.000 GB de RAM, que o fazem alcançar uma capacidade de processamento de 17,17 PFlop/s.
2° - Titan (Estados Unidos)

O segundo lugar da lista também permaneceu o mesmo. O Titan está situado no Laboratório Nacional de Oak Ridge no Tennessee. Ele possui 560.640 núcleos e 710.144 GB de RAM, ele atinge até 17,5 PFlop/s e foi desenvolvido pela Cray Inc.
1° - Tianhe-2 (China)

A liderança da lista está com o Tianhe-2 faz anos, com uma capacidade de processamento de 33,86 PFlop/s. O equivalente a mais de 33 quatrilhões de operações de ponto flutuante por segundo. Esta máquina é constituída por 3.120.000 núcleos de processamento e 1.024.000 GB de memória RAM.
Hardwere

Esqueça os processadores comuns que você possui no seu notebook ou no seu desktop. Dentro dos supercomputadores só há espaço para dois tipos de chips: os voltados para servidores de alta potência e os coprocessadores gráficos. A grande maioria dos sistemas que estão no Top 500 utiliza o Intel Xeon como principal CPU — e isso aparece em diversas formas, mas as mais comuns são o Xeon E5 SandyBridge, Xeon 5600 Westmere e Xeon E5 IvyBridge, mesmo havendo chips mais modernos atualmente.
Anos atrás, uma série de pesquisas mostrou que a utilização de GPUs em conjunto com os processadores comuns poderia aumentar bastante a qualidade do processamento dos supercomputadores. Com isso, a NVIDIA passou a ser uma parceira fundamental no mercado de supercomputadores, uma vez que as GPUs da marca começaram a se destacar bastante.
prcessadores
• Analisando apenas o Top 10, vemos que cinco dos supercomputadores mais potentes são equipados com processadores Intel Xeon — o que inclui o líder chinês Tinhae- 2, que conta com 32 mil processadores Xeon Ivy Bridge e mais de 3 milhões de núcleos operando para chegar às velocidades impressionantes de 54.902 TFLOPS.
• Outra arquitetura que aparece bastante no ranking dos 10 mais poderosos é a PowerPC BlueGene/Q, citada três vezes — 24 no total do Top 500. Os chips AMD Opteron são vistos 43 vezes no Top 500, mas no Top 10 aparecem apenas no supercomputador Titan, que está na segunda colocação, possuindo apenas metade do poder de processamento do líder chinês.
Sistemas operacionais
Qual é o sistema operacional de computadores mais utilizado no mundo? A resposta para isso é bem simples: Windows. Mas quando falamos de supercomputadores as coisas mudam muito de figura. A liderança absoluta fica com o Linux, que domina 98,8% do mercado e aparece em 494 sistemas. O principal motivo para isso é a abertura do sistema operacional, que permite aos desenvolvedores uma série de vantagens e possibilidades de modificação dos computadores para as mais diversas finalidades. Precisando de poucas funções gráficas, supercomputadores com Linux conseguem velocidade e estabilidade total para os pesquisadores.
Brasil

• Brasil é o 11o país do mundo com mais supercomputadores.
• Além de pertencerem a institutos de pesquisa e à indústria, os supercomputadores brasileiros custam milhões. Três deles são do Laboratório Nacional de Computação Científica (LNCC), emPetrópolis (RJ), um do Cimatec, em Salvador (BA), um do Instituto Nacional de Pesquisa Espacial (Inpe), de São Paulo (SP), e um da Petrobras.