Passados mais de dois anos, eis que a NVIDIA apresenta novamente ao mundo uma placa 3D composta de duas GPUs. Atendendo pelo nome de GeForce GTX 590, a placa é composta de dois chips GF110, que, conforme veremos no decorrer desta review, trata-se de uma versão aprimorada do GF100.

Para quem não se recorda, o último modelo criado foi a GeForce GTX 295 (GT200b), em janeiro de 2009. De lá pra cá, a companhia ficou “restrita” ao desenvolvimento de modelos com um único chip gráfico. A ausência de uma dual-GPU da geração 400 foi, em parte, estranha. Ainda que não tivesse condições de colocar duas GF100 em um único PCB, devido a questões técnicas (como é o caso do excesso de temperatura e consumo de energia), os rumores de uma “GTX 495” composta por duas GF104 (GTX 460) volta e meia apareciam pela a web. Tanto é que apenas agora algumas parceiras resolveram lançar a tal “GTX 495”. Infelizmente muito tarde.

Se antes era muito comum o vazamento de informações sobre os futuros lançamentos, devemos ressaltar que a “extração” de detalhes sobre os produtos-chave das companhias está cada vez mais difícil. Foi assim mais uma vez com a placa da NVIDIA.

A GeForce GTX 590 chega em um momento decisivo para a NVIDIA, uma vez que a mesma tem a árdua tarefa de competir com um verdadeiro “colosso” em termos de desempenho: a Radeon 6990.

A geração Fermi está nitidamente sustentada em duas pilastras: alto poder de processamento e suporte às novas tecnologias, como é o caso do DirectX 11, NVIDIA 3D Vision, CUDA e o novo modo de filtro 32xCSAA (Coverage Sampling Antialiasing), sendo oito do tipo “multisamples” e 24 “coverage samples”.

Outro destaque da nova geração de chips que equipam as GeForces série 500 está na significativa evolução em relação ao GF100 e seus “filhotes”. Embora baseado no GF100, o chip recebeu aprimoramentos em sua arquitetura, tornando-o muito mais eficiente em termos de desempenho X consumo de energia. Para se ter ideia, o GF110, além de ser significativamente mais veloz que o GF100, possui ainda um consumo inferior ao seu “irmão mais velho”! E estamos falando em um chip com a mesma litografia em 40nm.

Antes de continuarmos com esta review (inédita em território nacional) e podermos finalmente descobrir quem levará a coroa da “Rainha das Placas 3D”, gostaríamos de agradecer novamente à NVIDIA por todo o apoio, disponibilizando em caráter exclusivo para o Brasil um legítimo exemplar da GeForce GTX 590.

 

Arquitetura GF110

O GF100 foi sem dúvida para a NVIDIA o passo à frente mais significativo em termos de avanço na macro-arquitetura das GPUs desde o lançamento da primeira G80, inaugurando o que se conhece muito bem hoje: o conceito de gráficos unificados e computação paralela.

Com a Fermi, os engenheiros da NVIDIA empregaram todo o seu conhecimento adquirido ao longo das duas últimas gerações, bem como todos os aplicativos, e desenvolveram uma abordagem totalmente nova de design para criar a primeira GPU computacional do mundo.

Conforme mencionado no início desta review, o GF110 é uma versão baseada e aprimorada do GF100. Podemos dizer que os engenheiros da NVIDIA tiraram “leite de pedra” da arquitetura Fermi. Graças a toda uma nova reengenharia pelo que passou o chip, com a utilização de transistores com menos perda de energia e dispostos em um novo arranjo físico, uma VGA equipada com chip GF110 consegue um maior desempenho com menor consumo que uma placa com o GF100.

Desta forma, a NVIDIA finalmente se viu “impedida” de construir uma placa 3D composta de duas GPUs de alto desempenho, uma vez que os fatores consumo de energia e dissipação de calor estavam agora sob controle.


(Die chip GF110)

Abaixo alguns pontos-chaves da arquitetura Fermi:

• Otimização na Performance de Precisão Dupla: Enquanto a performance de ponto flutuante de precisão única foi da ordem de dez vezes o desempenho dos processadores, algumas aplicações de computação por GPU necessitam de mais desempenho de precisão dupla;

• Suporte à ECC: O chamado ECC (Error-Correcting Code memory em tradução livre, código de correção de erro de memória) se encarrega de fazer os devidos testes e correções de erros de forma automática, muitas vezes de forma transparente e imperceptível ao sistema operacional. Assim, abre-se espaço para a utilização, de forma segura, de uma grande quantidade de GPUs em Data Centers, garantindo uma maior confiabilidade em sistemas críticos, tais como aplicações médicas, financeiras e militares;

• Hierarquia de Memória Cache Real: Alguns algoritmos paralelos eram incapazes de usar a memória compartilhada da GPU, de forma que os usuários solicitaram uma arquitetura real para ajudá-los nos desenvolvimentos das tarefas e programas;

• Mais Memória Compartilhada: Muitos programadores do ambiente CUDA solicitaram mais de 16 KB de memória compartilhada para os Streaming Multiprocessors como forma de acelerar as aplicações;

• Alternância de Contexto Mais Rápida: Muitos usuários desejavam uma alternância de contexto mais veloz entre aplicações e interoperações de computação e gráficos;

• Operações Atômicas mais Velozes: Os programadores necessitavam de operações atômicas de leitura-modificação-escrita mais velozes para se adequarem aos algoritmos paralelos.

Como resultado dos preceitos acima, a equipe de desenvolvimento da Fermi projetou um chip com imenso “poder de fogo”, trazendo ainda muitas inovações tecnológicas e que oferece um alto grau de programação e eficiência computacional.

Na verdade, o que a NVIDIA fez foi aperfeiçoar o GF100, de tal forma que fosse possível disponibilizar um chip com todo o poder da arquitetura Fermi, ou seja, com todos os 512 CUDA Cores ativos. Com a mesma estrutura de computação conjugada MIMD (Múltiplas Instruções, Múltiplos Dados) com os mesmos três bilhões de transistores em uma área aproximada de 530mm², portanto idêntica ao GF100, o GF110 teve ainda o benefício de herdar um amadurecimento no processo de fabricação – algo semelhante ao novo stepping pelo que passa um processador, mantendo as mesmas características básicas, como o clock, mas com um menor TDP (consumo de energia).


(Diagrama estrutural do chip GF110)

Como pode ser visto acima, na estrutura de processamento “host interface” (responsável por gerenciar os comandos do processador) há um grande bloco chamado pela NVIDIA de “Gigathread Engine”, composto de 4 GPCs (Graphics Processing Clusters), 6 controladores de memória, partições ROPs e cache L2 com 768KB. Vale ressaltar que cada GPC, que são na realidade grandes unidades de processamento e se comportam como mini GPUs independentes, possui quatro unidades de Streaming Multiprocessor (SMs), que por sua vez são compostas por 32 CUDA Cores. Desta forma, a GF110 é composta por 512 Shaders Processors (4 GPCs x 4 SMs x 32 CUDA Cores). Por se tratar de uma VGA dual-GPU, a GeForce GTX 590 conta assim com um total de 1.024 (2x512) CUDA Cores.

Em relação à quantidade de unidades de rasterização, a GF110 possui os mesmos 48 ROPs da GF100. Isso ocorre porque essas unidades estão arranjadas de um bloco funcional em separado dos Stream Processors. Assim, a GTX 590 tem 96 ROPs (2x48). Em se tratando das unidades de texturização das memórias, o chip GF110 tem 64 TMUs contra 60 do GF100. Esse aumento deu-se, novamente, em virtude da ampliação na quantidade de unidades de Stream Processors de 15 para 16, uma vez que cada SM conta com 4 TMUs, ou seja: 16 SMs x 4 TMUs = 64 TMUs contra 15 SMs x 4 TMUs = 60 TMUs. Mais uma vez, por estarmos falando de uma placa equipada com dois chips GF110, sua quantidade global de unidades de texturização é de 128 TMUs (2x64).

Em contrapartida aos Combinadores de Registros, Unidades de Shaders e Shaders Cores presentes nas gerações passadas, os novos CUDA Cores são o que existem de “última palavra” em termos de tecnologia. Tratam-se de unidades autônomas capazes de processar múltiplas instruções e múltiplos dados (arquitetura MIMD), em oposição ao SIMD (instrução única, múltiplos dados). Assim, os 512 CUDA Cores consistem de unidades de despachos, coletores de operações, duas unidades de processamento (inteiros e pontos flutuantes) e registradores de filas de resultados.



Para ser sincero, o cluster de Streaming Multiprocessor é a grande razão pela qual a arquitetura da Fermi poder ser vista como a mais eficiente em se tratando de unidade de processamento gráfico. Olhando para a imagem acima, podemos ver que os 32 CUDA Cores foram “empacotados” juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa comutação dinâmica auxilia os desenvolvedores de jogos a otimizar a performance de seus games, em virtude da arquitetura bastante flexível.

Além disso, há ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (32.768 entradas de 32-bit – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit etc). O cluster SM possui ainda quatro TMUs, cache de textura e o mais importante de tudo: Polymorph Engine.

As unidades de Polymorph Engine foram introduzidas na Fermi para lidar com uma enorme carga de trabalho advinda das novas tecnologias, como é o caso da API gráfica DirectX 11. Talvez a principal delas seja a badalada técnica de aprimoramento da qualidade das imagens, conhecida como Tessellation (Tess), onde aumenta-se de forma quase que exponencial a quantidade de triângulos em uma cena, exigindo assim o máximo da GPU.

Eis aqui um dos principais pontos geradores de discussão pela a web, já que AMD e NVIDIA possuem abordagens diferentes sobre o uso do Tessellation. Enquanto a AMD afirma que o uso em demasiado do recurso degrada sobremaneira a performance das VGAs sem trazer melhoras visuais perceptíveis, a NVIDIA diz o contrário, defendendo que, quanto maior a utilização do Tess, maior será a qualidade das imagens.

Ao que parece, não se trata de quem está com a razão, mas sim, quem está puxando a “sardinha para a sua brasa”. Pelo visto, cada empresa está defendendo o seu ponto de vista de acordo com os seus interesses, ou melhor, com os seus pontos fortes. É fato que as GeForces da geração Fermi se saem muito melhor que as Radeons da geração Evergreen (série 5000) em se tratando de Tessellation. O segredo está em suas arquiteturas. Enquanto as Radeons 5000 contam com apenas uma única unidade de processamento dedicada ao Tess, a NVIDIA equipou as novas GeForces com um conjunto de várias unidades, como é o caso da GeForce GTX 590, que conta com um total de 32 Polymorph Engines (16 por GPU).

Embora a AMD tenha ampliado e aprimorado a unidade de processamento do Tessellation nas Northern Islands (Radeons 6000), prometendo ganhos de até 200% sobre as 5000, ainda assim, o fato destas contarem com apenas duas unidades (a Radeon 6990 possui quatro) é fator decisivo em favor das GeForces.

Apesar de utilizar a mesma configuração Streaming Multiprocessor do GF100, o GF110 recebeu dois aprimoramentos-chave na arquitetura como forma de trazer mais performance. Para começar, o novo chip suporta agora toda a velocidade do filtro de textura FP16, o que acelera o processamento de certas aplicações/imagens com muitas texturas. Outra melhoria foi a adição do suporte a novos formatos de polígonos que aprimoram a eficiência do Z-cull. De acordo com a NVIDIA, essas “simples” novidades aprimoraram o desempenho da placa em até 15% em certas condições de alguns jogos.

Assim como o GF100, o GF110 suporta o filtro de antialiasing modo 32x CSAA (8+24x), com 33 níveis de transparência, com expressivo ganho de desempenho sobre a GT200 (GeForce GTX 295). O melhor de tudo é que, segundo a NVIDIA, a degradação da performance será muito pouca em relação ao modo tradicional em 8X, variando entre 8-15%. Para quem critica e acha que a utilização de filtro de AA acima de 8x não traz ganho visível, segue abaixo uma prova, seguindo o pensamento de que uma imagem vale mais que mil palavras.



Em relação às memórias caches, enquanto a GT200 estava limitada ao compartilhamento de nível L2, a Fermi conta ainda com o nível L1, auxiliando sobremaneira o trabalho dos Shaders Processors. São ao todo 1MB de cache L1 e 768KB de L2. Tratam-se de números interessantes. Enquanto a NVIDIA foi em uma direção (colocando mais memória L1 do que L2), a ATI foi justamente em direção oposta, equipando a linha Evergreen com mais cache L2 do que L1.

De acordo com Henry Moreton, engenheiro da NVIDIA, o cache L1 da Fermi pode ultrapassar a impressionante marca de 1,5TB/s de largura de banda. Valor muito semelhante ao que chega a L2.

Ainda dentro do assunto memória, a arquitetura da Fermi é composta de seis partições de 64 bits, resultando assim em um total de 384 bits de interface de memória! Ao todo, a Fermi é capaz de suportar até 6GB de VRAM, embora a GTX 590 conte com “apenas” 3GB (1,5GB por GPU).



 

Os recursos da GTX 590

Abaixo, um resumo das principais especificações da GeForce GTX 590.


• 3 bilhões de transistores por GPU;
• “Segunda geração” da litografia em 40 nm;
• Área do die (estimado): 530mm2;
• Frequência de operação das texturas e ROPs (GPU): 607MHz;
• 1.024 (2x512) CUDA Cores/shader processors;
• Frequência de operação dos CUDA cores: 1215MHz;
• Frequência de operação das memórias: 3414MHz (GDDR5);
• Quantidade de memória: 3GB (1.5GB por GPU);
• Interface de memória: 384bits por GPU;
• Consumo de energia/TDP: máximo de 365 watts;
• Limiar térmico da GPU em 97° C;
• Suporte às tecnologias: CUDA, DirectX 11/Shader Model 5.0, GeForce 3D Vision, NVIDIA 3D Vision Surround, NVIDIA PhysX,  PureVideo HD Technology, Badaboom, HDMI 1.4, OpenGL 3.2, OpenCL, DirectCompute, Windows 7.

E ainda:

• Terceira Geração do Streaming Multiprocessor (SM);
- 32 CUDA cores por SM, 4x mais que a GT200;
- Performance até 8x maior em ponto flutuante de precisão dupla em relação a GT200;
- Dual Warp Scheduler, que simultaneamente agenda e despacha instruções de duas rasterizações independentes;
- 64 KB de RAM com uma partição configurável de memória compartilhada e cache L1.

• Segunda Geração de Execução de Thread Paralelo ISA
- Espaço de Enderçamento Unificado com suporte completo a C++;
- Otimização para OpenCL e DirectCompute;
- Precisão completa para IEEE 754-2008 32-bit e 64-bit;
- Caminho completo para inteiros de 32-bit e extensões de 64-bit;
- Instruções de acesso a memória para suportar a transição no endereçamento de 64-bit;
- Melhora na performance através da técnica de Predicação.

• Subsistema de Memória Otimizada
- Utilização da hierarquia NVIDIA Parallel DataCacheTM com L1 ajustável e L2 unificada;
- Primeira GPU com suporte a memórias ECC;
- Otimização no desempenho das operações atômicas de memória.

• NVIDIA GigaThreadTM Engine
- 10x mais rápido nas aplicações de alternância de contexto;
- Execução simultânea de Kernel;
- Execução de blocos de theads fora de ordem;
- Engine de transferência de memória com dupla sobreposição.


(Chip GF110)

Conforme já mencionado na seção anterior, os engenheiros da NVIDIA se superaram ao construírem uma placa equipada com dois chips de alto desempenho da geração Fermi, mantendo como base a mesma litografia para construir o GF100. Essa façanha só foi possível graças ao processo de reengenharia pelo que passou o GF100, além é claro, do amadurecimento no processo de fabricação em 40nm. Tudo isso permitiu o desenvolvimento de um chip com uma relação entre desempenho e consumo de energia bem mais eficiente em relação à geração anterior.

Para suprir os 365W, a VGA possui dois conectores de alimentação extra de oito pinos, fornecendo assim 300W adicionais aos 75W do conector PCIe. De acordo com a NVIDIA, é recomendado o uso de uma fonte real de 700W.

Eis aqui um ponto que merece um aprofundamento um pouco maior. Como forma de não estourar o limite das especificações do PCI-SIG (entidade que cuida do padrão PCI e PCI Express), que fala em um TDP máximo de 375W, seja pela combinação de conectores de seis e/ou oito pinos, a NVIDIA se viu “obrigada” a reduzir os clocks da placa em relação à GeForce GTX 480. Dessa forma, ao invés de contar com GPU/CUDA Cores/Memória respectivamente em 772/1544/4008Mhz, a companhia teve que, inevitavelmente, reduzir os clocks da GTX 590, apesar de toda a reengenharia do GF110. Assim, a placa tem frequências de operações bem semelhantes às da GTX 470 (GPU em 607Mhz e Shaders em 1215Mhz), à exceção das memórias que, em vez de trabalharem em 3348Mhz, operam em 3414Mhz.

Apesar dos clocks reduzidos em relação à GTX 580, o fato de contar com o dobro das especificações é fator mais do que suficiente para conferir à GeForce GTX 590 uma ampla vantagem sobre a sua “irmã menor”.

Como forma de acomodar dois chips GF110 em um único PCB, a NVIDIA construiu uma placa bastante robusta, composta de uma placa e circuito impresso de 12 camadas com duas onças (aproximadamente 56,7g) de cobre e VRM de dez fases (sendo oito para as duas GPU e duas para as memórias).



 

Sistema de refrigeração VCT

Outro importante destaque presente na GeForce GTX 590 foi a utilização de um novo sistema de refrigeração utilizando a reconhecida tecnologia conhecida como Câmara de Vapor (Vapor Chamber Technology -VCT).

As câmaras de vapor são, em sua essência, heatpipes planos/achatados que se utilizam dos princípios da evaporação e condensação para produzirem um ambiente de alta condutividade térmica.

A VCT é uma espécie de câmara selada a vácuo composta de três “zonas”: de vaporização, condensação e transporte. O funcionamento é relativamente simples. O calor emanado pela GPU aquece o fluído dentro da zona de vaporização, fazendo-o evaporar. O vapor do fluído se move através do vácuo até que se choque com a zona de condensação. Nesse estágio, o vapor se condensa, voltando ao seu estágio inicial líquido (liberando o calor no processo). O fluído é então absorvido pela zona de transporte (por meio do processo de capilaridade), onde é então levado de volta para o ponto inicial do processo, a zona de vaporização, fechando o ciclo para então ser repetido.


As câmaras de vapor podem ter uma imensa combinação de tipos de materiais e fluídos, dependendo principalmente da temperatura de operação do sistema de refrigeração. A combinação mais utilizada para dispositivos eletrônicos é formada por cobre e água, devido a sua temperatura de funcionamento poder variar de 10 °C a 250 °C. Contudo, para se atingir patamares mais extremos, são utilizados outros tipos de materiais e fluídos.

Para se ter ideia da eficiência da tecnologia, a capacidade de condução térmica chegou, em alguns caso,s a ultrapassar em mais de 30 vezes a condutividade do cobre e em mais de dez vezes o grafite pirolítico e o diamante.

Além disso, a NVIDIA utilizou um novo exaustor (ventoinha reversa), composto por inúmeras melhorias e aperfeiçoamentos, com o intuito de melhorar sua capacidade de exaustão térmica, além de reduzir a sua vibração e, consequentemente, gerar menor ruído.


Outro diferencial da GTX 590 é que ela utiliza um novo algoritmo adaptativo de controle da rotação da ventoinha, que suaviza a aceleração e desaceleração na rotação da FAN.

Enquanto a GTX 580 tem apenas um bloco de dissipação, com a ventoinha na extremidade oposta ao bracket de conexões, a GTX 590 tem sua FAN posicionada no centro do PCB, jogando ar frio igualmente para os dois heatsinks, o que aumenta a sua eficiência em termos de dissipação térmica. Entretanto, com a mudança, apenas parte do ar quente é jogada para fora do gabinete, enquanto outra permanece em seu interior.

Fechando o “pacote” de novidades no quesito cooler, a nova GeForce conta com um novo design na cobertura “carenagem” da placa, que por sinal pode ser facilmente removido para o processo de limpeza. As costas da cobertura são, agora, angulares, o que, de acordo com a NVIDIA, ajuda a jogar o ar quente para o bracket, além de melhorar o fluxo de ar em sistemas multi GPU (SLI).

 

Monitoramento de Energia

Além do tradicional monitoramento que protege as GPUs de eventuais problemas causados pelo excesso de temperatura, a NVIDIA equipou a GeForce GTX 590 com mais um recurso de proteção para a VGA, chamado de monitoramento de energia.

Trata-se de um conjunto de circuitos presentes no PCB da placa, que faz o monitoramento em tempo real da corrente elétrica e voltagem transmitida em cada rail 12V, seja via conector extra de seis pinos, oito pinos ou mesmo via PCI Express.

Assim, o driver é capaz de ajustar dinamicamente (e de forma transparente ao usuário) a performance em certas aplicações de uso pesado, como é o caso do Furmak e OCCT, caso os níveis de corrente e voltagem excedam os limites da VGA.


 

Enfim o DirectX 11

Como foi dito no início desta review, um dos grandes trunfos da geração Fermi é o suporte à nova API gráfica da Microsoft, o DirectX 11, focada especialmente em seu principal recurso em termos de aprimoramento da qualidade das imagens: o Tessellation.

As novidades presentes no DX11 são:

- DirectCompute 11;
- Hardware Tessellation;
- High Definition Ambient Occlusion;
- Shader Model 5.0;
- Depth of Field; e
- Renderização Multi-threaded (Multi-threading).



DirectCompute 11
O DirectCompute é um dos grandes trunfos do DX11, pois possibilita que os desenvolvedores utilizem a GPU para o processamento de outras tarefas alheias à renderização 3D. Trata-se do conceito por trás do termo GPGPU, que transforma a placa de vídeo em um processador.

Os benefícios não ficam restritos às aplicações gerais. Nos games, por exemplo, é possível programar para que a GPU cuide de tarefas como o processamento e filtro das imagens (conceito de post processing). Ela também pode ficar responsável por outros aspectos, como o Order Independent Transparency - OIT (técnica de sobreposição de objetos que aperfeiçoa o efeito de semi-transparência – como, por exemplo, na criação de efeito de fogo, fumaça, cabelo, vidro), a renderização de sombras, a física e a inteligência artificial, além de prevenir erros no processamento da priorização da formação das imagens.

Não é apenas o quesito qualidade que foi beneficiado com o OIT. Enquanto o método Simple Alpha Blending (SAB) presente no DX10 necessita de 64 passagens para a renderização, o OIT requer uma única leitura, ou seja, há também uma expressiva otimização do processo.

Hardware Tessellation
Trata-se de um dos benefícios mais aguardados pela indústria dos jogos eletrônicos.

Embora a ATI tenha implementado a tecnologia Tessellation já nas Radeons HD série 2000, somente agora tal funcionalidade começa a ser utilizada em sua plenitude, em virtude da adição de dois tipos de shaders (Hull e Domain) ao Shader Model 5.0.

De forma simplista, trata-se da tecnologia que adiciona, em tempo real, mais detalhes aos objetos 3D. Para tanto, subdivide-se um objeto/superfície em pedaços menores, acrescentando polígonos mais simples (de fácil execução).

Em outras palavras, ao invés de a GPU gastar um grande tempo para o processamento de um objeto único (ou parte de um grande objeto) e complexo de uma única vez, o Tessellation “quebra” o mesmo em partes menores de forma a tornar a tarefa mais simples e rápida.

Assim, os desenvolvedores estão agora “impedidos” de acrescentar mais objetos e detalhes aos games. Com o Tessellation, o processamento dos terrenos/solos será muito mais simples e rápido, sem contar que permitirá que os programadores criem texturas e maiores detalhes - como a deformação dinâmica - resultando em um maior realismo ao jogo.

Nas fotos abaixo, é possível perceber com nitidez a diferença na qualidade da imagem quando a tecnologia é utilizada.




(imagens à esquerda sem a técnica; e à direita com a técnica)

High Definition Ambient Occlusion
Trata-se de outra técnica de efeito de pós-processamento de imagem, que melhora as sombras e luzes, além de aumentar a sensação de profundidade dos objetos (3D).

Para isso, a Microsoft disponibilizou dois novos métodos de compressão de texturas: os filtros BC6 e BC7. O primeiro oferece uma taxa de compressão de 6:1 com 16 bits por canal e sem perdas, mostrando-se uma texturização eficiente e de alta qualidade para a iluminação HDR. Já o BC7 oferece compressões de 3:1 com o padrão de cores RGB ou 4:1 para Alpha.


Shader Model 5.0
O DX11 introduz a versão 5.0 do Shader Model para a linguagem de programação HLSL, na qual adiciona precisão dupla para o processo, permitindo o uso específico dos shaders com polimorfismo, objetos e interfaces.

Na verdade, diferentemente das versões anteriores, o SM 5.0 não traz grandes avanços em termos de capacidades, mas promete facilitar o trabalho dos desenvolvedores ao introduzir certos conceitos de programação orientada a objetos.

Depth of Field
O método adiciona efeitos bem interessantes envolvendo o foco da imagem (primeiro plano) e o plano de fundo, para dar um aspecto cinemático às imagens.

O Depth of Field utiliza um filtro de núcleo nos pixels da imagem processada como um efeito de pós-processamento. Este utiliza os dados dos pixels adjacentes para criar efeitos como borrado de movimentos, mapeamento de tom, detecção de bordas, suavização e nitidez.

Renderização Multi-threaded
É a técnica pela qual as GPUs processam os dados de forma simultânea, e não mais em sequência como em uma fila. O ganho, claro, está na eficiência no processamento, resultando em uma melhor performance.

Embora existam pouquíssimos jogos prontos ou em desenvolvimento sob o DirectX 11, é justo dizer que a sua adoção está sendo feita de forma mais acelerada em relação à versão 10.

 

Outras tecnologias

CUDA

Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units).

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip gráfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estágios programáveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não gráficos.

Apresentada inicialmente em 2007, a tecnologia CUDA está presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x.

De acordo com vários experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano está na arquitetura por trás do chip gráfico, massivamente focado na computação paralela, graças à imensa quantidade de “cores”/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Dessa forma, aplicações voltadas para a biologia, física, simulações, criptografia, dentre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA.

No campo dos games, a renderização dos gráficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como é o caso, por exemplo, dos cálculos dos efeitos da física (como fumaça, fogo, fluidos...)

Atualmente, é o processo de GPGPU mais difundido no mercado, contando com mais de 100 milhões de placas compatíveis.

PhysX

Embora seja uma das grandes “vedetes” dos games modernos, a tecnologia de processamento da física já vem de alguns anos.

Lançado inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trás da tecnologia.

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Desta forma, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs.

Muito bem, mas o que vem a ser exatamente tal cálculo da física presente no PhysX? Trata-se da técnica na qual o chip gráfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador, ao adicionar ambientes físicos vibrantes, de imersão total.

A física é o próximo passo na evolução dos jogos. Trata-se da forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma já programada. Para os praticantes, os jogos são bons, mas falta o realismo necessário para produzir a verdadeira sensação de imersão.

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessária para produzir a física avançada e realista nos jogos de próxima geração, deixando para trás os efeitos de animação pré-fabricados.

É através do cálculo da física que, por exemplo, uma explosão parece mais real para o usuário, uma vez que se pode gerar um verdadeiro “efeito dominó” por trás deste evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo em si e a fumaça.

O PhysX é responsável, dentre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços;
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas;
• Novos e incríveis efeitos nos efeitos dos disparos de armas;
• Tecidos que se enrugam e rasgam naturalmente;
• Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)

Ironias à parte, atualmente é possível utilizar, por exemplo, uma GeForce mais simples como uma PPU (exclusivo para o processamento da física), deixando uma segunda placa da NVIDIA de classe superior responsável para o processamento principal. Infelizmente, a companhia bloqueou em seus drivers a utilização de uma GeForce em conjunto com uma Radeon.

Na teoria, uma placa da ATI até pode realizar os cálculos da parte física sem possuir o PhysX, mas, na prática, o resultado é desastroso, derrubando os FPS para níveis que podem, em certos casos, inviabilizar a prática do jogo.

3D Vision (óculos 3D)

Lançado no início de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado.

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho humano).

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação seqüencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.

Trata-se, na verdade, de uma ação extremamente ambiciosa e ousada da NVIDIA, uma vez que tem que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa “The Way It's Meant To Be Played”, em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.

Vale ressaltar que a tecnologia não está limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:

• Óculos Sem Fio 3D Estereoscópico Ativo
Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plástico.

• Emissor Infravermelho de alta potência (porta USB)
Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real.

• Monitores Ultra-Flexíveis
Projetado para os monitores LCD de 120Hz ViewSonic e Samsung, HDTVs Mitsubishi DLP 1080p, e projetores DepthQ HD 3D, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos. 

• Softwares de Compatibilidade
Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI, PhysX, e o Microsoft DirectX 10.

• Visualizador 3D
Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


Não bastasse tudo isso, recentemente a NVIDIA ampliou a tecnologia, com o lançamento do 3D Vision Surround (imagem acima), que nada mais é do que ampliar a capacidade para até tres monitores simultamente, formando assim uma ampla área de visualização em 3 dimensões.

Para saber mais detalhes sobre a tecnologia, leia nossa review completa do 3D Vision aqui.

SLI

Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os gráficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.

Sendo assim, a tecnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é a mesma: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação gráfica, destinada a aumentar o poder de processamento disponível nas placas 3D.

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a “engavetada” até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trás do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)
Trata-se do método em que se analisa a imagem processada, a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em várias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Este é o modo padrão usado pela configuração SLI usando duas placas de vídeo.

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)
Aqui, cada GPU renderiza frames/quadros inteiros em sequência - uma trabalhando com os frames ímpares e outra ficando responsável pelos pares, um após o outro. Quando a placa escrava/secundária finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.

• AFR de SFR
Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Desta forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessário, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.

• SLI Antialiasing
Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado, pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não há grandes problemas em utilizar o PCI Express na configuração x8.

Atualmente, não há restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que as mesmas possuam o mesmo chip gráfico. No início, a tecnologia restringia o uso de VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado.

PureVideo

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuário poderá ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web.

O PureVideo possui os seguintes recursos:

• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU;

• Aceleração WMV de Alta Definição por hardware: Suporte programável ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD;

• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;

• Desentrelaçamento temporal/espacial adaptável: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos;

• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução;

• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a área da tela de reprodução;

• Display Gamma Correction: Detecção automática de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela;

Badaboom

Trata-se da tecnologia utilizada para a conversão de diferentes formatos de streaming multimídia para utilização em outros meios. A grande diferença do Badaboom para a grande maioria dos outros programas existentes no mercado é que, enquanto seus concorrentes utilizam o processador para executar a tarefa, a solução da NVIDIA faz uso de outra tecnologia, a CUDA, ou seja, da GPU. Desta forma, o processo é realizado de forma muito mais rápida e eficiente.

Outro benefício é que ao deixar a CPU livre, o usuário poderá realizar outras atividades, como por exemplo, navegar pela web. Na conversão tradicional via processador, a máquina fica praticamente inoperante para outras tarefas.

Na versão 1.2.1, o Badaboom Media Converter é vendido por US$30 e possui como um dos grandes destaques a facilidade na interface. O usuário necessitará apenas escolher a origem, ajustar as configurações e definir o destino.

Embora seja focado para os produtos da Apple, como iPhone, iPod e Apple TV, o usuário poderá definir ainda uma série de opções de saída, como Xbox 360, PS3, PSP e HTPCs.



 

Unboxing e Fotos

Abaixo uma série de fotos da GeForce GTX 590, modelo referência da Nvidia.

Reparem o acabamento seguindo a linha das demais placas da série GTX 500, com destaque para a base superior do sistema de cooler, que pode ser removida facilmente, facilitando a limpeza interna, importente já que um dos grandes problemas de qualquer tipo de hardware é o acumulo de poeira. Destaque também para os dois conectores de força de 8 pinos, semelhante a 6990.

Um uma das fotos da placa aberta, reparem que existe um conector de força ligado a uma base presa em uma das laterais da placa. Trata-se de um LED luminoso que fica por baixo do "logo" GeForce, dando um charme a mais quando o ambiente tiver pouca luz.



Nas fotos abaixo vemos a placa lado lado com uma GeForce GTX 580, mostrando que o PCB é pouco maior do que a placa top single chip.

Já na comparação com a Radeon HD 6990 vemos uma diferença bastante considerável no tamanho, sendo a 6990 3cm maior.


 

Máquina/Softwares utilizados

Como de costume, utilizamos uma máquina TOP de linha baseada em uma mainboard Gigabyte GA-X58A-UD9 com processador Intel Core i7 980X, evitando, assim, qualquer dúvida sobre gargalo do processador.

As placas utilizadas nos comparativos foram, por parte da Nvidia os GeForce GTX 590, 580 e 480, já pode parte da AMD (ATI), os modelos XFX Radeon HD 6990, 6970, 5970 e 5870. Já as da Nvidia foram os modelos .

A seguir, os detalhes da máquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

Máquina utilizada nos testes:
- Mainboard Gigabyte GA-X58A-UD9
- Processador Intel Core i7 980X @ 4.2GHz
- Memórias 4 GB DDR3-1600MHz Corsair
- HD 1TB Sata2 Western Digital Black
- Fonte XFX 850W Black Edition
- Cooler Venomous X

Sistema Operacional e Drivers:
- Windows 7 64 Bits
- Intel INF 9.1.1.1025
- NVIDIA ForceWare 267.71 Beta: GeForce GTX 590
- NVIDIA ForceWare 266.58 WHQL: Demais placas Nvidia
- ATI Catalyst 11.4 Preview: XFX Radeon HD 6990
- ATI Catalyst 10.12 hotfix: Demais placas ATI

Configurações de Drivers:
3DMark
- Anisotropic filtering: OFF
- Antialiasing - mode: OFF
- Vertical sync: OFF
- Demais opções em Default

Games:
- Anisotropic filtering: Variado através do game testado
- Antialiasing – mode: Variado através do game testado
- Texture filtering: High-Quality
- Vertical sync: OFF
- Demais opções em Default

* Todos os filtros foram aplicados via game testado. Apenas o Starcraft II, que não possui configuração interna de filtros, nos obrigou a configurar via drivers.

Aplicativos/Games:
- 3DMark Vantage 1.0.2 (DX10)
- 3DMark 11 1.0.1 (DX11)
- Unigine HEAVEN Benchmark 2.1 (DX11)

- Aliens vs Predator (DX11)
- Crysis Warhead (DX10)
- DiRT 2 (DX11)
- F1 2010 (DX11)
- HAWK 2 (DX11)
- Just Cause 2 (DX10/10.1)
- Mafia II (DX9)
- Metro 2033 (DX11)
- StarCraft II (DX10)

 

GPU-Z, Temperatura, Ruído

Abaixo temos a tela principal do aplicativo GPU-Z com detalhes técnicos da Nvidia GeForce GTX 590.


Temperatura
Começamos pelo teste de temperatura com o sistema em modo de espera. Podemos ver que o comportamente do sistema de cooler da GTX 590 é muito bom nessa situação, com pouco ruido e mantendo a placa em baixa temperatura, apenas 37º graus, o melhor desempenho dos modelos testados.

CONFIGURAÇÃO PARA O TESTE:

LOW, AA 0x AF 0x, 1280x720

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | NVIDIA GEFORCE GTX 590 ]

GIGABYTE GA-Z77X-UP7
32.5
ASUS Maximus V Extreme
31.8

Com o sistema rodando o 3DMark Vantage a temperatura sobe bastante, ficando em 85º, 4º a mais que a 6990. Apesar da placa da AMD se comportar um pouco melhor, a temperatura da GTX 590 ainda está dentro da normalidade.

CONFIGURAÇÃO PARA O TESTE:

High, AA 0x AF 0x, 1280x720

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ CRYSIS 2 | NVIDIA GEFORCE GTX 590 ]

GIGABYTE GA-Z77X-UP7
33.0
ASUS Maximus V Extreme
32.7

 

3DMark Vantage, 3DMark 11

3DMark Vantage
Embora considerados testes bastante polêmicos por parte da comunidade, por serem tachados como benchs sintéticos que não refletem muitas vezes a condição da placa no mundo real (leia-se jogos), a série 3DMark é um dos indicadores de performance mais amplamente utilizados em todo o mundo e não poderíamos refutá-lo dos testes.

Começamos com um resultado impressionante, primeira placa trabalhando sozinha que testamos a ultrapassar os 40k no 3DMark Vantage em modo performance. A placa tem um aumento de 18% sobre o resultado da 6990 e 35% sobre o resultado da GTX 580.

CONFIGURAÇÃO PARA O TESTE:

Memory-Copy

OBS.:

  • Resultados em MBytes/sec
  • Quanto MAIOR, melhor

[ MAXXMEM | NVIDIA GEFORCE GTX 590 ]

ASUS Maximus V Extreme - 3770K @ 4.8GHz (PERFIL)
21857
GIGABYTE GA-Z77X-UP7 - 3770K @ 4.8GHz
21655
ASUS Maximus V Extreme
20979
GIGABYTE GA-Z77X-UP7
19911

3DMark 11
Em cima do 3DMark 11 temos uma briga melhor, na verdade empate técnico, apesar da ligeira vantagem para a 6990, que ficou 2% a frente da GTX 590, gerando ainda mais expectativa nos demais teste.

Na comparação com a GTX 580, a 590 teve um ganho de 38% no desempenho, um pouco abaixo do esperado, principalmente se analisarmos o ganho da 6990 sobre a 6970, superior a 60%.

CONFIGURAÇÃO PARA O TESTE:

R11.5: Teste modo CPU (multi)

OBS.:

  • Resultados em pontos calculados pelo aplicativo
  • Quanto MAIOR, melhor

[ CINEBENCH | NVIDIA GEFORCE GTX 590 ]

GIGABYTE GA-Z77X-UP7 - 3770K @ 4.8GHz
9.67
Maximus V Extreme - 3770K @ 4.8GHz (MANUAL)
9.66
ASUS Maximus V Extreme - 3770K @ 4.8GHz (PERFIL)
9.12
ASUS Maximus V Extreme
7.97
GIGABYTE GA-Z77X-UP7
7.12

 

Unigine Heaven 2.1

Unigine HEAVEN 2.1 - DirectX 11
Trata-se de um dos testes sintéticos mais “descolados” do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API gráfica DirectX 11, como é o caso do Tessellation.

O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation, ambas a 1920x1080 com o filtro de anti-aliasing em 8x e anisotropic em 16X.

No teste sem tessellation a placa dual chip TOP da AMD se sai melhor, mesmo que por apenas 3%.

CONFIGURAÇÃO PARA O TESTE:

OBS.:

[ | NVIDIA GEFORCE GTX 590 ]


Com tessellation ativado em modo normal a briga fica ainda mais acirrada, com as duas placas praticamente coladas, apenas 23 pontos, que representam 1%.

CONFIGURAÇÃO PARA O TESTE:

CS5: Filtro Extrude (CPU) res.: 5182x9754

OBS.:

  • Resultado em tempo decorrido para aplicar o filtro
  • Size: 10 pixels, Depth: 20, Random
  • Imagem de teste com resolução 5182x9754
  • Tempo medido em segundos
  • Quanto MENOR, melhor

[ ADOBE PHOTOSHOP | NVIDIA GEFORCE GTX 590 ]

GIGABYTE GA-Z77X-UP7 - 3770K @ 4.8GHz
564.9
Maximus V Extreme - 3770K @ 4.8GHz (MANUAL)
566.1
ASUS Maximus V Extreme - 3770K @ 4.8GHz (PERFIL)
567.7
ASUS Maximus V Extreme
681.9
GIGABYTE GA-Z77X-UP7
772.1

 

Aliens vs Predator

Chegamos finalmente ao ponto alto da review: os testes em jogos!

Nada melhor do que começar por Aliens vs Predator, game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica.

Alias, nada melhor para a AMD, afinal suas placas se saem melhor em cima do game, como vemos abaixo, a GTX 590 apesar de superar a 5970, não consegue fazer frente a 6990.

Já o ganho da GTX 590 sobre a GTX 580 foi pouco acima de 50% na média geral.

CONFIGURAÇÃO PARA O TESTE:

ENTRY, 1024x600

OBS.:

  • Aplicativo baseado em DirectX 11
  • Resultados em pontos calculados pelo aplicativo
  • Quanto MAIOR, melhor

[ 3DMARK 11 | NVIDIA GEFORCE GTX 590 ]

GIGABYTE GA-Z77X-UP7 - 3770K @ 4.8GHz
1573
GIGABYTE GA-Z77X-UP7
1564
Maximus V Extreme - 3770K @ 4.8GHz (MANUAL)
1517
ASUS Maximus V Extreme - 3770K @ 4.8GHz (PERFIL)
1498
ASUS Maximus V Extreme
1490

CONFIGURAÇÃO PARA O TESTE:

LOW, AA 0x AF 0x, 1280x720

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | NVIDIA GEFORCE GTX 590 ]

GIGABYTE GA-Z77X-UP7 - 3770K @ 4.8GHz
33.4
GIGABYTE GA-Z77X-UP7
32.5
Maximus V Extreme - 3770K @ 4.8GHz (MANUAL)
32.1
ASUS Maximus V Extreme - 3770K @ 4.8GHz (PERFIL)
32.0
ASUS Maximus V Extreme
31.8

CONFIGURAÇÃO PARA O TESTE:

High, AA 0x AF 0x, 1280x720

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ CRYSIS 2 | NVIDIA GEFORCE GTX 590 ]

GIGABYTE GA-Z77X-UP7 - 3770K @ 4.8GHz
33.9
GIGABYTE GA-Z77X-UP7
33.0
ASUS Maximus V Extreme - 3770K @ 4.8GHz (PERFIL)
32.8
Maximus V Extreme - 3770K @ 4.8GHz (MANUAL)
32.8
ASUS Maximus V Extreme
32.7

 

Crysis Warhead

O FPS futurístico da Crytek fez muito barulho por trazer uma qualidade gráfica bem superior aos concorrentes e por ser considerado por muito tempo como um dos games que mais exigia recursos do computador, principalmente das placas 3D. Assim, nada melhor do que submeter as VGAs da review pelo crivo de "Crysis Warhead".

Nestes testes, as duas placas chegaram a resultados muito próximos, com uma leve vantagem para a GTX 590 em todas as situações, com desempenhos de 2 a 3% superiores que os obtidos pela HD 6990. Em relação a GTX 580, o ganho de performance oscilou entre 40 e 50 por cento.

CONFIGURAÇÃO PARA O TESTE:

Dispositivo analisado para drive HD (leitura)

OBS.:

  • Resultado em segundos
  • Teste copiando 16GB entre o HD e o dispositivo de armazenamento
  • Quanto MENOR, melhor

[ CóPIA DE ARQUIVOS (16GB) | NVIDIA GEFORCE GTX 590 ]

Synology Synology DS213
662
WD My Book Live (2TB)
1158
Seagate BlackArmor NAS 220
1659
WD WD Caviar Blue 500 GB SATA II
1826

CONFIGURAÇÃO PARA O TESTE:

Relação dos FPSs e preço

OBS.:

  • Cálculo baseado na média de fps nos testes, dividido pelo preço da placa e multiplicado por 100
  • Hardwares comparados: 42

[ RELAçãO CUSTO X DESEMPENHO | NVIDIA GEFORCE GTX 590 ]

XFX Radeon HD 7850 BE OC DD 2GB
8.463
ZOTAC GeForce GTX 560 1GB
7.914
XFX Radeon HD 7770 BE OC DD 1GB
7.542
XFX Radeon HD 6850 1GB
7.353
XFX Radeon HD 6790 1GB
7.193
ASUS GeForce GTX 550 Ti DirectCU 1GB
7.192
XFX Radeon HD 6670 1GB
6.990
ASUS GeForce GTX 660 DirectCU II TOP 2GB
6.984
HIS Radeon HD 7870 IceQ X Turbo X 2GB
6.778
XFX Radeon HD 7750 CORE EDITION 1GB
6.714
HIS Radeon HD 7770 iCooler 1GB
6.705
XFX Radeon HD 6870 1GB
6.673
XFX Radeon HD 6950 MOD 6970 1GB
6.545
ASUS GeForce GTX 650 Ti DirectCU TOP 1GB
6.540
NVIDIA GeForce GTX 650 Ti 2GB
6.403
ASUS GeForce GTX 660Ti DirectCU II 2GB
6.341
MSI GeForce GTX 660Ti Power Edition 2GB
6.286
HIS Radeon HD 7950 IceQ Turbo 3GB
6.285
NVIDIA GeForce GTX 660 2GB
6.163
PowerColor Radeon HD 7950 PCS+ 3GB
6.153
AMD Radeon HD 7870 + 7850 Crossfire 2x2GB
5.965
XFX Radeon HD 6950 1GB
5.960
ASUS Radeon HD 7970 MATRIX PLATINUM 3GB
5.925
MSI GeForce GTX 650 PE OC 1GB
5.862
HIS Radeon HD 7970 IceQ X² Turbo 3GB
5.707
NVIDIA GeForce GTX 570 1.25GB
5.694
XFX Radeon HD 7970 BE DD 3GB
5.619
NVIDIA GeForce GTX 560 Ti 1GB
5.612
eVGA GeForce GTX 670 FTW 2GB
5.272
AMD Radeon HD 7950 Crossfire 2x3GB
5.132
NVIDIA GeForce GTX 670 2GB
5.075
MSI GeForce GTX 580 Lightning Xtreme Edition 3GB
4.760
NVIDIA GeForce GTX 680 2GB
4.745
NVIDIA GeForce GTX 680 2GB
4.726
ASUS GeForce GTX 680 DirectCU II TOP 2GB
4.654
HIS Radeon HD 6990 4GB
4.633
AMD Radeon HD 7970 Crossfire 2x3GB
4.521
XFX Radeon HD 6970 1GB
4.484
AMD Radeon HD 7970 + 7950 Crossfire 2x3GB
4.445
NVIDIA GeForce GTX 670 SLI 2x2GB
4.262
NVIDIA GeForce GTX 590 3GB
4.246
NVIDIA GeForce GTX 680 SLI 2x2GB
3.880
NVIDIA GeForce GTX 690 2x2GB
3.082

CONFIGURAÇÃO PARA O TESTE:

1 metro, sem barreiras

OBS.:

  • Valor medido com o aplicativo "iwconfig" do sistema Ubuntu 12.04
  • Resultado entregue em uma escala de 0 a 70
  • Quanto MAIOR, melhor

[ QUALIDADE DE SINAL | NVIDIA GEFORCE GTX 590 ]

Cisco Linksys E2500 (2.4GHz)
70
EnGenius EAP350
69
Cisco Linksys E2500 (5.0GHz)
68
Cisco Linksys RE1000
68
Edimax BR-6428n
68
Intelbras WRH 241
68

 

DiRT 2

"Colin McRae: Dirt 2", mais conhecido simplesmente como DiRT 2, é uma das séries de corrida off-road de maior sucesso da história da indústria dos jogos eletrônicos. Lançado em setembro de 2009, o game foi um dos primeiros a ser desenvolvido com o DirectX 11.

A placa single chip da Nvidia já havia alcançado um desempenho ligeiramente superior ao da HD 6990, nos testes neste game. Assim, naturalmente a placa dual chip aumentou ainda mais a diferença entre os resultados obtidos. A GTX 590 foi aproximadamente 45% superior a HD 6990, aumentando para mais 50% a vantagem em testes com resoluções maiores. Em relação a GTX 580, o ganho foi mais sutil, com 28% de ganho na resolução de 1280x1024, e chegando até 43% em 1920x1080.

CONFIGURAÇÃO PARA O TESTE:

3 metros, duas barreiras

OBS.:

  • Valor medido com o aplicativo "iwconfig" do sistema Ubuntu 12.04
  • Resultado entregue em uma escala de 0 a 70
  • Quanto MAIOR, melhor

[ QUALIDADE DE SINAL | NVIDIA GEFORCE GTX 590 ]

EnGenius EAP350
69
Cisco Linksys E2500 (2.4GHz)
61
Intelbras WRH 241
61
Cisco Linksys RE1000
58
Cisco Linksys E2500 (5.0GHz)
56
Edimax BR-6428n
52

CONFIGURAÇÃO PARA O TESTE:

10 metros, 3 barreiras, um roteador 2.4GHz

OBS.:

  • Valor medido com o aplicativo "iwconfig" do sistema Ubuntu 12.04
  • Resultado entregue em uma escala de 0 a 70
  • Quanto MAIOR, melhor

[ QUALIDADE DE SINAL | NVIDIA GEFORCE GTX 590 ]

EnGenius EAP350
45
Cisco Linksys E2500 (5.0GHz)
41
Cisco Linksys E2500 (2.4GHz)
36
Cisco Linksys RE1000
36
Edimax BR-6428n
36
Intelbras WRH 241
36

CONFIGURAÇÃO PARA O TESTE:

1 metro, sem barreiras

OBS.:

  • Intensidade do sinal, medida pelo aplicativo Xirrus WiFi Inspector
  • Resultado medido em dBM, em uma escala de -120 a -40
  • Valor multiplicado por -1 para retornar um número positivo
  • Quanto MENOR, melhor

[ INTENSIDADE DO SINAL | NVIDIA GEFORCE GTX 590 ]

Edimax BR-6428n
55
Cisco Linksys E2500 (5.0GHz)
57
Cisco Linksys RE1000
58
EnGenius EAP350
59
Intelbras WRH 241
60
Cisco Linksys E2500 (2.4GHz)
61

 

F1 2010

F1 2010 é um game baseado na engine EGO 1.5 da Codemasters, e que estreamos em nossas reviews. O jogo tem gráficos que chamam a atenção, especialmente na simulação de corridas na chuva, com uma qualidade nunca vista antes.

Neste teste, a placa levou vantagem em relação a 6990, até porque o resultado da placa TOP dual chip da AMD ficou bem aquem do esperado, nitidamente devido algum problema, seja do game ou dos drivers. A 5970 também mostrou que ainda pode fazer frente a soluções mais recentes, ficando em primeiro lugar na resolução de 1920x1080.

CONFIGURAÇÃO PARA O TESTE:

3 metros, duas barreiras

OBS.:

  • Intensidade do sinal, medida pelo aplicativo Xirrus WiFi Inspector
  • Resultado medido em dBM, em uma escala de -120 a -40
  • Valor multiplicado por -1 para retornar um número positivo
  • Quanto MENOR, melhor

[ INTENSIDADE DO SINAL | NVIDIA GEFORCE GTX 590 ]

Edimax BR-6428n
40
Cisco Linksys RE1000
45
Cisco Linksys E2500 (5.0GHz)
47
Cisco Linksys E2500 (2.4GHz)
47
Intelbras WRH 241
50
EnGenius EAP350
60

CONFIGURAÇÃO PARA O TESTE:

10 metros, 3 barreiras, um roteador 2.4GHz

OBS.:

  • Intensidade do sinal, medida pelo aplicativo Xirrus WiFi Inspector
  • Resultado medido em dBM, em uma escala de -120 a -40
  • Valor multiplicado por -1 para retornar um número positivo
  • Quanto MENOR, melhor

[ INTENSIDADE DO SINAL | NVIDIA GEFORCE GTX 590 ]

Edimax BR-6428n
21
Cisco Linksys E2500 (2.4GHz)
23
Intelbras WRH 241
26
Cisco Linksys E2500 (5.0GHz)
30
Cisco Linksys RE1000
30
EnGenius EAP350
35

CONFIGURAÇÃO PARA O TESTE:

Cópia do computador para o notebook

OBS.:

  • Cópia de 3,57 GB, com 8.863 Arquivos em 445 Pastas
  • Tempo para finalizar a cópia, em segundos
  • Cópia com um aparelho conectado via cabo, e outro via wireless
  • Tempo e transferência medido pelo aplicativo TeraCopy

[ TRANSFERêNCIA DE ARQUIVOS | NVIDIA GEFORCE GTX 590 ]

Cisco Linksys E2500 (2.4GHz)
1939
Cisco Linksys E2500 (5.0GHz)
2071
Edimax BR-6428n
2464
EnGenius EAP350
2500
Intelbras WRH 241
2821

 

Just Cause 2

Se tem um game no qual as placas da série Radeon dominam em todos os segmentos é o Just Cause 2, curiosamente apoiado pela NVIDIA.

A GTX 590 não conseguiu reverter este quadro, e assim como a GTX 580, fica com resultados inferiores aos alcançados pela 6990 e, inclusive, a 6970. A diferença entre a GTX 590 e a HD 6990 chega a casa dos 60%, no teste com resolução de 1280x1024. Comparada a GTX 580, houve uma melhora de 30 a 45%, de acordo com a resolução utilizada.

CONFIGURAÇÃO PARA O TESTE:

VERY HIGH, AA 4x AF 16x, 1366x768

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | NVIDIA GEFORCE GTX 590 ]

MSI GT70 0NE
69.3
Avell FullRange G1730 D1HJ
53.8
ASUS G75VW
40.9
Avell Titanium G1511
40.4
Avell Diamond P110 F1HA
22.3
Acer Aspire TimelineUltra M3
21.4
Samsung RF511-SD3
15.4

CONFIGURAÇÃO PARA O TESTE:

LOW, AA 0x AF 0x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | NVIDIA GEFORCE GTX 590 ]

MSI GT70 0NE
81.9
Avell FullRange G1730 D1HJ
56.4
ASUS G75VW
44.4
Avell Titanium G1511
38.1

CONFIGURAÇÃO PARA O TESTE:

HIGH, AA 2x AF 4x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | NVIDIA GEFORCE GTX 590 ]

MSI GT70 0NE
53.2
Avell FullRange G1730 D1HJ
40.5
ASUS G75VW
30.6
Avell Titanium G1511
29.6

 

Mafia II

Em Mafia II, game que trouxe a continuação do aclamado game de ação em terceira pessoa ambientado no obscuro mundo da máfia italiana dos anos 40 e 50 nos EUA, n resolução mais baixa a GTX 590 teve ganho de 28% sobre o resultado da GTX 580, 6990 e 5970, todas empatadas tecnicamente. Apesar da 6990 se recuperar nas duas resoluções mais altas, fica cerca de 10% atrás da GTX 590.

CONFIGURAÇÃO PARA O TESTE:

VERY HIGH, AA 4x AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | NVIDIA GEFORCE GTX 590 ]

MSI GT70 0NE
39.7
Avell FullRange G1730 D1HJ
30.7
ASUS G75VW
23.6
Avell Titanium G1511
23.0

CONFIGURAÇÃO PARA O TESTE:

VERY HIGH, AA 2x AF 4x, 1366x768 Tessellation

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | NVIDIA GEFORCE GTX 590 ]

MSI GT70 0NE
74.0
Avell FullRange G1730 D1HJ
52.7
ASUS G75VW
40.6
Avell Titanium G1511
39.4
Avell Diamond P110 F1HA
24.6
Acer Aspire TimelineUltra M3
22.9
Samsung RF511-SD3
15.1

CONFIGURAÇÃO PARA O TESTE:

VERY HIGH, AA 4x AF 16x, 1366x768 Tessellation

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | NVIDIA GEFORCE GTX 590 ]

MSI GT70 0NE
59.1
Avell FullRange G1730 D1HJ
42.3
ASUS G75VW
32.6
Avell Titanium G1511
32.4
Avell Diamond P110 F1HA
19.1
Acer Aspire TimelineUltra M3
18.0
Samsung RF511-SD3
12.5

 

Metro 2033

Trata-se de um FPS da 4A Games baseado em um romance homônimo russo, que conta a saga dos sobreviventes de uma guerra nuclear ocorrida em 2013 que se refugiam nas estações de metrô. O game, que faz uso intensivo da técnica de Tessellation e demais recursos do DirectX 11, desbancou de Crysis o título de jogo mais pesado. Sendo assim, nada melhor do que observar como se comportam as VGAs sob este intenso teste.

Metro 2033 é outro game no qual as placas da NVIDIA normalmente conseguem resultados melhores, provavelmente, em parte, pelo intenso uso do tessellation, mas será assim na briga GTX 590 vs 6990?

Em resoluções menores, a GTX 590 confirma o favoritismo mas, assim como aconteceu no game F1 2010, a medida que a resolução foi aumentada, a diferença caiu, chegando a acontecer uma inversão nos testes em 1920x1080. Nas resoluções menores, a GTX 590 foi 10% mais rápida que a 6990, porém trabalhando na resolução mais alta, a placa da AMD foi melhor. A diferença porém, foi mínima, pouco menos que 3% superior. Em comparação a GTX 580, a vantagem para a nova placa chegou a 40%.

CONFIGURAÇÃO PARA O TESTE:

Modo padrão

OBS.:

  • Configuração padrão do aplicativo
  • Quanto MAIOR, melhor
  • Pontuação atribuída pelo aplicativo
  • Hardwares comparados: 10

[ PCMARK 07 | NVIDIA GEFORCE GTX 590 ]

MSI GT70 0NE
4879
Avell FullRange G1730 D1HJ
4284
Avell Diamond P110 F1HA
3560
Avell Titanium G1511
3377
HP Folio 13
3137
ASUS G75VW
3026
ASUS Automobili Lamborghini VX7
2339
Samsung RF511-SD3
2306
HP Envy 3D 17-2190br
1793
HP Pavilion dv6-6170br
1525

CONFIGURAÇÃO PARA O TESTE:

Alto desempenho

OBS.:

  • Autonomia estimada em uso com games e atividades cotidianas
  • Tempo de funcionamento na bateria medido em minutos
  • Quanto MAIOR, melhor

[ POWERMARK | NVIDIA GEFORCE GTX 590 ]

HP Folio 13
176
MSI GT70 0NE
117
Avell Titanium G1511
94
Avell FullRange G1730 D1HJ
90
Avell Diamond P110 F1HA
85
ASUS G75VW
80
Samsung RF511-SD3
68

CONFIGURAÇÃO PARA O TESTE:

CS5: Filtro Extrude (CPU) res.: 5182x9754

OBS.:

  • Resultado em tempo decorrido para aplicar o filtro
  • Size: 10 pixels, Depth: 20, Random
  • Imagem de teste com resolução 5182x9754
  • Tempo medido em segundos
  • Quanto MENOR, melhor

[ ADOBE PHOTOSHOP | NVIDIA GEFORCE GTX 590 ]

MSI GT70 0NE
190.2
ASUS G75VW
192.6
Samsung RF511-SD3
213.5
Avell FullRange G1730 D1HJ
217.3
ASUS Zenbook UX21E
235.2
ASUS Automobili Lamborghini VX7
256.0
Avell Titanium G1511
264.6
Avell Diamond P110 F1HA
291.4

 

StarCraft II

Em nosso último teste utilizamos o game de estratégia StarCraft II, que, quando lançado, gerou bastante polêmica pelo fato de os drivers da ATI não suportarem filtros corretamente, problema já resolvido e que agora nos permite uma comparação justa entre as duas empresas. Dessa forma, rodamos o jogo com 8xAA e 16xAF, configurações setadas via drivers, diferentemente de todos os demais testes, afinal StarCraft II não possui esse tipo de configuração interna.

Os resultados alcançados na resolução 1280x1024 foram muito próximos, entre a GTX 580, GTX 590 e a 6990, mas com o aumento da resolução, a diferença foi ficando mais evidente, com a GTX 590 sendo 11% mais rápida que a 6990 e 14% GTX 580.

CONFIGURAÇÃO PARA O TESTE:

Economia de energia

OBS.:

  • Autonomia estimada em uso com games e atividades cotidianas
  • Tempo de funcionamento na bateria medido em minutos
  • Quanto MAIOR, melhor

[ POWERMARK | NVIDIA GEFORCE GTX 590 ]

HP Folio 13
451
Avell Diamond P110 F1HA
305
Avell FullRange G1730 D1HJ
251
Avell Titanium G1511
250
MSI GT70 0NE
242
Samsung RF511-SD3
214
ASUS G75VW
144

CONFIGURAÇÃO PARA O TESTE:

Padrão

OBS.:

  • Pontuação calculada pelo aplicativo
  • Quanto MAIOR, melhor.

[ WINRAR | NVIDIA GEFORCE GTX 590 ]

MSI GT70 0NE
6421
ASUS G75VW
6059
Avell Titanium G1511
5272
Samsung RF511-SD3
4674
Avell FullRange G1730 D1HJ
4032
ASUS Automobili Lamborghini VX7
3866
Avell Diamond P110 F1HA
2516
ASUS Zenbook UX21E
2156

CONFIGURAÇÃO PARA O TESTE:

R11.5: Teste modo CPU (multi)

OBS.:

  • Resultados em pontos calculados pelo aplicativo
  • Quanto MAIOR, melhor
  • Hardwares comparados: 10

[ CINEBENCH | NVIDIA GEFORCE GTX 590 ]

MSI GT70 0NE
6.23
ASUS G75VW
6.19
Avell FullRange G1730 D1HJ
5.09
ASUS Automobili Lamborghini VX7
4.91
Avell Titanium G1511
4.63
Samsung RF511-SD3
4.34
Avell Diamond P110 F1HA
3.76
ASUS Zenbook UX21E
2.02
HP Pavilion dv6-6170br
1.79
HP Folio 13
1.63

 

Overclock

Não poderiamos deixar de fazer overclock com a placa, e apesar de não ir muito longe, ela teve ganho um pouco melhor do que a 6990.

Abaixo a tela principal do GPU-Z, onde podemos ver a placa com core a 680MHz (padrão = 608MHz), e memórias em 3700MHz (padrão = 3416MHz). Como overclock é muito relativo, outros modelos podem subir mais, mas o modelo testado passava em alguns testes, já em outros não.


De acordo com alguns relatos de reviews internacionais, dependendo o modelo é possível alcançar números mais elevados de overclock, ainda mais se aumentar a voltagem.

IMPORTANTE: Leia aqui a nota sobre eventuais problemas com a GeForce GTX 590 quando se pratica o aumento da tensão.

3DMark 11
Vamos agora ver o comportamento dela quando o assunto é desempenho, principal finalidade do overclock.

No teste com o 3DMark 11, a GTX 590 com overclock conseguiu superar a HD 6990 e, alcançando uma pontuação 2% mais alta que a obtida pela concorrente também em overclock, ou seja, praticamente empate técnico.

CONFIGURAÇÃO PARA O TESTE:

Very High, AA 2x AF OFF, 1366x768

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ CRYSIS 2 | NVIDIA GEFORCE GTX 590 ]

MSI GT70 0NE
65.7
Avell FullRange G1730 D1HJ
50.6
ASUS G75VW
40.6
Avell Titanium G1511
36.9
Avell Diamond P110 F1HA
27.0
Acer Aspire TimelineUltra M3
23.8
Samsung RF511-SD3
16.0

Além do 3DMark 11, fizemos testes com a placa overclockada na resolução de 1920x1080 em alguns games. Abaixo temos o resultado de como a placa se comportou.

Mafia II
No game a GTX 590 conseguiu um ganho de quase 10% no desempenho, e ficou 15% mais rápida que a HD 6990 com overclock.

CONFIGURAÇÃO PARA O TESTE:

High, AA 0x AF OFF, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ CRYSIS 2 | NVIDIA GEFORCE GTX 590 ]

MSI GT70 0NE
45.5
Avell FullRange G1730 D1HJ
30.3
ASUS G75VW
23.2
Avell Titanium G1511
22.3


Metro 2033
Neste cenário se repete o que aconteceu no teste com o 3DMark 11. A GTX 590 apresentava um desempenho menor que a rival, mas com o overclock conseguiu superar os resultados obtidos da HD 6990 em overclock, ainda que por uma margem sutil: foi 3% mais rápida.

CONFIGURAÇÃO PARA O TESTE:

Very High, AA 2x AF OFF, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ CRYSIS 2 | NVIDIA GEFORCE GTX 590 ]

MSI GT70 0NE
43.4
Avell FullRange G1730 D1HJ
28.2
ASUS G75VW
21.9
Avell Titanium G1511
20.7

 

PhysX

Como estamos analisando uma placa de vídeo da NVIDIA, não tínhamos como não fazer testes de performance com PhysX. Para isso, utilizamos o Mafia II, um dos games mais recentes a utilizar bastante essa tecnologia.

Nestes testes, os resultados da GTX 580 e GTX 590 foram muito próximos, apesar da placa dual chip levar vantagem, é algo muito pouco se tratando de uma placa com ela. Pode ser algo relacionado ao game, ou mesmo aos drivers que ainda precisam melhorias se tratando de algumas tecnologias.

CONFIGURAÇÃO PARA O TESTE:

Extreme, AA 4x AF Edge Blur, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ CRYSIS 2 | NVIDIA GEFORCE GTX 590 ]

MSI GT70 0NE
43.3
Avell FullRange G1730 D1HJ
28.1
ASUS G75VW
21.9
Avell Titanium G1511
20.7

CONFIGURAÇÃO PARA O TESTE:

OBS.:

[ | NVIDIA GEFORCE GTX 590 ]


CONFIGURAÇÃO PARA O TESTE:

OBS.:

[ | NVIDIA GEFORCE GTX 590 ]


 

Conclusão

Pronto, a muito tempo não tinhamos uma situação assim, duas placas com mesmo proposito, brigando diretamente pelo título de placa de vídeo mais poderosa do mundo, em situações idêntica no que diz respeito ao mercado, afinal ambas possuem tecnologias semelhantes, e acima de tudo, tem o mesmo valor, exatos U$ 699 dólares, claro que valor esse cobrado lá fora, por aqui não esperem nada abaixo dos R$ 2.000, muito provavelmente uns R$ 2.500.

A GeForce GTX 590 tem alguns pontos cruciais a seu favor na comparação com a Radeon HD 6990. A placa da Nvidia consome menos energia, gera menos ruído(bem menos, principalmente quando rodando um game ou alguma aplicação que exija bastante a placa de vídeo) e tem 3 centrímetros a msnos, para muitos, detalhe muito importante.

A briga de performance está muito igual entre os dois modelos, enquanto uma se sai melhor em um determinado game, a outra passa a frente em outro, e assim vai, ficando muito complicado dizer qual é a melhor das duas nesse quesito.

Esperava um pouco mais da GTX 590 no desempenho frente a GTX 580, porque a média de ganho sobre essa placa foi entre 30 e 40%, abaixo do apresentado pela 6990 sobre a 6970, que chegou a colocar mais de 80% de diferença em algumas situações.

Outra coisa que ficou clara, alguns games ainda encontram problemas no suporte a dual chips(assim como em Crossfire/SLI), ficando com performance bem abaixo do que se espera, em certos casos, ao ponto da placa single ter score maior, tanto pelo lado da AMD como Nvidia. Muito disso deve ser resolvido com futuros drivers, ou mesmo com atualização dos games.

AVALIAÇÃO:

Performance

10.0

Preço

7.5

Tecnologias

10.0

Diferenciais

9.0

Nota final

PRÓS
  • Eficiente sistema de refrigeração;
  • Baixo nível de ruído para uma placa dual GPU;
  • Desempenho excepcional;
  • Bom potencial para overclock;
CONTRAS
  • Preço para poucos;
  • Deixou a desejar na comparação com a GTX 580;
  • TDP elevado.