Após um longo “inverno” nos confins da alfândega brasileira, eis que finalmente chega um dos momentos mais esperado pelos hardgamers e entusiastas de plantão: a análise da badalada GeForce GTX 690.

Como todos devem saber, a placa – baseada na nova geração Kepler da NVIDIA – é composta de duas GPUs GK104 com todas as especificações "destravadas”, ou seja, uma legítima dual GTX 680.

A VGA é atualmente, de longe, a solução mais poderosa existente no mercado. Entretanto, como tudo na vida, há um preço a ser pago por isso, e no caso da GeForce GTX 690, um preço bastante salgado, reduzindo assim o seu mercado para alguns poucos felizardos capazes de pagar US$ 999 (ou até mais, dependendo da versão) pela “Rainha das Placas 3D”.

Como era de se esperar, a NVIDIA “recheou” a placa com muitos predicados. O primeiro deles, sem dúvidas, é a imensa quantidade de CUDA Cores (processadores gráficos, também conhecidos como Stream Processors ou Shader Cores). São nada mais, nada menos que 3.072 unidades de processamento, que junto com os 915Mhz de core clock (podendo chegar a 1.019Mhz via overclock dinâmico – GPU Boost) e 4GB de memória com interface dupla de 256 bits @ 6Ghz, garantem poder suficiente para rodar o game mais poderoso do mercado em condições “insanas”, sem “chiar”.

Mantendo a filosofia da geração Kepler (velocidade e suavidade), a GTX 690 possui ainda novos filtros de aprimoramento de imagens - FXAA (Fast Approximate Anti-Aliasing) e TXAA (Temporal Anti-aliasing), além do recurso adptive VSync (sincronismo vertical adaptativo) e do 3D Vision Surround.

Apesar de contar com macro especificações de “cair o queixo”, a placa incrivelmente mantém um ótimo nível de dissipação térmica (TDP) em 300W!

A seguir nossos leitores poderão conferir todos os detalhes por trás do belo trabalho da equipe de engenharia da NVIDIA.



 

Arquitetura GK104

A linha Fermi (que deu origem às GeForces da série 400 e 500) foi, sem dúvida para a NVIDIA, o passo à frente mais significativo em termos de avanço na macro-arquitetura das GPUs desde o lançamento da primeira G80 (8800 GTX) lançada no final de 2006, inaugurando o que se conhece muito bem hoje do conceito de gráficos unificados e computação paralela conjugada MIMD (Múltiplas Instruções, Múltiplos Dados).

Com a Fermi, os engenheiros da NVIDIA empregaram todo o seu conhecimento adquirido ao longo das duas últimas gerações, bem como todos os aplicativos, e desenvolveram uma abordagem totalmente nova de design para criar a primeira GPU computacional do mundo. A arquitetura era baseada em pipelines de geometria paralela otimizada para o Tessellation e para o mapeamento de deslocamento, bem como para uma nova arquitetura computacional que oferecia mais velocidade na troca de contexto e aprimoramento no desempenho para operações atômicas.

Já a Kepler, encabeçada pelo GK104 – embora construída a partir dos alicerces da Fermi – parece dar um passo adiante na evolução dos chips gráficos da NVIDIA, ao focar na otimização e eficiência de recursos.

A nova geração de GPUs é composta de inúmeros blocos de hardware distintos, cada um especializado em tarefas específicas. Entretanto, o GPC (Graphics Processing Clusters) continua a ser o bloco de hardware de alto nível dominante na arquitetura Kepler, com recursos dedicados para a computação geral, rasterização, sombreamento e texturização. Em outras palavras, quase todas a funções de processamento gráfico de um núcleo da GPU estão contidas no GPC.


(Diagrama do Gigathread Engine do chip GK104)

Como pode ser visto acima, na estrutura de processamento da Kepler há um grande bloco chamado pela NVIDIA de “Gigathread Engine”, composto de quatro GPCs, quatro controladores de memória, partições ROPs e cache L2. Vale ressaltar que cada GPC, que são na realidade grandes unidades de processamento e se comportam como mini GPUs independentes, possui duas unidades da nova geração de Streaming Multiprocessors, chamados agora pela companhia de SMX (até então a companhia havia batizado os multiprocessadores Streaming de SM). Diferentemente das duas gerações passadas (GF10x e GF11x), em que cada SM continha 32 CUDA Cores, os SMX da GK104 (assim como suas variantes) possuem nada menos do que impressionantes 192 CUDA Cores. Desta forma, a NVIDIA chega ao número “mágico” de 1536 CUDA Cores (4 GPCs x 2 SMXs x 192 CUDA Cores).

Outra mudança visível na comparação entre as arquiteturas da Fermi e Kepler, está na quantidade máxima de controladores de memória. Ao invés de seis blocos de 64 bits, há “apenas” quatro, totalizando assim um bus de 256 bits (4 blocos x 64 bits) para a GK104 contra 384 bits das GF100 e GF110.

Em relação à quantidade de unidades de rasterização, a GK104 possui um total de 32 ROPs, contra 48 ROPs das GF100 e GF110. Essa diferenciação só foi possível em virtude dessas unidades estarem arranjadas em um bloco funcional separado do SMX. Assim, enquanto a linha Fermi possui seis blocos rasterizadores, cada um composto por oito ROPs – totalizando 48 ROPs (6 blocos x 8 ROPs), a GK104 possui “apenas” quatro blocos, explicando-se assim a quantidade de 32 ROPs (4 blocos x 8 ROPs).

Quanto às unidades de texturização, cada SMX é composto por 16 TMUs, o dobro do número de TMUs presentes no Streaming Multiprocessor da geração Fermi. Com um total de oito SMX (4 GPCs x 2 SMXs), a GK104 tem, portanto, um total de 128 unidades de texturização (8 SMXs x 16 TMUs), contra 64 TMUs da GF110 (16 SM x 4 TMUs).

Vale ressaltar que, como a GeForce GTX 690 é composta por dois chips GK104 trabalhando “paralelo” de modo semelhante ao SLI (na verdade um tipo de SLI interno, via chip ponte), as especificações por GPU não muda. Contudo, seus números são dobrados, em virtude da dupla de chips presente no PCB. Assim, a placa tem um total de 3.072 CUDA Cores (2 x 1.536), 64 ROPs (2 x 32), 256 TMUs (2 x 128) e uma interface de memória composta de 512 bits (256 bits para cada arranjo de 2GB por chip).

Por dentro do SMX
Talvez a grande novidade presente na arquitetura Kepler seja a nova geração dos Streaming Multiprocessors, batizado pela NVIDIA de SMX. Além de disponibilizar um desempenho muito maior que o antigo SM da linha Fermi, cada multiprocessador de Streaming consome agora significativamente menos energia em relação à arquitetura anterior.

As principais unidades de hardware responsáveis pelo processamento do GK104 estão inseridas dentro da estrutura do SMX, como é o caso dos CUDA Cores, que lidam, entre outros pontos, com o processamento dos vértices, pixels e da geometria, bem como os cálculos computacionais e de física.

Além disso, é aí que se encontram as unidades de texturização que lidam com a filtragem das texturas, com o carregamento/armazenamento das unidades de busca (units fetch) e pelo salvamento dos dados na memória.


Olhando para a imagem acima, podemos ver que os 192 CUDA Cores foram “empacotados” juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa computação dinâmica auxilia os desenvolvedores de jogos a otimizar a performance de seus games, em virtude da arquitetura ser bastante flexível. A GPU tem ainda à disposição 512KB de cache L2.

Além disso, há ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (65.536 entradas de 32-bits – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc). O cluster SMX possui ainda oito TMUs, cache de textura e o mais importante de tudo: PolyMorph Engine 2.0.

As unidades de Polymorph Engine foram introduzidas na Fermi para lidar com uma enorme carga de trabalho advinda das novas tecnologias, como é o caso da API gráfica DirectX 11. Talvez, a principal delas seja a badalada técnica de aprimoramento da qualidade das imagens, conhecida como Tessellation (Tess), que aumenta de forma quase exponencial a quantidade de triângulos em uma cena, exigindo assim o máximo da GPU.

Com a geração Kepler, a NVIDIA aprimorou a Polymorph Engine, ao introduzir a Polymorph Engine 2.0 que, de acordo com a companhia, possibilita o dobro de desempenho do processamento primitivo e de Tessellation por SMX, em relação à Fermi.

A PolyMorph Engine 2.0 lida com os buscadores de vértices, com o tessellation, transformador viewport, configurador de atributo e saída de streaming.

Finalmente, as Unidades de Função Especial, mais conhecidas pela sigla em inglês SFU (Special Function Units) controlam instruções transcendentais e de interpolação gráfica.

 

Os recursos da GTX 690

Abaixo, um resumo das principais especificações da GeForce GTX 690.

• 3,54 bilhões de transistores;
• Nova litografia em 28 nm;
• Área do die (estimado): 294mm2;
• Frequência de operação das texturas e ROPs (GPU): 915Mhz (1.019MHz via GPU Boost);
• 3.072 CUDA Cores/shader processors;
• Frequência de operação das memórias: 6008MHz (GDDR5);
• Quantidade de memória: 4GB;
• Interface de memória: 2 x 256bits;
• TDP: máximo de 300 watts;
• Limiar térmico da GPU em 98° C;
• Suporte às tecnologias: CUDA, DirectX 11.1, GeForce 3D Vision, NVIDIA 3D Vision Surround, Filtros FXAA/TXAA, GPU Boost, Adptive VSync, NVIDIA PhysX,  PureVideo HD Technology, Badaboom, HDMI 1.4a, OpenGL 4.2, OpenCL, DirectCompute, Windows 7.

E ainda:

• Nova Geração do Streaming Multiprocessor (SMX);
• 192 CUDA cores por SMX, 6x mais que a GF110 (GTX 590);
• 16 PolyMorph Engine 2.0;


(GK104)

Conforme já mencionado no tópico anterior, os engenheiros da NVIDIA se superaram no que diz respeito à imensa quantidade de CUDA Cores presentes no GK104. Triplicar o número de núcleos de processamento foi algo tão surreal, que os primeiros rumores que apontavam esse fato foram prontamente taxados por grande parte da comunidade como “fake”, por ser algo supostamente impossível de acontecer.

Isso foi possível, em grande parte, pela mudança na arquitetura da geração Kepler. Ao reduzir a quantidade de Streaming Multiprocessor pela metade em relação à Fermi, a NVIDIA conseguiu aumentar a eficiência dos SMXs, na medida em que multiplicou por 6 (de 32 para 192) a quantidade de CUDA Cores em cada cluster de processamento.

Aliás, a GTX 690 tem vários números que surpreendem até mesmo aos fãs mais apaixonados pela linha GeForce. A frequência de operação é um destes casos. A placa praticamente trabalha no mesmo patamar da GTX 680 (915Mhz vs. 1.006Mhz). Com o recurso do GPU Boost (overclock automático), a placa chega a 1.019Mhz. Trata-se de uma evolução de nada mais, nada menos que 68% sobre a GTX 590.

O clock da memória é outro exemplo da força dos números da VGA. Trabalhando em 6008Mhz, esse valor é 76% superior à sua “irmã mais velha”.

Outro número taxado como “algo sem fundamento” – e que se mostrou verdadeiro, foi a dissipação térmica (TDP). Apesar dos 3,54 bilhões de transistores (18% a mais que a GF110), 3.072 CUDA Cores (3 vezes mais que a GTX 590) e clocks extremamente elevados para o segmento, a GeForce GTX 690 possui TDP máximo de 300W! Trata-se de um valor extremamente surpreendente, ainda mais em comparação aos 365W da GTX 590.

Vale mencionar que, para suprir os 300W, a placa conta com dois conectores de energia de 8 pinos, garantindo assim 300W, além dos 75W adicionais do PCI Express). De acordo com a NVIDIA, é recomendado o uso de uma fonte real de 650W.

Fechando os “números mágicos” da GTX 690 – e que mais uma vez foi alvo de ceticismo por grande parte do mercado – temos a área do die do chip gráfico GK104. Com 294 mm² (contra 520mm² da GTX 590), trata-se de algo surpreendente – mais uma vez – se levarmos em conta sobretudo a quantidade de CUDA Cores e transistores.

É bom que se diga que grande parte destes “números mágicos” se deve à reengenharia pela qual passou a arquitetura Fermi – dando origem à Kepler, além, é claro, do refinamento no processo de fabricação em 28nm.

 

As novidades da Kepler

Conforme já mencionado no decorrer desta análise, a nova geração Kepler trouxe gratas surpresas para os usuários. Algumas, exclusivas, como é o caso dos novos filtros FXAA e TXAA, do GPU Boost, Adptive VSync e 3D Vision Surround com apenas uma VGA. Outras são comuns às demais placas de nova geração, como é o caso do suporte ao DirectX 11.1 e do PCI Express 3.0. Detalharemos a seguir tais novidades.

DirectX 11.1
Apesar do suporte à mais recente API Gráfica da Microsoft ter sempre sido motivo de destaque no marketing das companhias, ao que parece, a NVIDIA não está tão empolgada com tal fato. Tanto que, apesar de a arquitetura Kepler suportar o  DirectX 11.1, John Danskin, vice-presidente de arquitetura de GPU da NVIDIA, soltou a seguinte frase durante o NVIDIA Editor's Day em São Francisco (evento super seleto, fechado a um restrito grupo de jornalistas de várias partes do mundo – e coberto pelo Adrenaline): "Sim, [a GeForce GTX 680] será compatível com DirectX 11.1, mas... quem se importa?"

Provavelmente o que o executivo quis dizer foi que a atualização da API Gráfica da Microsoft não trará tantas melhorias gráficas; e mais ainda: deverá demorar até que o DX11.1 seja adotado amplamente pelos games – assim como o próprio DX11. Até que isso ocorra, é provável que as GeForces da série 700 ou mesmo 800 já tenham sido lançadas.

Outro ponto é que, até o Windows 8 chegar, tal recurso ficará apenas no papel. Ainda assim, as principais novidades do DX11.1 serão:

• Rasterização independente de objeto;
• Interoperabilidade flexível entre computação gráfica e vídeo;
• Suporte nativo ao Stereo 3D.

PCIe Gen 3
Na medida em que novas gerações de placas chegavam ao mercado, foi gerado um temor nos analistas de que o padrão de interface de comunicação PCI Express chegaria a um ponto em que não conseguiria dar mais vazão ao fluxo de dados com a intensidade necessária, criando assim um verdadeiro gargalo para o desempenho da VGA.

Este temor, contudo, se diluiu, com o recente anúncio da geração 3 do PCIe, que dobrou a taxa de transferência em relação ao PCIe Gen 2, garantindo tranquilidade para as futuras placas 3D.

Com o novo patamar de desempenho advindo da geração Kepler, a NVIDIA garantiu o suporte ao PCI Express 3.0 nas GeForces série 600, encerrando qualquer tipo de temor em relação ao gargalo de desempenho.

Com o PCIe Gen 3, a largura de banda saltou de 16GB/s para 32GB/. Já nas placas acessórias instaladas, o ganho saiu de 500MB/s para 1GB/s por pista/linha. Assim, os dispositivos que utilizam a configuração x16 podem utilizar de 16GB/s, ou 128Gbps. Vale ressaltar, contudo, que para se beneficiar do PCI Express 3.0 o usuário deverá ter um sistema totalmente preparado e compatível com tal recurso. Assim, além de uma VGA PCIe Gen 3.0, tanto a placa-mãe quanto o processador deverão suportar a novidade.

GPU Boost

Exclusivo das GeForces, trata-se da tecnologia combinada de harware com software de ajuste dinâmico nos clocks.

Semelhante ao Turbo Boost da Intel e ao TurboCore da AMD, o GPU Boost tem como objetivo disponibilizar a quantidade de megahertz necessária para o bom funcionamento das tarefas, a depender, claro, de certas condições, como consumo de energia e temperatura da GPU.

Com a Kepler, há agora os conceitos de clocks base (base clock) e clock de impulso (boost clock). Dessa forma, a placa opera por padrão em 1006Mhz, podendo ir a 1058Mhz (overclock de 5%) quando for preciso um maior poder de processamento (como a renderização de gráficos complexos), desde, claro, que haja condições para isso (TDP e temperatura abaixo do máximo permitido). Em outras palavras, a tecnologia utiliza a diferença entre o consumo atual (varia de acordo com o software executado) e o TDP máximo da placa, para alavancar o clock base e aumentar a performance, chegando assim ao patamar que a NVIDIA denominou de "boost clock".


(Algoritmo de execução do GPU Boost)

Em alguns casos, esse upgrade dinâmico pode superar em até 10% o clock base da GeForce, ou seja, ultrapassar 1,1Ghz, desde, novamente, que haja condições para isso. O mais bacana é que, se você for um overclocker por natureza e quiser elevar ainda mais o desempenho via overclock tradicional, o GPU Boost continuará funcionando mesmo com a placa overclockada, variando os clocks para cima e para baixo da mesma forma que em VGAs com clocks default.


(Cada jogo utiliza uma quantidade específica de energia da VGA.
O GPU Boost monitora o consumo de energia em tempo real e aumenta o clock da GPU quando há condições disponíveis.)


Entretanto, caso o usuário esteja realizando tarefas triviais, como, por exemplo, navegando na web, ou utilizando uma suíte de escritório, o GPU Boost reduz automaticamente a frequência de operação do chip gráfico para economizar energia. Além de dar uma “ajudinha” no bolso do usuário no final do mês com a conta de energia, a tecnologia é particularmente interessante para o mundo dos portáteis, onde qualquer otimização na autonomia da bateria é bem vinda.

FXAA

Embora não seja um filtro de Anti-Aliasing (antisserrilhado) inédito, a NVIDIA aprimorou o FXAA (Fast Approximate Anti-Aliasing) na nova geração Kepler.

Semelhante ao MLAA (Morphological Anti-Aliasing, ou Antisserrilhamento Morfológico) empregado pela AMD nas novas Radeons, o FXAA é uma técnica de pós-processamento, isto é, que aplica o filtro de anti-aliasing na imagem após esta ter sido gerada pela GPU. Isso é bastante vantajoso, haja vista que alivia a carga de trabalho da unidade de processamento gráfico. Vale destacar que o FXAA é aplicado junto com outras técnicas de pós-processamento, como é o caso do motion blur e do bloom.

Com a chegada da Kepler, a NVIDIA passou a adotar o FXAA via driver (geração R300), possibilitando a utilização do filtro em centenas de jogos. Outro destaque do Fast Approximate Anti-Aliasing sobre o Morphological Anti-Aliasing está no ganho de desempenho, chegando a ser 60% mais veloz que o MSAA em 4X.

Um fato que chamou bastante a atenção da comunidade foi a apresentação do Samaritan Demo (demonstração de um vídeo da Epic que ressalta o poderio gráfico do DirectX da Unreal Engine) na Game Devolpers Conference – GDC 2011. Na ocasião, a Epic necessitou de três GeForces GTX 580 para rodar o demo a contento. Passado um ano, ou seja, na GDC 2012, a Epic fez uma nova apresentação do Samaritan Demo. Contudo, para a surpresa de todos, foi necessário apenas uma GeForce GTX 680 e a utilização do FXAA para “dar conta do recado”.



Para ver um comparativo mais apurado dos benefícios do filtro, clique aqui.

TXAA
Considerado pela NVIDIA como a próxima geração de filtros de antisserilhamento (responsável pela geração do próximo nível em termos de qualidade de imagem), o TXAA (Temporal Anti-aliasing) promete disponibilizar muito mais qualidade e performance se comparado com o MSAA.

Segundo a companhia, o antisserilhamento temporal foi criado com o objeto de explorar toda a capacidade de processamento de texturas da geração Kepler (mais especificamente da GTX 680).

O TXAA é um misto de anti-aliasing de hardware com filme GC estilo AA, e para o caso do filtro em 2X, um componente temporal opcional é empregado, para melhorar a qualidade da imagem.

O filtro de Temporal Anti-aliasing está disponível em dois modos: TXAA1 e TXAA2. De acordo com a NVIDIA, o TXAA1 oferece uma qualidade gráfica superior ao MSAA em 8X, com gasto de processamento semelhante ao MSAA em 2X. Já o TXAA2 permite uma qualidade das imagens superior ao TXAA1, com performance comparável ao MSAA em 4X.

Inicialmente o filtro antisserilhamento temporal será implementado diretamente na engine de alguns dos principais jogos da futura geração. Até o momento, a Epic Games, com a sua badalada Unreal Engine Technology 4, e a Crytek, são dois dos principais estúdios que já estão desenvolvendo games com o novo filtro da NVIDIA.


Adptive VSync

O sincronismo vertical – V-Sync foi projetado para lidar com os chamados artefatos fora de sincronismo ou artefatos trepidantes (tearing artifacts ), que podem ocorrer quando a quantidade de FPS é bem superior à taxa de atualização (refresh rate) do monitor, e que além de causarem um desconforto visual, prejudicam a jogabilidade do usuário. Embora seja raro, é possível ainda que o fenômeno aconteça na situação inversa ao mencionado acima, ou seja, quando os FPS são bem menores que a taxa de atualização da tela.


(Tearing artifacts)

Apesar de criado com o intuito de acabar (ou amenizar) com os tearing artifacts, o V-Sync gerou outro problema: a perda de frames (stuttering), também conhecido como “lag”. Isso ocorre quando os FPS caem para menos de 60 quadros por segundo, ocasionando a redução do V-Sync para 30Hz (e demais quocientes de 60, como 20Hz ou 15Hz).


(Problema de sincronismo vertical - VSync)

Como forma de enfrentar esse desafio, os engenheiros de software da NVIDIA criaram o Adptive V-Sync. Presente na geração de drivers R300 da companhia, a tecnologia dinamicamente liga e desliga o sincronismo vertical, de forma a gerar FPS mais regulares e cadenciados, o que minimiza os lags nos games e previne a má sincronização das imagens.

Mais especificamente, quando a taxa de quadros por segundo cai para menos de 60 FPS, o Adptive V-Sync entra em cena e desliga o sincronismo vertical, possibilitando que os frame rates funcionem em sua taxa natural, o que reduz as chances de ocorrer lag. Quando os FPS voltam para 60 quadros por segundo, o Adptive V-Sync atua novamente ao ligar o sincronismo vertical, reduzindo a possibilidade de ocorrerem artefatos fora de sincronismo.


(Adptive V-Sync em funcionamento)

NVENC
A NVIDIA introduziu em todas das VGAs da linha Kepler o NVENC, novo vídeo encoder para o padrão H.264.

Antes do NVENC, as GeForces utilizavam o Badaboom (mais detalhes na próxima seção), que utiliza o poder dos CUDA Cores para a conversão de diferentes formatos de streaming multimídia. Se, por um lado, esse recurso tem a grande vantagem de desafogar o processador e acelerar o processo, por outro, tem o ponto fraco de aumentar o consumo de energia da placa durante a conversão.

Para resolver essa questão, a NVIDIA criou o NVENC, que utiliza um circuito especializado para o “encodamento” H.264. Vale destacar que tal circuito é quase quatro vezes mais veloz que o encoder via CUDA Cores, além de consumir consideravelmente menos energia que o Badaboom.

O NVENC é capaz de lidar com as seguintes situações:

- Encodar vídeos em fullHD (1080p) com velocidade até oito vezes maior que em tempo real. De acordo com a companhia, em modo de alta performance, o NVENC é capaz de encodar um vídeo de 16 minutos em 1080p @ 30 FPS em apenas dois minutos;

- Suporte ao padrão H.264 nos níveis de profile 4.1 Base, Main e High (mesmo que o padrão Blu-Ray);

- Suporte ao MVC (Multiview Video Coding) para vídeos estereoscópicos – extensão do H.264 para o padrão Blu-Ray 3D;

- “Encodamento” para resolução de até 4096x4096 pixels.

É bom que se diga que, além da transcodificação, o NVENC é útil para edição de vídeos, telas do tipo wireless (sem fio) e aplicações de vídeo conferência.

 

Outras tecnologias

CUDA
Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units).

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip gráfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estágios programáveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não gráficos.

Apresentada inicialmente em 2007, a tecnologia CUDA está presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x.

De acordo com vários experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano está na arquitetura por trás do chip gráfico, massivamente focado na computação paralela, graças à imensa quantidade de cores/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Dessa forma, aplicações voltadas para a biologia, física, simulações, criptografia, entre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA.

No campo dos games, a renderização dos gráficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como por exemplo, nos cálculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...)

Atualmente, é o processo de GPGPU mais difundido no mercado, com mais de 100 milhões de placas compatíveis.

PhysX
Embora seja uma das grandes “vedetes” dos games modernos, a tecnologia de processamento da física é uma tecnologia que já vem de alguns anos.

Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trás da tecnologia.

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Assim, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs.

Muito bem, mas o que vem a ser exatamente o tal cálculo da física presente no PhysX? Trata-se da técnica na qual o chip gráfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador ao adicionar ambientes físicos vibrantes, de imersão total.

A física é o próximo passo na evolução dos jogos. Diz respeito à forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma já programada. Para os praticantes, os jogos são bons, mas falta o realismo necessário para produzir a verdadeira sensação de imersão.

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessária para produzir a física avançada e realista nos jogos de próxima geração, deixando para trás os efeitos de animação pré-fabricados.

É através do cálculo da física que, por exemplo, uma explosão parece mais real para o usuário, uma vez que se pode gerar um verdadeiro “efeito dominó” por trás desse evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo e a fumaça.

O PhysX é responsável, entre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços;
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas;
• Novos e incríveis efeitos nos efeitos dos disparos de armas;
• Tecidos que se enrugam e rasgam naturalmente;
• Fumaça e névoa formadas em torno de objetos em movimento.

(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)

3D Vision Surround
Lançado no início de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado.

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho humano).

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação sequencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.

Foi uma ação extremamente ambiciosa e ousada da NVIDIA, já que ela teve que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa “The Way It's Meant To Be Played”, em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.

Vale ressaltar que a tecnologia não está limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:

• Óculos Sem Fio 3D Estereoscópico Ativo - Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plástico.

• Emissor Infravermelho de alta potência (porta USB) - Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real.

• Monitores Ultra-Flexíveis - Projetado para os monitores LCD de 120Hz, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos. 

• Softwares de Compatibilidade - Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI e PhysX.

• Visualizador 3D - Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


(Kris Rey da NVIDIA jogando Skyrim em 3 monitores,
enquanto acessa o portal GeForce.com para acessar o guia de otimização do jogo para a VGA)


O passo seguinte no avanço da tecnologia 3D foi o lançamento do 3D Vision Surround (imagem acima), que possibilitou utilizar até três monitores simultâneos, formando assim uma ampla área de visualização em três dimensões.

Com a chegada da linha Kepler (mais especificamente da GeForce GTX 680), a NVIDIA aprimora ainda mais o 3D Vision Surround, ao permitir o uso da tecnologia com o uso de apenas uma GPU da nova geração, barateando consideravelmente o investimento necessário para jogar em 3D com múltiplos monitores.

SLI
Antes de falarmos da tecnologia SLI, é preciso voltar no tempo. Em 1998, numa época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os gráficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.

Sendo assim, o objetivo da tecnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é o mesmo: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação gráfica, destinada a aumentar o poder de processamento disponível nas placas 3D.

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a “engavetada” até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trás do nome SLI mudou drasticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)

Trata-se do método em que se analisa a imagem processada a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em várias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Esse é o modo padrão usado pela configuração SLI usando duas placas de vídeo.

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)

Aqui, cada GPU renderiza frames/quadros inteiros em sequência - uma trabalhando com os frames ímpares e outra responsável pelos pares, um após o outro. Quando a placa escrava/secundária finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.

• AFR de SFR

Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Dessa forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessário, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.

• SLI Antialiasing

Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade, pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não há grandes problemas em utilizar o PCI Express na configuração x8.

Atualmente, não há restrição quanto aos tipos de placas a serem utilizadas no SLI, bastando apenas que elas possuam o mesmo chip gráfico. No início, a tecnologia restringia o uso a VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS. Felizmente, hoje isso é coisa do passado.

PureVideo

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuário poderá ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web.

O PureVideo possui os seguintes recursos:
• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU;
• Aceleração WMV de Alta Definição por hardware: Suporte programável ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD;
• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;
• Desentrelaçamento temporal/espacial adaptável: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos;
• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução;
• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a área da tela de reprodução;
• Display Gamma Correction: Detecção automática de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela.

Badaboom

Trata-se da tecnologia utilizada para a conversão de diferentes formatos de streaming multimídia para utilização em outros meios. A grande diferença do Badaboom para a grande maioria dos outros programas existentes no mercado é que, enquanto seus concorrentes utilizam o processador para executar a tarefa, a solução da NVIDIA faz uso de outra tecnologia, a CUDA, ou seja, da GPU. Desta forma, o processo é realizado de forma muito mais rápida e eficiente.

Outro benefício é que, ao deixar a CPU livre, o usuário poderá realizar outras atividades, como por exemplo, navegar pela a web. Na conversão tradicional via processador, a máquina fica praticamente inoperante para outras tarefas.

 

Fotos

Abaixo uma série de fotos da GeForce GTX 690, modelo referência da Nvidia.

Como podem ver, ela não é muito maior que uma GTX 680, mas é muito mais imponente e bonita, o motivo é pelo acabamento. Como a Nvidia utilizou muito acabamento em metal, gerou um visual mais bonito e que remete a algo mais "poderoso" do que uma GTX 680.

Como era de se esperar, a placa possui dois conectores de força de 8 pinos. As conexões de vídeo são três DVI e uma Mini-DisplayPort, possibilitando rodar Surround com 4 monitores.


GeForce GTX 600
Abaixo temos algumas fotos mostrando as três placas da série GeForce 600 lançadas até o momento pela NVIDIA. São as GeForce GTX 690, 680 e 670. 


GeForce GTX 680 vs GTX 590
Também colocamos lado a lado uma GeForce GTX 690, da atual geração, e uma GeForce GTX 590, placa de vídeo top da geração passada com dois chips. 

 

Máquina/Softwares utilizados

Como de constume, utilizamos uma máquina TOP de linha baseada em um processador Intel Core i7 3960X overclockado para 4.6GHz.

A seguir, os detalhes da máquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

Máquina utilizada nos testes:
- Mainboard MSI X79A-GD65 8D
- Processador Intel Core i7 3960X @ 4.6GHz
- Memórias 16 GB DDR3-1600MHz Corsair Dominator-GT
- HD 1TB Sata2 Western Digital Black
- Fonte XFX ProSeries 1000W
- Cooler Master Hyper 212 EVO


Sistema Operacional e Drivers
- Windows 7 64 Bits 
- Intel INF 9.3.0.1019
- GeForce 304.48: Placas Nvidia
- GeForce 296.10: GeForce GTX 590
- Catalyst 12.6: Placas AMD 

Configurações de Drivers
- 3DMark 
- Anisotropic filtering: OFF 
- Antialiasing - mode: OFF 
- Vertical sync: OFF 
- Demais opções em Default

Games: 
- Anisotropic filtering: Variado através do game testado 
- Antialiasing - mode: Variado através do game testado 
- Texture filtering: High-Quality 
- Vertical sync: OFF 
- Demais opções em Default 

Aplicativos/Games
- 3DMark 11 (DX11) 
- Unigine HEAVEN Benchmark 3.0 (DX11)

- Aliens vs Predator (DX11) 
- Crysis Warhead (DX10) 
- Crysis 2 (DX11)
- DiRT 3 (DX11) temp
- Just Cause 2 (DX10.1) 
- Mafia II (DX9) 
- Metro 2033 (DX11) 
- Sniper Elite V2 (DX11)

 

GPU-Z, Temperatura e Consumo de energia

Abaixo temos a tela principal do GPU-Z, mostrando algumas das principais características técnicas da GTX 690.


GPU Boost
Abaixo um vídeo mostrando como funciona a tecnologia GPU Boost em ação rodando em cima de uma GTX 680. Reparem na mudança constante do clock e voltagem da placa. Vale destacar que essa tecnologia está presente em todas as GPUs da série GeForce 600 lançadas até o momento.

Temperatura
Iniciamos nossa bateria de testes com um bench bastante importante: a temperatura do chip, tanto em modo ocioso como em uso contínuo.

Em modo ocioso (idle), a GTX 690 se comporta bem e apresenta a menor temperatura entre as placas analisadas, como a 680 e as versões da Radeon HD 7970, padrão e modificada.

CONFIGURAÇÃO PARA O TESTE:

Sistema ocioso (idle)

OBS.:

  • Temperatura ambiente em 25ºC
  • Medida em graus Celsius
  • Quanto MENOR, melhor

[ TEMPERATURA (GPU) | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 690 2x2GB
29
NVIDIA GeForce GTX 680 2GB
31
ASUS Radeon HD 7970 3GB
33
XFX Radeon HD 7970 BE DD 3GB
36
NVIDIA GeForce GTX 590 3GB
41
HIS Radeon HD 6990 4GB
47

Medimos o pico de temperatura durante os testes do 3DMark 11 rodando em modo contínuo. Como podemos ver, a GTX 690 tem aumento superior às HD 7970, o que a deixa com temperatura superior às placas da AMD. Mesmo assim, o aumento é menor que o da GTX 680, deixando a 690 quatro graus abaixo.

CONFIGURAÇÃO PARA O TESTE:

Rodando 3DMark 11

OBS.:

  • Temperatura ambiente em 25ºC
  • Medida em graus Celsius
  • Quanto MENOR, melhor

[ TEMPERATURA (GPU) | NVIDIA GEFORCE GTX 690 ]

XFX Radeon HD 7970 BE DD 3GB
66
AMD Radeon HD 7970 3GB
70
NVIDIA GeForce GTX 690 2x2GB
71
NVIDIA GeForce GTX 680 2GB
75
HIS Radeon HD 6990 4GB
77
NVIDIA GeForce GTX 590 3GB
77

Consumo de Energia
Também fizemos testes de consumo de energia com todas as placas comparadas. Os testes foram feitos todos em cima da máquina utilizada na review, o que da a noção exata do que cada VGA consome.

Em modo ocioso, o consumo de energia da GTX 690 supera por pouco as single chip dessa geração (GTX 680 e a Radeon HD 7970, mas consegue ficar bem abaixo de um SLI com duas 680, em cerca de 18 Watts, e de um CrossFire com duas HD 7970, por 37 Watts.

CONFIGURAÇÃO PARA O TESTE:

Sistema ocioso (idle)

OBS.:

  • Consumo do sistema inteiro
  • Resultados em Watts
  • Quanto MENOR, melhor

[ CONSUMO DE ENERGIA | NVIDIA GEFORCE GTX 690 ]

AMD Radeon HD 7970 3GB
150
NVIDIA GeForce GTX 680 2GB
152
NVIDIA GeForce GTX 690 2x2GB
156
HIS Radeon HD 6990 4GB
173
NVIDIA GeForce GTX 680 SLI 2x2GB
173
NVIDIA GeForce GTX 590 3GB
188
AMD Radeon HD 7970 Crossfire 2x3GB
193
NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
195
AMD Radeon HD 7970 Triple Crossfire 3x3GB
224

 

No teste de carga, rodando o 3DMark 11, a GTX 690 se afasta das single chip, encostando na dual chip da AMD da geração passada, a 6990. Comparada aos sistemas que integram duas placas, SLI e CrossFire, ela se mantém muito inferior, com consumo a mais de 100 Watts abaixo.

CONFIGURAÇÃO PARA O TESTE:

Rodando 3DMark 11

OBS.:

  • Consumo do sistema inteiro
  • Resultados em Watts
  • Quanto MENOR, melhor

[ CONSUMO DE ENERGIA | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 680 2GB
380
AMD Radeon HD 7970 3GB
384
NVIDIA GeForce GTX 690 2x2GB
467
HIS Radeon HD 6990 4GB
473
NVIDIA GeForce GTX 590 3GB
518
NVIDIA GeForce GTX 680 SLI 2x2GB
571
AMD Radeon HD 7970 Crossfire 2x3GB
588
NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
770
AMD Radeon HD 7970 Triple Crossfire 3x3GB
780

 

3DMark 11, Heaven 3.0

O 3DMark 11 é a versão mais recente do aplicativo para testes de desempenho de placas de vídeo mais famoso do mundo.

Se por um lado a GTX 690 se sai bem ao superar o CrossFire com duas HD 7970 em 3%, por outro ela acaba ficando bem atrás do SLI com duas GTX 680 com desempenho 8,88% inferior. Em relação à GTX 680 a 690 consegue um ganho de 53%.

CONFIGURAÇÃO PARA O TESTE:

PERFORMANCE, 1280x720

OBS.:

  • Aplicativo baseado em DirectX 11
  • Resultados em pontos calculados pelo aplicativo
  • Quanto MAIOR, melhor

[ 3DMARK 11 | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
21136
AMD Radeon HD 7970 Triple Crossfire 3x3GB
19447
NVIDIA GeForce GTX 680 SLI 2x2GB
16960
NVIDIA GeForce GTX 690 2x2GB
15454
AMD Radeon HD 7970 Crossfire 2x3GB
14941
HIS Radeon HD 6990 4GB
10194
NVIDIA GeForce GTX 680 2GB
10095
NVIDIA GeForce GTX 590 3GB
10058
AMD Radeon HD 7970 3GB
8388

 

Unigine HEAVEN 3.0 - DirectX 11

Trata-se de um dos testes sintéticos mais “descolados” do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API gráfica DirectX 11, como é o caso do Tessellation.

O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation, ambas a 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

No primeiro teste, com o tessellation desativado, a GTX 690 cosegue um desempenho 85,56% superior ao de uma GTX 680, encostando no SLI com duas placas com menos de 2% abaixo. Aqui o CrossFire com duas HD 7970 se afasta e fica com performance 12% superior.

CONFIGURAÇÃO PARA O TESTE:

Shaders: HIGH / Tessellation: DISABLED, AA 8x AF 16x, 1920x1080

OBS.:

  • Teste baseado em DirectX 11
  • Resultados em pontos calculados pelo aplicativo
  • Quanto maior, melhor

[ UNIGINE HEAVEN BENCHMARK 3.0 | NVIDIA GEFORCE GTX 690 ]

AMD Radeon HD 7970 Triple Crossfire 3x3GB
5528
NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
4411
AMD Radeon HD 7970 Crossfire 2x3GB
3793
NVIDIA GeForce GTX 680 SLI 2x2GB
3430
NVIDIA GeForce GTX 690 2x2GB
3379
HIS Radeon HD 6990 4GB
2524
NVIDIA GeForce GTX 590 3GB
2178
AMD Radeon HD 7970 3GB
1934
NVIDIA GeForce GTX 680 2GB
1821

Usando o tessellation ativado em modo normal, a GTX 690 mantém o ganho de mais de 85% sobre a GTX 680 e a proximidade com o SLI com duas placas a menos de 2%. Dessa vez ela também consegue se aproximar do CrossFire com duas HD 7970, com performance 6,85% inferior.

CONFIGURAÇÃO PARA O TESTE:

Shaders: HIGH / Tessellation: NORMAL, AA 8x AF 16x, 1920x1080

OBS.:

  • Teste baseado em DirectX 11
  • Resultados em pontos calculados pelo aplicativo
  • Quanto maior, melhor

[ UNIGINE HEAVEN BENCHMARK 3.0 | NVIDIA GEFORCE GTX 690 ]

AMD Radeon HD 7970 Triple Crossfire 3x3GB
4255
NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
3742
AMD Radeon HD 7970 Crossfire 2x3GB
2904
NVIDIA GeForce GTX 680 SLI 2x2GB
2750
NVIDIA GeForce GTX 690 2x2GB
2705
HIS Radeon HD 6990 4GB
1898
NVIDIA GeForce GTX 590 3GB
1745
AMD Radeon HD 7970 3GB
1475
NVIDIA GeForce GTX 680 2GB
1452

 

Aliens vs Predator

Começamos os testes em jogos com o Aliens vs Predator, game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica.

Novamente, ganho de desempenho de praticamente 85% sobre a GTX 680, e proximidade com o desempenho do dual-SLI, ficando 3% abaixo. No entanto, o CrossFire de duas HD 7970 se distancia das rivais, com performance mais de 20% acima da GTX 690.

CONFIGURAÇÃO PARA O TESTE:

HIGH / ULTRA HIGH, AA 4x AF 16x, 1680x1050

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | NVIDIA GEFORCE GTX 690 ]

AMD Radeon HD 7970 Triple Crossfire 3x3GB
212.2
NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
179.7
AMD Radeon HD 7970 Crossfire 2x3GB
145.2
NVIDIA GeForce GTX 680 SLI 2x2GB
124.4
NVIDIA GeForce GTX 690 2x2GB
120.4
HIS Radeon HD 6990 4GB
106.4
NVIDIA GeForce GTX 590 3GB
82.9
AMD Radeon HD 7970 3GB
72.9
NVIDIA GeForce GTX 680 2GB
65.2

CONFIGURAÇÃO PARA O TESTE:

HIGH / ULTRA HIGH, AA 4x AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | NVIDIA GEFORCE GTX 690 ]

AMD Radeon HD 7970 Triple Crossfire 3x3GB
191.5
NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
160.6
AMD Radeon HD 7970 Crossfire 2x3GB
130.6
NVIDIA GeForce GTX 680 SLI 2x2GB
112.3
NVIDIA GeForce GTX 690 2x2GB
108.2
HIS Radeon HD 6990 4GB
95.0
NVIDIA GeForce GTX 590 3GB
74.9
AMD Radeon HD 7970 3GB
65.6
NVIDIA GeForce GTX 680 2GB
58.7

 

Crysis Warhead

O FPS futurístico da Crytek fez muito barulho por trazer uma qualidade gráfica bem superior a dos concorrentes e por ser considerado por muito tempo como um dos games que mais exigia recursos do computador, principalmente das placas 3D. Assim, nada melhor do que submeter as VGAs da review pelo crivo de "Crysis Warhead".

Ganho de cerca de 50% sobre a GTX 680, garantindo um empate técnico com SLI e CrossFire de duas placas na resolução menor e ficando apenas 2% abaixo do SLI a 1920x1080.

CONFIGURAÇÃO PARA O TESTE:

ENTHUSIAST, AA 8x, 1680x1050

OBS.:

  • Game baseado em DirectX 10
  • Resultados em FPS médio
  • Quanto maior, melhor

[ CRYSIS WARHEAD | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
89.41
NVIDIA GeForce GTX 680 SLI 2x2GB
88.29
AMD Radeon HD 7970 Triple Crossfire 3x3GB
87.94
AMD Radeon HD 7970 Crossfire 2x3GB
87.87
NVIDIA GeForce GTX 690 2x2GB
87.45
HIS Radeon HD 6990 4GB
71.64
NVIDIA GeForce GTX 590 3GB
71.45
NVIDIA GeForce GTX 680 2GB
60.68
AMD Radeon HD 7970 3GB
53.58

CONFIGURAÇÃO PARA O TESTE:

ENTHUSIAST, AA 8x, 1920x1080

OBS.:

  • Game baseado em DirectX 10
  • Resultados em FPS médio
  • Quanto maior, melhor

[ CRYSIS WARHEAD | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
86.13
AMD Radeon HD 7970 Triple Crossfire 3x3GB
85.82
NVIDIA GeForce GTX 680 SLI 2x2GB
83.96
AMD Radeon HD 7970 Crossfire 2x3GB
82.84
NVIDIA GeForce GTX 690 2x2GB
82.24
HIS Radeon HD 6990 4GB
64.36
NVIDIA GeForce GTX 590 3GB
63.54
NVIDIA GeForce GTX 680 2GB
53.13
AMD Radeon HD 7970 3GB
47.70

 

Crysis 2

Para os testes com o Crysis 2, utilizamos a ferramenta Adrenaline Crysis 2 Benchmark Tool, que lançamos no ano passado e é utilizada por praticamente todos os websites internacionais para benchmarks com o Crysis 2. O game, como todos sabem, é referência em qualidade de imagem, e no mês de junho de 2011 finalmente ganhou seu patch com suporte ao DirectX 11, já que originalmente o game vinha apenas em DX9.

Aqui a GTX 690 consegue um ganho maior sobre a GTX 680 na resolução mais alta, chegando a 30%. Este aumento garante a superioridade da dual-chip da NVIDIA sobre os sistemas com duas placas, SLI e CrossFire, mesmo que por menos de 2%, e atrás dos sistemas com três placas também por menos de 2%, o que podemos considerar um empate técnico.

CONFIGURAÇÃO PARA O TESTE:

ULTRA, AA Quincunx 2X, 1680x1050

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ CRYSIS 2 | NVIDIA GEFORCE GTX 690 ]

AMD Radeon HD 7970 Triple Crossfire 3x3GB
94.9
AMD Radeon HD 7970 Crossfire 2x3GB
94.9
NVIDIA GeForce GTX 690 2x2GB
93.6
NVIDIA GeForce GTX 680 SLI 2x2GB
93.2
NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
92.0
NVIDIA GeForce GTX 590 3GB
91.3
HIS Radeon HD 6990 4GB
84.4
NVIDIA GeForce GTX 680 2GB
81.5
AMD Radeon HD 7970 3GB
77.3

CONFIGURAÇÃO PARA O TESTE:

ULTRA, AA Quincunx 2X, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ CRYSIS 2 | NVIDIA GEFORCE GTX 690 ]

AMD Radeon HD 7970 Crossfire 2x3GB
95.4
AMD Radeon HD 7970 Triple Crossfire 3x3GB
94.5
NVIDIA GeForce GTX 690 2x2GB
93.7
NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
93.6
NVIDIA GeForce GTX 680 SLI 2x2GB
92.7
NVIDIA GeForce GTX 590 3GB
81.2
HIS Radeon HD 6990 4GB
73.9
NVIDIA GeForce GTX 680 2GB
71.7
AMD Radeon HD 7970 3GB
68.6

 

DiRT 3

DiRT 3 é o game mais recente de uma das séries de corrida off-road de maior sucesso da história da indústria dos jogos eletrônicos. Lançado em junho de 2011, o game traz o que existe de melhor em tecnologia da API DirectX 11. Os testes com o game foram feitos utilizando a ferramenta Adrenaline Racing Benchmark Tool.

Novamente a GTX 690 consegue ganho maior sobre a GTX 680 na resolução mais alta, o que garante que ela consiga superar o SLI e o CrossFire de duas placas a 1920x1080, mesmo que a 1680x1050 ela fique um pouco atrás. No entanto, as diferenças nunca passam de 5%.

CONFIGURAÇÃO PARA O TESTE:

ULTRA, AA 8x, 1680x1050

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ DIRT 3 | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
213.1
AMD Radeon HD 7970 Triple Crossfire 3x3GB
210.9
NVIDIA GeForce GTX 680 SLI 2x2GB
179.6
AMD Radeon HD 7970 Crossfire 2x3GB
174.5
NVIDIA GeForce GTX 690 2x2GB
170.8
NVIDIA GeForce GTX 590 3GB
122.5
NVIDIA GeForce GTX 680 2GB
119.4
HIS Radeon HD 6990 4GB
116.8
AMD Radeon HD 7970 3GB
96.9

CONFIGURAÇÃO PARA O TESTE:

ULTRA, AA 8x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ DIRT 3 | NVIDIA GEFORCE GTX 690 ]

AMD Radeon HD 7970 Triple Crossfire 3x3GB
210.0
NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
209.5
NVIDIA GeForce GTX 690 2x2GB
167.5
NVIDIA GeForce GTX 680 SLI 2x2GB
164.8
AMD Radeon HD 7970 Crossfire 2x3GB
159.4
NVIDIA GeForce GTX 590 3GB
115.1
HIS Radeon HD 6990 4GB
110.7
NVIDIA GeForce GTX 680 2GB
109.1
AMD Radeon HD 7970 3GB
90.5

 

Just Cause 2

Para fazer o "contra peso", as placas da série Radeon dominam em todos os segmentos rodando o Just Cause 2, curiosamente apoiado pela NVIDIA.

A GTX 690 consegue ganho de cerca de 69% sobre a GTX 680. Isso faz com que ela supere um SLI de duas placas por mais de 4% a 1680x1050, encostando num SLI 3-Way, ficando atrás por menos de 2%. O bom resultado em relação aos sistemas da NVIDIA é apagado se comparado ao CrossFire, que com duas placas consegue performance 30% superior.

CONFIGURAÇÃO PARA O TESTE:

HIGH / VERY HIGH, AA 8x AF 16x, 1680x1050

OBS.:

  • Game baseado em DirectX 10/10.1
  • Resultados em FPS médio
  • Quanto maior, melhor

[ JUST CAUSE 2 | NVIDIA GEFORCE GTX 690 ]

AMD Radeon HD 7970 Triple Crossfire 3x3GB
238.01
AMD Radeon HD 7970 Crossfire 2x3GB
172.30
NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
135.03
NVIDIA GeForce GTX 690 2x2GB
132.45
NVIDIA GeForce GTX 680 SLI 2x2GB
126.45
HIS Radeon HD 6990 4GB
110.31
AMD Radeon HD 7970 3GB
87.21
NVIDIA GeForce GTX 590 3GB
84.19
NVIDIA GeForce GTX 680 2GB
78.21

CONFIGURAÇÃO PARA O TESTE:

HIGH / VERY HIGH, AA 8x AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 10/10.1
  • Resultados em FPS médio
  • Quanto maior, melhor

[ JUST CAUSE 2 | NVIDIA GEFORCE GTX 690 ]

AMD Radeon HD 7970 Triple Crossfire 3x3GB
217.01
AMD Radeon HD 7970 Crossfire 2x3GB
156.03
NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
131.96
NVIDIA GeForce GTX 680 SLI 2x2GB
119.53
NVIDIA GeForce GTX 690 2x2GB
118.52
HIS Radeon HD 6990 4GB
99.23
AMD Radeon HD 7970 3GB
78.44
NVIDIA GeForce GTX 590 3GB
76.45
NVIDIA GeForce GTX 680 2GB
70.27

 

Mafia II

Mafia II trouxe a continuação do aclamado game de ação em terceira pessoa ambientado no obscuro mundo da máfia italiana dos anos 40 e 50, nos EUA.

A placa consegue ganho de mais de 55% sobre a GTX 680, conseguindo resultados muito parecidos com os do SLI com duas placas, ficando pouco menos de 3% atrás do sistema na resolução mais alta. Em relação ao CrossFire, a GTX 690 consegue se recuperar do teste anterior, superando sistemas com duas e três HD 7970 em mais de 17%.

CONFIGURAÇÃO PARA O TESTE:

HIGH, AA ON AF 16x, 1680x1050

OBS.:

  • Game baseado em DirectX 9
  • Resultados em FPS médio
  • Quanto maior, melhor

[ MAFIA II | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
188.3
NVIDIA GeForce GTX 690 2x2GB
169.6
NVIDIA GeForce GTX 680 SLI 2x2GB
169.3
AMD Radeon HD 7970 Crossfire 2x3GB
133.3
AMD Radeon HD 7970 Triple Crossfire 3x3GB
123.8
NVIDIA GeForce GTX 590 3GB
122.5
NVIDIA GeForce GTX 680 2GB
109.8
HIS Radeon HD 6990 4GB
104.4
AMD Radeon HD 7970 3GB
96.0

CONFIGURAÇÃO PARA O TESTE:

HIGH, AA ON AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 9
  • Resultados em FPS médio
  • Quanto maior, melhor

[ MAFIA II | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
187.7
NVIDIA GeForce GTX 680 SLI 2x2GB
159.8
NVIDIA GeForce GTX 690 2x2GB
155.5
AMD Radeon HD 7970 Crossfire 2x3GB
131.9
AMD Radeon HD 7970 Triple Crossfire 3x3GB
123.1
NVIDIA GeForce GTX 590 3GB
107.6
HIS Radeon HD 6990 4GB
97.8
NVIDIA GeForce GTX 680 2GB
95.9
AMD Radeon HD 7970 3GB
86.5

 

Metro 2033

Metro 2033 é um FPS da 4A Games baseado em um romance homônimo russo, que conta a saga dos sobreviventes de uma guerra nuclear ocorrida em 2013 que se refugiam nas estações de metrô. O game, que faz uso intensivo da técnica de Tessellation e demais recursos do DirectX 11, desbancou de Crysis o título de jogo mais pesado. Sendo assim, nada melhor do que observar como se comportam as VGAs sob este intenso teste.

Novamente, ganho de 57% sobre a GTX 680. Dessa vez, no entanto, não é suficiente para encostar no desempenho da SLI com duas placas, ficando 7% abaixo. Comparada ao CrossFire com duas HD 7970 a diferença é ainda maior, com inferioridade de até 17%.

CONFIGURAÇÃO PARA O TESTE:

VERY HIGH, AA 4x AF 16x, 1680x1050

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ METRO 2033 | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
112.00
AMD Radeon HD 7970 Triple Crossfire 3x3GB
105.50
AMD Radeon HD 7970 Crossfire 2x3GB
96.50
NVIDIA GeForce GTX 680 SLI 2x2GB
90.00
NVIDIA GeForce GTX 690 2x2GB
83.50
HIS Radeon HD 6990 4GB
69.50
NVIDIA GeForce GTX 590 3GB
60.00
AMD Radeon HD 7970 3GB
56.00
NVIDIA GeForce GTX 680 2GB
53.00

CONFIGURAÇÃO PARA O TESTE:

VERY HIGH, AA 4x AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ METRO 2033 | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
103.50
AMD Radeon HD 7970 Triple Crossfire 3x3GB
96.50
AMD Radeon HD 7970 Crossfire 2x3GB
89.00
NVIDIA GeForce GTX 680 SLI 2x2GB
79.00
NVIDIA GeForce GTX 690 2x2GB
73.50
HIS Radeon HD 6990 4GB
61.50
NVIDIA GeForce GTX 590 3GB
53.50
AMD Radeon HD 7970 3GB
50.00
NVIDIA GeForce GTX 680 2GB
47.00

 

Sniper Elite V2

Trata-se de um FPS da Rebellion lançado no final do primeiro semestre de 2012, que traz como destaque o suporte ao que há de mais avançado em tecnologias gráficas, usando como base a engine Asura.

A GTX 690 consegue quase dobrar o desempenho obtido pela GTX 680, com ganho de cerca de 92%. Isso a aproxima do SLI de duas placas, com inferioridade de 2% na resolução mais baixa e empate técnico na mais alta. No entanto, fica muito atrás de um CrossFire com duas HD 7970, com diferença de 30%.

CONFIGURAÇÃO PARA O TESTE:

Extreme, AA HIGH AF 16x, 1680x1050

OBS.:

  • Game baseado em DirectX 9, 10, 10.1 e 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ SNIPER ELITE V2 | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
74.5
AMD Radeon HD 7970 Crossfire 2x3GB
65.9
AMD Radeon HD 7970 Triple Crossfire 3x3GB
65.0
NVIDIA GeForce GTX 680 SLI 2x2GB
50.5
NVIDIA GeForce GTX 690 2x2GB
49.2
AMD Radeon HD 7970 3GB
33.4
NVIDIA GeForce GTX 680 2GB
25.7

CONFIGURAÇÃO PARA O TESTE:

Extreme, AA HIGH AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 9, 10, 10.1 e 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ SNIPER ELITE V2 | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
63.7
AMD Radeon HD 7970 Crossfire 2x3GB
57.7
AMD Radeon HD 7970 Triple Crossfire 3x3GB
56.7
NVIDIA GeForce GTX 680 SLI 2x2GB
43.0
NVIDIA GeForce GTX 690 2x2GB
42.6
AMD Radeon HD 7970 3GB
28.9
NVIDIA GeForce GTX 680 2GB
22.0

 

PhysX: Batman Arkham City

Quando se trata de uma placa de vídeo da Nvidia, não temos como não testar a tecnologia de física PhysX, presente em alguns games e que promete maior realismo, adicionando efeitos não encontrados em placas que não sejam da empresa.

Para os testes, utilizamos o Batman Arkham City, sequência da série que traz efeitos muito bons dessa tecnologia. Abaixo, um exemplo da diferença do game rodando com e sem PhysX.

Como podemos ver nos gráficos abaixo, curiosamente a placa se comporta bem melhor que duas GTX 680 em SLI, 16% mais rápida em 1680x e 18% em 1920x. O ganho sobre a GTX 680 ficou pouco acima de 50% na média das duas resoluções. O resultado é bom por se tratar de um teste com PhysX, já que como destacado, não acontece o mesmo ganho em SLI de duas placas idênticas.

CONFIGURAÇÃO PARA O TESTE:

VERY HIGH / PhysX: HIGH, AA 8x, 1680x1050

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ BATMAN ARKHAM CITY | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 690 2x2GB
78
NVIDIA GeForce GTX 680 SLI 2x2GB
67
NVIDIA GeForce GTX 670 2GB
54
NVIDIA GeForce GTX 680 2GB
52
NVIDIA GeForce GTX 590 3GB
49
MSI GeForce GTX 580 Lightning Xtreme Edition 3GB
47
NVIDIA GeForce GTX 580 1.5GB
46
NVIDIA GeForce GTX 560 SLI 2x1GB
44
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
41
NVIDIA GeForce GTX 570 1.25GB
40
NVIDIA GeForce GTX 560 Ti 1GB
36
ZOTAC GeForce GTX 560 1GB
34
GALAXY GeForce GTX 470 1.25GB
33

CONFIGURAÇÃO PARA O TESTE:

VERY HIGH / PhysX: HIGH, AA 8x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 12

[ BATMAN ARKHAM CITY | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 690 2x2GB
76
NVIDIA GeForce GTX 680 SLI 2x2GB
64
NVIDIA GeForce GTX 670 2GB
51
NVIDIA GeForce GTX 680 2GB
48
NVIDIA GeForce GTX 590 3GB
47
MSI GeForce GTX 580 Lightning Xtreme Edition 3GB
46
NVIDIA GeForce GTX 580 1.5GB
44
NVIDIA GeForce GTX 560 SLI 2x1GB
43
NVIDIA GeForce GTX 570 1.25GB
39
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
37
ZOTAC GeForce GTX 560 1GB
31
GALAXY GeForce GTX 470 1.25GB
30

 

Overclock: Temperatura, Consumo, 3DMark 11

Além do que já mostramos no decorrer da review, outro atrativo da série GeForce 600 está em seu potencial de overclock. Com destaque para a tecnologia GPU Boost, como já falamos, que faz overclock automático da placa de vídeo quando o sistema detecta que existe essa possibilidade/necessidade.

Independente do GPU Boost, assim como qualquer outra placa de vídeo, também podemos aumentar os clocks padrões da placa. O pulo do gato da NVIDIA, porém, está relacionado novamente ao GPU Boost, já que, após definirmos um clock, a tecnologia exclusiva da NVIDIA ainda fará sua atuação sobre ele. Para ficar claro, enquanto a placa com clock padrão sobe de 915MHz para 1020MHz, com o overclock que fizemos deixando o core a 1065MHz a placa chega a 1170MHz, resultado considerável em se tratando de uma placa com duas GPUs como é o caso da GTX 690.

Confiram abaixo a tela do Afrterburnet junto com a do GPU-Z mostrando os detalhes do overclock feito. Vale destacar que a placa pode ir além.


Temperatura
Aumento de 7 graus em relação ao seu clock base a deixa com a maior temperatura apresentada, com um grau acima das dual-chip da geração passada (GTX 590 e a Radeon HD 6990) e três graus acima da GTX 680.

CONFIGURAÇÃO PARA O TESTE:

Rodando 3DMark 11

OBS.:

  • Temperatura ambiente em 25ºC
  • Medida em graus Celsius
  • Quanto MENOR, melhor

[ TEMPERATURA (GPU) | NVIDIA GEFORCE GTX 690 ]

XFX Radeon HD 7970 BE DD 3GB
66
AMD Radeon HD 7970 3GB
70
NVIDIA GeForce GTX 690 2x2GB
71
NVIDIA GeForce GTX 680 2GB
75
HIS Radeon HD 6990 4GB
77
NVIDIA GeForce GTX 590 3GB
77
NVIDIA GeForce GTX 690 2x2GB @ 1065MHz
78

Consumo de Energia
Aumento de 45 Watts em relação ao consumo no clock base, ficando empatada com a dual-chip da geração passada da NVIDIA, a GTX 590, mas ainda com 51 Watts a menos que o SLI com duas GTX 680.

CONFIGURAÇÃO PARA O TESTE:

Rodando 3DMark 11

OBS.:

  • Consumo do sistema inteiro
  • Resultados em Watts
  • Quanto MENOR, melhor
  • Hardwares comparados: 10

[ CONSUMO DE ENERGIA | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 680 2GB
380
AMD Radeon HD 7970 3GB
384
NVIDIA GeForce GTX 690 2x2GB
467
HIS Radeon HD 6990 4GB
473
NVIDIA GeForce GTX 690 2x2GB @ 1065MHz
518
NVIDIA GeForce GTX 590 3GB
518
NVIDIA GeForce GTX 680 SLI 2x2GB
571
AMD Radeon HD 7970 Crossfire 2x3GB
588
NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
770
AMD Radeon HD 7970 Triple Crossfire 3x3GB
780

3DMark 11
O ganho de 12% em relação ao clock base a faz superar o SLI com duas GTX 680, por mais de 2%. Assim, ela fica atrás apenas dos sistemas com três placas.

CONFIGURAÇÃO PARA O TESTE:

PERFORMANCE, 1280x720

OBS.:

  • Aplicativo baseado em DirectX 11
  • Resultados em pontos calculados pelo aplicativo
  • Quanto MAIOR, melhor
  • Hardwares comparados: 10

[ 3DMARK 11 | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
21136
AMD Radeon HD 7970 Triple Crossfire 3x3GB
19447
NVIDIA GeForce GTX 690 2x2GB @ 1065MHz
17383
NVIDIA GeForce GTX 680 SLI 2x2GB
16960
NVIDIA GeForce GTX 690 2x2GB
15454
AMD Radeon HD 7970 Crossfire 2x3GB
14941
HIS Radeon HD 6990 4GB
10194
NVIDIA GeForce GTX 680 2GB
10095
NVIDIA GeForce GTX 590 3GB
10058
AMD Radeon HD 7970 3GB
8388

 

Overclock: AvP, Crysis 2 e Metro 2033

Além do 3DMark 11, fizemos testes com a placa overclockada na resolução de 1920x1080 em alguns games. Vamos acompanhar abaixo como a placa se comportou.

Aliens vs Predator
Novamente um ganho de 12% sobre o clock base permite que a GTX 690 ultrapasse o desempenho do SLI com duas GTX 680 por mais de 8%. Dessa forma, ela fica atrás do CrossFire com duas HD 7970 por cerca de 6%.

CONFIGURAÇÃO PARA O TESTE:

HIGH / ULTRA HIGH, AA 4x AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 10

[ ALIENS VS PREDATOR | NVIDIA GEFORCE GTX 690 ]

AMD Radeon HD 7970 Triple Crossfire 3x3GB
191.5
NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
160.6
AMD Radeon HD 7970 Crossfire 2x3GB
130.6
NVIDIA GeForce GTX 690 2x2GB @ 1065MHz
122.2
NVIDIA GeForce GTX 680 SLI 2x2GB
112.3
NVIDIA GeForce GTX 690 2x2GB
108.2
HIS Radeon HD 6990 4GB
95.0
NVIDIA GeForce GTX 590 3GB
74.9
AMD Radeon HD 7970 3GB
65.6
NVIDIA GeForce GTX 680 2GB
58.7

Crysis 2
Ganho de apenas 0,11% sobre o clock base faz com que continue o empate técnico entre a GTX 690 e os sistemas SLI e CrossFire com duas e três placas.

CONFIGURAÇÃO PARA O TESTE:

ULTRA, AA Quincunx 2X, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 10

[ CRYSIS 2 | NVIDIA GEFORCE GTX 690 ]

AMD Radeon HD 7970 Crossfire 2x3GB
95.4
AMD Radeon HD 7970 Triple Crossfire 3x3GB
94.5
NVIDIA GeForce GTX 690 2x2GB @ 1065MHz
93.8
NVIDIA GeForce GTX 690 2x2GB
93.7
NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
93.6
NVIDIA GeForce GTX 680 SLI 2x2GB
92.7
NVIDIA GeForce GTX 590 3GB
81.2
HIS Radeon HD 6990 4GB
73.9
NVIDIA GeForce GTX 680 2GB
71.7
AMD Radeon HD 7970 3GB
68.6


Metro 2033
Aumento de 11,56% sobre a performance em clock base, novamente superando o SLI com duas GTX 680 e se aproximando do CrossFire com duas HD 7970, com 7,87% de inferioridade.

CONFIGURAÇÃO PARA O TESTE:

VERY HIGH, AA 4x AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 10

[ METRO 2033 | NVIDIA GEFORCE GTX 690 ]

NVIDIA GeForce GTX 680 3-Way SLI 3x2GB
103.50
AMD Radeon HD 7970 Triple Crossfire 3x3GB
96.50
AMD Radeon HD 7970 Crossfire 2x3GB
89.00
NVIDIA GeForce GTX 690 2x2GB @ 1065MHz
82.00
NVIDIA GeForce GTX 680 SLI 2x2GB
79.00
NVIDIA GeForce GTX 690 2x2GB
73.50
HIS Radeon HD 6990 4GB
61.50
NVIDIA GeForce GTX 590 3GB
53.50
AMD Radeon HD 7970 3GB
50.00
NVIDIA GeForce GTX 680 2GB
47.00

 

Conclusão

Se por um lado, a GTX 680 não conseguiu receber o título de “Rainha das Placas 3D”, na época de seu lançamento, pelo fato de não ser “soberana” em todos os testes, por outro, a sua “irmã maior”, a GeForce GTX 690 venceu com facilidade a bateria de testes realizados pelo Adrenaline. Assim, nada mais justo do que “coroá-la” com o referido “título de nobreza”. Será que seu reinado será abalado com a chegada da Radeon HD 7990? A não ser que a equipe de engenharia da AMD se supere, dificilmente a coroa mudará de lado.

Conforme ficou evidenciado em nossos testes, a GTX 690 conseguiu bom ganho sobre a GTX 680, com média de 50% a 60% (chegando até a quase dobrar a performance em determinadas situações). Apesar de ter sido ultrapassada pelo sistema SLI de duas GTX 680 em grande parte dos vezes, a diferença nunca foi muito grande ou que comprometesse o resultado.

Considerando que o consumo de energia da GTX 690 é mais baixo mesmo overclockado, quando ela passa a exibir resultados levemente superiores ao SLI de GTX 680, além de ocupar mesmo espaço. Para um QUAD teórico de GTX 680 seria necessário mais uma GTX 690. Podemos dizer que a GTX 690 obtém certa vantagem sobre um SLI de GTX 680 nesses casos. No preço ambos os sistemas ficam iguais. Assim fica a dúvida: comprar duas GTX 680 ou uma única GTX 690? Se o fator espaço/facilidade no manuseio for importante, sem dúvidas que uma única VGA no gabinete é mais interessante.

Contudo, pesa contra a GeForce GTX 690 o fator escalabilidade, ou seja, o usuário poderá comprar uma GTX 680 e no futuro, adquirir uma segunda (não requisitando gastar US$ 999 de uma única vez). Outro ponto interessante é a venda. Com duas VGAs, o usuário pode, por exemplo, vender uma, ficando com a segunda, utilizando assim o PC sem maiores problemas.
Assim como as demais VGAs de alto desempenho da geração Kepler, a GeForce GTX 690 não fica restrita unicamente ao fator desempenho, seguindo as bases de sustentação: mais suave (FXAA/TXAA e Adptive VSync), mais rica (3D Vision Surround com apenas 1 VGA/GPU, e PhysX mais poderoso), e mais veloz.

Falando em preço, este é o único quesito que pesa contra a nova GeForce dual GPU. Mesmo entendendo que uma placa deste "calibre", além de possuir um custo de fabricação alto é voltada para o público hardgamer e entusiasta, US$ 999 é um patamar que vai além do senso comum. Ainda que eventualmente a Radeon HD 7990 não consiga "bater de frente" com a GTX 690, a chegada de uma placa dual GPU da AMD poderá provocar uma queda no preço do segmento. No Brasil os U$ 999 podem se transformr em incríveis R$ 3.500. Que beleza!

Por fim, mas não por menos, conforme mencionado no decorrer desta análise, um fator extremamente positivo para uma placa 3D do porte da GTX 690, é o TDP. São “apenas” 300W, valor surpreendente se comparado com outras soluções dual GPU do mercado.

Uma coisa é certa, a GTX 690 é com certeza uma das placas mais bonitas e bem acabadas que já passaram por nossa redação, e olha que ao longo dos anos foram dezenas.

NVIDIA GeForce GTX 690
 

AVALIAÇÃO:

Performance

10.0

Preço

6.0

Tecnologias

10.0

Diferenciais

10.0

Overclock

9.0

Nota final

PRÓS
  • Uma das placas de vídeo com melhor acabamento e mais bonitas que já passou pela redação;
  • Bom TDP para a categoria;
  • Roda com folga todos os games em condições extremas;
  • Recheada de recursos e tecnologias, como os filtros FXAA e TXAA, Adptive VSync, GPU Boost...;
  • Ótima possibilidade para overclock;
  • Consome menos e ocupa menos espaço que um SLI de 680
  • Ahhhh, ela é linda de mais, já falamos? :-)
CONTRAS
  • A imensa quantidade extra de CUDA Cores em relação à GTX 590 não se traduziu em um expressivo ganho de performance;
  • Desempenho um pouco inferior ao SLI de 680 em certos casos;
  • Em um SLI de GTX 680 existe a possibilidade de comprar uma placa e depois a outra, além de vender uma delas e ainda ter o ótimo desempenho que uma GTX 680 oferece;
  • Preço de $999 dólares é proibitivo;