A NVIDIA surpreendeu o mercado ao anunciar o lançamento da GeForce GTX TITAN, placa que vinha sendo, até então, objeto de rumores nas últimas semanas. A surpresa se deu basicamente pelo fato da VGA possuir alguns pontos interessantes, e porque não dizer, curiosos. A começar pelo nome. Pertencente a geração Kepler, a TITAN não ostenta qualquer numeração que a identifique como pertencente a atual geração GeForce série 600. 

Não menos surpreendente é o chip gráfico escolhido pela NVIDIA: o GK110. Pra quem não sabe, esta é o cérebro por trás da linha científica Tesla (mais precisamente o modelo K20X). Trata-se de uma GPU extremamente poderosa e complexa, mas que paga um “alto preço” por isso: ter uma enorme área de die, traduzindo em elevado custo de produção e dissipação térmica relativamente elevada (mais detalhes serão abordados na seção “Os recursos da GTX TITAN”).

Há ainda um fato a ser mencionado: o tempo. A placa chega cerca de 9 meses após a GTX 680. Provavelmente, a GTX TITAN chegue como uma opção de alto desempenho enquanto a futura geração Maxwell não é lançada pela NVIDIA. Aliás, comenta-se que tanto GeForce GTX série 700 quanto Radeon 8000 só chegarão ao mercado no final do ano (provavelmente em outubro ou novembro).




Não há como negar que “performance” é o grande destaque da GTX TITAN. E por isso mesmo, a placa posiciona-se um patamar acima da já top GTX 680. Em termos de nomenclatura, a VGA bem que poderia se chamar GTX 685, ou, para ser mais justo com ela, GTX “689”, em virtude de possuir um desempenho bem próximo à GTX 690, solução dual GPU da NVIDIA. No entanto, como tudo na vida, há um preço a ser pago por produtos diferenciados, como é a GTX TITAN.  E no caso da nova GeForce, um preço para alguns poucos felizardos, capazes de desembolsar US$ 999 pela Placa 3D single GPU mais poderosa do mercado.

Apesar do desempenho ser o principal atrativo da GTX TITAN, a VGA possui outros destaques interessantes, como é o caso do GPU Boost 2.0 com overclock de monitor (display overclocking) e sobretensão (overvoltaging), além de fornecer performance completa para computação de precisão dupla (particularmente interessante para o conceito de GPGPU – computação geral).

A VGA mantém inalterada a filosofia da geração Kepler (velocidade e suavidade), oferecendo suporte aos novos filtros de aprimoramento de imagens - FXAA (Fast Approximate Anti-Aliasing) e TXAA (Temporal Anti-aliasing), além do recurso adptive VSync (sincronismo vertical adaptativo) e do 3D Vision Surround.

Nas próximas seções, nossos leitores poderão conferir em primeiríssima mão, o review em português da VGA que promete redefinir o segmento de “alto desempenho” no mundo das placas 3D.

Nasce um novo Titã
Os titãs foram um dos primeiros deuses antigos da mitologia grega, gerados a partir da união incestuosa entre Gaia (a deusa da Terra) com o seu filho Urano (o deus do Céu). Desta união, nasceu Oceanus, Céos, Crio, Hipérion, Jápeto, Téia, Reia, Têmis, Mnemosine, Febe, Tétis e Cronos. Este último era o mais novo e mais terrível dos deuses, que odiava a luxúria do seu pai. 


Após atacar Urano (a pedido de sua mãe) e separá-lo de Gaia, Cronos subiu ao trono do mundo. De seu casamento com a irmã Réia, nasce Zeus. Este quando adulto, declarou guerra ao pai e aos demais Titãs com a ajuda de Gaia. Após cem anos de batalha, Zeus desceu ao Tártaro para libertar os três Ciclopes e os três Hecatônquiros, que unidos, vencem Cronos, coroando assim Zeus como o novo soberano do Universo. 


(Cronos, em cena do filme Fúria de Titãs 2)

A GeForce GTX TITAN bem que poderia ser uma deferência a algum dos antigos 12 titãs da mitologia grega, mas na realidade, a placa da NVIDIA é uma homenagem a um “tit㔠da era moderna. Situado no Laboratório Nacional de Oak Ridge (EUA), o Cray TITAN é atualmente considerado o supercomputador mais poderoso do mundo, com o incrível poder computacional de 17,59 PetaFLOPs, com pico de operação que pode ultrapassar 20 PetaFLOPs (ou 20 quatrilhões de operações de ponto flutuante por segundo)! 

“Mas por que a NVIDIA resolveu homenagear este supercomputador, colocando o seu nome na nova GeForce?” – alguns podem estar se perguntando. Simples. Porque o Cray TITAN é composto por um impressionante “array” (conjunto) de 18.688 placas científicas Tesla K20X da NVIDIA (responsáveis por 90% dos 20 PetaFLOPs), onde cada é equipada com o GK110, o mesmo chip presente na GeForce GTX TITAN.


(Supercomputador Cray TITAN)

Arquitetura GK110
Em termos de macro estrutura de alto nível, o GK110 é muito semelhante ao GK104 da GeForce GTX 680, sendo composto de inúmeros blocos de hardware distintos (cada um especializado em tarefas específicas), com o GPC (Graphics Processing Cluster, ou do português, Cluster de Processamento Gráfico) continuando a ser o bloco de hardware de alto nível dominante. O GPC conta com recursos dedicados para a computação geral, rasterização, sombreamento e texturização. Em outras palavras, quase todas as funções de processamento gráfico de um núcleo da GPU estão contidas neste Cluster.

Como pode ser visto abaixo na estrutura de processamento da Kepler, há um grande bloco chamado pela NVIDIA de “Gigathread Engine”, composto por cinco GPCs, seis controladores de memória, partições ROPs e cache L2. Vale ressaltar que cada GPC, que são na realidade grandes unidades de processamento, e se comportam como mini GPUs independentes, possui três unidades da nova geração de Streaming Multiprocessors, chamados agora pela companhia de SMX (até então a companhia havia batizado os multiprocessadores de Streaming de SM). Diferentemente das duas gerações passadas (GF10x e GF11x), em que cada SM continha 32 CUDA Cores, os SMX da GK110 (assim como os demais chips da geração Kepler) possuem nada menos do que impressionantes 192 CUDA Cores! Desta forma, o GK110 chega à impressionante quantidade de 2.880 CUDA Cores (5 GPCs x 3 SMXs x 192 CUDA Cores – ou simplesmente, 15 SMXs x 192 CUDA Cores). A título de comparação, o GK104 (GTX 680) possui 1.536 CUDA Cores (8 SMXs x 192 CUDA Cores).


(Detalhe do Bloco de Diagrama do chip GK110)

Acontece que a NVIDIA desativou uma unidade de Streaming Multiprocessor. Desta forma, a versão do GK110 da GTX TITAN possui 2.688 CUDA Cores (14 SMXs x 192 CUDA Cores).

A nova GeForce possui uma interface de memória (também conhecido como “bus” ou barramento) de 384 bits, graças a presença dos seis blocos de 64 bits (6 blocos x 64 bits).

Em relação à quantidade de unidades de rasterização (responsável por converter vetores em pixels para a construção das imagens), o GK110 possui um total de 48 ROPs, contra 32 do GK104. Essa diferenciação ocorre em virtude da quantidade de blocos ROPs existentes no Gigathread Engine. Assim, enquanto a GTX TITAN possui seis blocos rasterizadores, cada um composto por oito ROPs – totalizando 48 ROPs (6 blocos x 8 ROPs), a GTX 680 possui quatro blocos, explicando-se assim a quantidade de 32 ROPs (4 blocos x 8 ROPs).

Quanto às unidades de mapeamento das texturas (responsáveis por rotacionar e redimensionar um bitmap para ser colocado sobre um plano arbitrário de um objeto 3D como uma textura), cada SMX é composto por 16 TMUs, totalizando assim 224 unidades de mapeamento das texturas (14 SMXs x 16 TMUs), contra 128 unidades da GK104 (8 SMXs x 16 TMUs).

Por dentro do SMX

Talvez a grande novidade presente na arquitetura Kepler seja a nova geração dos Streaming Multiprocessors, batizado pela NVIDIA de SMX. Além de disponibilizar um desempenho muito maior que o antigo SM da linha Fermi, cada multiprocessador de Streaming consome agora significativamente menos energia em relação à arquitetura anterior.

As principais unidades de hardware responsáveis pelo processamento do GK110 estão inseridas dentro da estrutura do SMX, como é o caso dos CUDA Cores, que lidam, entre outros pontos, com o processamento dos vértices, pixels e da geometria, bem como os cálculos computacionais e de física.

Além disso, é aí que se encontram as unidades de mapeamento das texturas que lidam com a filtragem das texturas, com o carregamento/armazenamento das unidades de busca (units fetch) e pelo salvamento dos dados na memória.


(Detalhe do Streaming Multiprocessor - SMX do GK110)

Olhando para a imagem acima, podemos ver que os 192 CUDA Cores foram “empacotados” juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa comutação dinâmica auxilia os desenvolvedores de jogos a otimizar a performance de seus games, em virtude da arquitetura ser bastante flexível. A GPU tem ainda à disposição fartos 1536KB de cache L2.

Além disso, há ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (65.536 entradas de 32-bits – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc). O cluster SMX possui ainda oito TMUs, cache de textura e o mais importante de tudo: PolyMorph Engine 2.0. 

As unidades de Polymorph Engine foram introduzidas inicialmente na Fermi para lidar com uma enorme carga de trabalho advinda das novas tecnologias, como é o caso da API gráfica DirectX 11. Talvez, a principal delas seja a badalada técnica de aprimoramento da qualidade das imagens, conhecida como Tessellation (Tess), que aumenta de forma quase exponencial a quantidade de triângulos em uma cena, exigindo assim o máximo da GPU. 

Com a geração Kepler, a NVIDIA aprimorou a Polymorph Engine, ao introduzir a Polymorph Engine 2.0 que, de acordo com a companhia, possibilita o dobro de desempenho do processamento primitivo e de Tessellation por SMX, em relação à Fermi.

A PolyMorph Engine 2.0 lida com os buscadores de vértices, com o tessellation, transformador viewport, configurador de atributo e saída de streaming.

Finalmente, as Unidades de Função Especial, mais conhecidas pela sigla em inglês SFU (Special Function Units) controlam instruções transcendentais e de interpolação gráfica.

A Computação Científica do GK110

Apesar do GK110 ser bastante semelhante ao GK104 em termos de macro estruturas, a GPU da GeForce GTX TITAN possui algumas diferenças claras e importantes em relação ao chip da GTX 680 (e demais GeForces da série 600).

O GK110 é um chip originalmente voltado para a computação científica. Tanto é verdade que tal GPU é o cérebro da Tesla K20X (presente no supercomputador Cray TITAN). Desta forma, a GTX TITAN é a primeira GeForce a disponibilizar processamento integral à computação de precisão dupla (DP). Em GeForces anteriores, poucas unidades responsáveis por lidar com as strings DP foram incluídas à GPU. A própria GTX 680 é um exemplo. O SMX do GK104 possui 192 CUDA Cores de ponto flutuante de precisão simples (SP) e apenas 8 CUDA Cores de precisão dupla. Como resultado, as operações de DP por ciclo de clock trabalham efetivamente a 1/24 da taxa de SP. 



Com a GTX TITAN, a NVIDIA incluiu robustos 64 CUDA Cores  de dupla precisão por SMX aos 192 CUDA Cores de precisão simples), otimizando assim a razão entre núcleos DP e SP de 1/24 para 1/3, tornando assim a placa muito mais poderosa no que se refere ao processamento de fluxos de trabalho que exijam precisão dupla (como é o caso das complexas tarefas profissionais e científicas).

De acordo com a NVIDIA, a adição de um robusto suporte à execução de tarefas de precisão dupla na GTX TITAN, teve como objetivo, permitir que os desenvolvedores pudessem tirar o máximo proveito da computação acelerada de GPU (conceito conhecido como GPGPU), fornecendo assim aos estudantes, pesquisadores, engenheiros e demais profissionais,  mais de 1 TeraFLOP de poder computacional de precisão dupla nos PCs domésticos.

Para mais informações sobre a arquitetura do GK110, basta clicar aqui (em inglês).

Os recursos da GTX TITAN

Abaixo há um resumo das principais especificações da GeForce GTX TITAN.

  • 7,1 bilhões de transistores;
  • Litografia em 28 nm;
  • Área do die (estimado): 550mm2;
  • Frequência de operação das texturas e ROPs (GPU): 836MHz (876Mhz via GPU Boost);
  • 2688 CUDA Cores/shader processors;
  • Frequência de operação das memórias: 6008MHz (GDDR5);
  • Poder computacional: 4,5 TFLOPS (Precisão Simples – FP32) e 1,3 TFLOPS (Precisão Dupla – FP64);
  • Quantidade de memória: 6GB;
  • Interface de memória: 384bits;
  • Quantidade de cache L2: 1,5MB;
  • TDP: máximo de 250 watts;
  • Limiar térmico da GPU em 95° C;
  • Suporte às tecnologias: CUDA (GPGPU com FP64), DirectX 11.1, GeForce 3D Vision, NVIDIA 3D Vision Surround, Filtros FXAA/TXAA, GPU Boost 2.0 com overclock de monitor (display overclocking) e sobretensão (overvoltaging), Adptive VSync, NVIDIA PhysX,  PureVideo HD Technology, HDMI 1.4a, OpenGL 4.2, OpenCL e DirectCompute.



(Detalhe do chip GK110)

Conforme mencionado nos tópicos anteriores, a GeForce GTX TITAN tem como foco, o desempenho, e para tanto, esbanja fartos números quando se trata de especificações. Quando todos imaginavam que o “limite” de processadores gráficos da GeForce single GPU mais poderosa da série 600 (GTX 680) ficaria nos 1.536 CUDA Cores, a NVIDIA surpreendeu a todos, aumentando esse valor em 75%, chegando assim aos 2688 CUDA Cores da GTX TITAN. Percebam que o processo de litografia não passou por qualquer refinamento, mantendo o atual padrão em 28nm!

Outros números são igualmente impressionantes, como é o caso das unidades de rasterização (também conhecido como unidades de saída de renderização - ROPs) e das unidades de mapeamento das texturas. Enquanto que a GTX 680 possui 128 TMUs, a nova GeForce tem um total de 224 TMUs, ou seja, um “upgrade” de 75%. Com isso, a taxa de preenchimento de texturas salta de 128,8 GigaTextels/s para 187,5 GigaTexels em velocidade padrão, chegando a picos de 196.2 GigaTexels em modo turbinado.

Já nos ROPs, o aumento foi de 50%, pulando de 32 (GTX 680) para 48 (GTX TITAN), suficiente para elevar a taxa de preenchimento dos pixels de 32,2 GigaPixels/s para 40,1 GigaPixels/s em velocidade padrão, e 42 GigaPixels/s em Boost Clock.

Não menos surpreendente diz respeito à dupla: largura de banda de memória e quantidade de VRAM – itens fundamentais para possibilitar o uso de múltiplos monitores, ou tela de grande proporção, com o uso de filtros de melhoria de imagens (como é o caso do Anisotropic e AntiAliasing) sem causar travamentos. Enquanto que a GTX 680 possui 2GB de GDDR5 e largura de banda de 192,3 GB/s, a GTX TITAN vem com 6GB e 288,4 GB/s de vazão de fluxo de dados para a memória. Aumento respectivo de 200% e 50%. Esse incremento só foi possível graças à elevação no barramento das memórias de 256 bits para 384 bits, uma vez que os clocks mantiveram-se inalterados em 6.008Mhz.


(GeForce GTX TITAN "desnuda", revelando detalhes de seu PCB)


Contudo, os engenheiros da NVIDIA não tiveram como realizar “milagres”. Os expressivos aumentos nos números por trás das especificações da nova GeForce resultaram em um chip com uma imensa quantidade de transistores e die com área gigantesca. Assim, enquanto que o GK104 (GTX 680) possui 3,54 bilhões de transistores distribuídos em 294 mm2, o GK110 tem 7,1 bilhões em estimados 550 mm2. O resultado disso? Uma GPU com dissipação térmica mais elevada – e para piorar – um chip caro de se produzir, uma vez que se reduz a quantidade de chips fabricados no wafer de silício.

Falando em dissipação térmica, o resultado até que pode ser considerado bom, se analisado o desempenho da placa como um todo, e quando comparada com outras GeForces. Enquanto que a GTX 680 tem TDP em 195W e a GTX 580, 244W, a GTX TITAN tem TDP em 250W. É bom que se diga que esse resultado só não foi maior, em virtude do “pé no freio” na frequência de operação da GPU. Assim, o clock que era de 1006Mhz na GTX 680, passou para 836 MHz em modo padrão, podendo chegar a 876 MHz em Boost. Aliás, esta “segurada” no core clock foi outro fator que influenciou o resultado na taxa de preenchimento dos pixels.

Com dissipação térmica máxima em 250W, a NVIDIA equipou a GTX TITAN com um conjunto de conectores extras de energia do tipo 6+8 pinos, garantindo assim respectivamente 75W e 150W aos 75W fornecidos pelo link do PCI Express. Assim, a placa tem ao seu dispor, 300W, uma boa margem de segurança para overclock. Aliás, a nova GeForce conta com um sistema de alimentação de força de 6 fases com capacidade para sobretensão para o chip. Outro sistema de regulação de energia (VRM) de 2 fases é dedicado para as memórias GDDR5. De acordo com a companhia, a GTX TITAN pode ultrapassar a impressionante barreira de 1.1Ghz. É importante frisar que a Adrenaline não recomenda tal prática, principalmente para os usuários inexperientes em se tratando de overclock. Para dar conta de uma placa deste porte, a NVIDIA recomenda uma fonte de energia (PSU) real de 600W.


As novidades da GTX TITAN

GPU Boost

O GPU Boost trabalha de forma transparente para o usuário (segundo plano), combinando recursos de hardware com software para o ajuste dinâmico nos clocks (overclock), com o objetivo de disponibilizar a quantidade de megahertz necessária para o bom funcionamento das tarefas. Tudo, claro, com base em certas condições de operação da GPU.

Originalmente lançado no ano passado com a GeForce GTX 680, a primeira iteração da tecnologia de overclock dinâmico foi projetado para atingir a maior velocidade possível, permanecendo dentro de um limite predefinido de consumo de energia. No caso da GTX 680, esse “teto” é 170 watts.


(Funcionamento da primeira geração do GPU Boost. O recurso monitora o consumo de energia em tempo real e aumenta o clock da GPU quando há condições disponíveis.)

Com a GTX TITAN, o recurso foi revisto e aprimorado, passando a se chamar  GPU Boost 2.0. Após uma cuidadosa avaliação dos engenheiros da NVIDIA determinaram que o consumo de energia da GPU estava desnecessariamente limitando o desempenho quando as temperaturas eram baixas. Assim, para o GPU Boost 2.0, o fator condicionante para a tecnologia funcionar foi alterado do consumo de energia para a temperatura.  Esta nova meta é agora de 80 graus Celsius. Portanto, a freqüência de operação da GeForce GTX TITAN irá automaticamente aumentar para o patamar mais elevado, desde que a temperatura da GPU não ultrapasse os 80oC. Vale ressaltar que o recurso monitora constantemente a GPU, ajustando o clock e tensão (“voltagem”) em tempo real para manter  a temperatura dentro deste limite.

Outro benefício do GPU Boost 2.0 é a diminuição no nível de ruído do sistema de refrigeração – através da redução na velocidade das ventoinhas – desde que o usuário faça um controle mais rígido no limite da temperatura. Na realidade, é possível realizar um controle personalizado na tecnologia de overclock dinâmico. Para tanto, basta alterar o limite padrão de 80oC para mais, ou para menos. Assim, o usuário poderá optar entre um controle mais rígido no nível de ruído, ou, aumentar o potencial de overclock.

Vale esclarecer que, apesar da mudança no fator condicionante do consumo de energia (170W) para a temperatura (80oC – padrão), há obviamente o limite do TDP da placa (250W no caso da GTX TITAN). Contudo, é possível ampliar este limite. Assim, colocando o GPU Boost 2.0 para trabalhar a 106%, a dissipação térmica máxima vai para 265W.

GPU Boost 2.0: Overclocking/Overvoltaging

Uma função presente no GPU Boost 2.0 muito bem vinda para os overclockers é o controle da sobretensão de energia. 

Uma vez que o nível de tensão (também conhecido de forma errada como “voltagem”) e o Boost Clock da GTX TITAN estão “amarrados” ao limite de temperatura, os engenheiros da NVIDIA permitiram agora aumentar a tensão da GPU, possibilitando atingir clocks ainda mais elevados (segundo a companhia, é possível atingir 1.1Ghz com o sistema de refrigeração padrão. Mais uma vez a Adrenaline não recomenda tal prática, principalmente para o usuário inexperiente). 


(Diferença de performance entre o GPU Boost, GPU Boost 2.0 e GPU Boost com sobretensão (overvoltage)

É bom que se diga que as tensões padrões na nova GeForce estão limitadas a uma variação totalmente testadas e qualificadas pela NVIDIA. Esta faixa de tensão tem como objetivo proteger os circuitos integrados de danos com uso a longo prazo. Entretanto, os entusiastas podem querer ultrapassar esse limite, aumentando ainda mais a tensão máxima.

O GPU Boost 2.0 permite que essa capacidade de sobretensão, requerendo, no entanto, que os usuários reconheçam o risco para a sua GPU, clicando através de um aviso. Vale ressaltar que cada fabricante de VGA pode limitar o grau da sobretensão suportada em suas placas, ou mesmo desativar o recurso através de alteração na VBIOS. 

GPU Boost 2.0: Display Overclocking

Muitos jogadores gostam de jogar com sincronização vertical (VSync) habilitado uma vez que não conseguem suportar o efeito de tremulação (tearing) que ocorre quando VSync está desligado. Se por um lado isso evita o temido “tearing”, por outro, limita a taxa de quadros (frame rate) para a taxa de atualização (refresh rate) do monitor, normalmente em 60Hz para a maioria das telas LCD. Como resultado, o jogo fica limitado a 60 quadros por segundo (FPS), não importando  se a VGA tenha capacidade de ir além deste limite. 


(FPS limitado pela taxa de atualização do monitor)

Com o GPU Boost 2.0, há um novo recurso, chamado de “Overclock de Tela (Display Overclocking) que quebra este limite. Usando ferramentas fornecidas pela NVIDIA e seus parceiros, é possível overclockar a velocidade do pixel da tela, possibilitando atingir taxas de atualização mais elevadas. Vale ressaltar que não são todos os monitores que suportam o overclock. 


(GPU Boost 2.0: Display Overclocking entra em ação para aumentar os FPS do jogo)


Outras tecnologias
DirectX 11.1

Apesar do suporte à mais recente API Gráfica da Microsoft ter sempre sido motivo de destaque no marketing das companhias, ao que parece, a NVIDIA não está tão empolgada com tal fato. Tanto que, apesar de a arquitetura Kepler suportar o  DirectX 11.1, John Danskin, vice-presidente de arquitetura de GPU da NVIDIA, soltou a seguinte frase durante o NVIDIA Editor's Day em São Francisco (evento super seleto, fechado a um restrito grupo de jornalistas de várias partes do mundo – e coberto pelo Adrenaline): "Sim, [a GeForce GTX 680] será compatível com DirectX 11.1, mas... quem se importa?"

Provavelmente o que o executivo quis dizer foi que a atualização da API Gráfica da Microsoft não trará tantas melhorias gráficas; e mais ainda: deverá demorar até que o DX11.1 seja adotado amplamente pelos games – assim como o próprio DX11. Até que isso ocorra, é provável que as GeForces da série 700 ou mesmo 800 já tenha sido lançadas.

As principais novidades do DX11.1 são:

• Rasterização independente de objeto;
• Interoperabilidade flexível entre computação gráfica e vídeo;
• Suporte nativo ao Stereo 3D.

FXAA
Embora não seja um filtro de Anti-Aliasing (antisserrilhado) inédito, a NVIDIA aprimorou o FXAA (Fast Approximate Anti-Aliasing) na nova geração Kepler.

Semelhante ao MLAA (Morphological Anti-Aliasing, ou Antisserrilhamento Morfológico) empregado pela AMD nas novas Radeons, o FXAA é uma técnica de pós-processamento, isto é, que aplica o filtro de anti-aliasing na imagem após esta ter sido gerada pela GPU. Isso é bastante vantajoso, haja vista que alivia a carga de trabalho da unidade de processamento gráfico. Vale destacar que o FXAA é aplicado junto com outras técnicas de pós-processamento, como é o caso do motion blur e do bloom.

Com a chegada da Kepler, a NVIDIA passou a adotar o FXAA via driver (geração R300), possibilitando a utilização do filtro em centenas de jogos. Outro destaque do Fast Approximate Anti-Aliasing sobre o Morphological Anti-Aliasing está no ganho de desempenho, chegando a ser 60% mais veloz que o MSAA em 4X.

Um fato que chamou bastante a atenção da comunidade foi a apresentação do Samaritan Demo (demonstração de um vídeo da Epic que ressalta o poderio gráfico do DirectX da Unreal Engine) na Game Devolpers Conference – GDC 2011. Na ocasião, a Epic necessitou de três GeForces GTX 580 para rodar o demo a contento. Passado um ano, ou seja, na GDC 2012, a Epic fez uma nova apresentação do Samaritan Demo. Contudo, para a surpresa de todos, foi necessário apenas uma GeForce GTX 680 e a utilização do FXAA para “dar conta do recado”.

Para ver um comparativo mais apurado dos benefícios do filtro, clique aqui.

TXAA
Considerado pela NVIDIA como a próxima geração de filtros de antisserilhamento (responsável pela geração do próximo nível em termos de qualidade de imagem), o TXAA (Temporal Anti-aliasing) promete disponibilizar muito mais qualidade e performance se comparado com o MSAA.

Segundo a companhia, o antisserilhamento temporal foi criado com o objeto de explorar toda a capacidade de processamento de texturas da geração Kepler (mais especificamente nas placas baseadas no chip gráfico GK104, ou seja, nas GTX 680/670/660).

O TXAA é um misto de anti-aliasing de hardware com filme GC estilo AA, e para o caso do filtro em 2X, um componente temporal opcional é empregado, para melhorar a qualidade da imagem.

O filtro de Temporal Anti-aliasing está disponível em dois modos: TXAA1 e TXAA2. De acordo com a NVIDIA, o TXAA1 oferece uma qualidade gráfica superior ao MSAA em 8X, com gasto de processamento semelhante ao MSAA em 2X. Já o TXAA2 permite uma qualidade das imagens superior ao TXAA1, com performance comparável ao MSAA em 4X.

Inicialmente o filtro antisserilhamento temporal será implementado diretamente na engine de alguns dos principais jogos da futura geração. Até o momento, a Epic Games, com a sua badalada Unreal Engine Technology 4, e a Crytek, são dois dos principais estúdios que já estão desenvolvendo games com o novo filtro da NVIDIA.


Adptive VSync

O sincronismo vertical – V-Sync foi projetado para lidar com os chamados artefatos fora de sincronismo ou artefatos trepidantes (tearing artifacts ), que podem ocorrer quando a quantidade de FPS é bem superior à taxa de atualização (refresh rate) do monitor, e que além de causarem um desconforto visual, prejudicam a jogabilidade do usuário. Embora seja raro, é possível ainda que o fenômeno aconteça na situação inversa ao mencionado acima, ou seja, quando os FPS são bem menores que a taxa de atualização da tela.


(Tearing artifacts)

Apesar de criado com o intuito de acabar (ou amenizar) com os tearing artifacts, o V-Sync gerou outro problema: a perda de frames (stuttering), também conhecido como “lag”. Isso ocorre quando os FPS caem para menos de 60 quadros por segundo, ocasionando a redução do V-Sync para 30Hz (e demais quocientes de 60, como 20Hz ou 15Hz).


(Problema de sincronismo vertical - VSync)

Como forma de enfrentar esse desafio, os engenheiros de software da NVIDIA criaram o Adptive V-Sync. Presente na geração de drivers R300 da companhia, a tecnologia dinamicamente liga e desliga o sincronismo vertical, de forma a gerar FPS mais regulares e cadenciados, o que minimiza os lags nos games e previne a má sincronização das imagens.

Mais especificamente, quando a taxa de quadros por segundo cai para menos de 60 FPS, o Adptive V-Sync entra em cena e desliga o sincronismo vertical, possibilitando que os frame rates funcionem em sua taxa natural, o que reduz as chances de ocorrer lag. Quando os FPS voltam para 60 quadros por segundo, o Adptive V-Sync atua novamente ao ligar o sincronismo vertical, reduzindo a possibilidade de ocorrerem artefatos fora de sincronismo.


(Adptive V-Sync em funcionamento)

NVENC
A NVIDIA introduziu em todas das VGAs da linha Kepler o NVENC, novo vídeo encoder para o padrão H.264.

Antes do NVENC, as GeForces utilizavam o Badaboom (mais detalhes na próxima seção), que utiliza do poder dos CUDA Cores para a conversão de diferentes formatos de streaming multimídia. Se, por um lado, esse recurso tem a grande vantagem de desafogar o processador e acelerar o processo, por outro, tem o ponto fraco de aumentar o consumo de energia da placa durante a conversão.

Para resolver essa questão, a NVIDIA criou o NVENC, que utiliza um circuito especializado para o “encodamento” H.264. Vale destacar que tal circuito é quase quatro vezes mais veloz que o encoder via CUDA Cores, além de consumir consideravelmente menos energia que o Badaboom.

O NVENC é capaz de lidar com as seguintes situações:

- Encodar vídeos em fullHD (1080p) com velocidade até oito vezes maior que em tempo real. De acordo com a companhia, em modo de alta performance, o NVENC é capaz de encodar um vídeo de 16 minutos em 1080p @ 30 FPS em apenas dois minutos;

- Suporte ao padrão H.264 nos níveis de profile 4.1 Base, Main e High (mesmo que o padrão Blu-Ray);

- Suporte ao MVC (Multiview Video Coding) para vídeos estereoscópicos – extensão do H.264 para o padrão Blu-Ray 3D;

- “Encodamento” para resolução de até 4096x4096 pixels.

É bom que se diga que, além da transcodificação, o NVENC é útil para edição de vídeos, telas do tipo wireless (sem fio) e aplicações de vídeo conferência.


PCIe Gen 3
Na medida em que novas gerações de placas chegavam ao mercado, foi gerado um temor nos analistas de que o padrão de interface de comunicação PCI Express chegaria a um ponto em que não conseguiria dar mais vazão ao fluxo de dados com a intensidade necessária, criando assim um verdadeiro gargalo para o desempenho da VGA.

Este temor, contudo, se diluiu, com o recente anúncio da geração 3 do PCIe, que dobrou a taxa de transferência em relação ao PCIe Gen 2, garantindo tranquilidade para as futuras placas 3D.

Com o novo patamar de desempenho advindo da geração Kepler, a NVIDIA garantiu o suporte ao PCI Express 3.0 nas GeForces série 600, encerrando qualquer tipo de temor em relação a gargalo de desempenho.

Com o PCIe Gen 3, a largura de banda saltou de 16GB/s para 32GB/. Já nas placas acessórias instaladas, o ganho saiu de 500MB/s para 1GB/s por pista/linha. Assim, os dispositivos que utilizam a configuração x16 podem utilizar de 16GB/s, ou 128Gbps. Vale ressaltar, contudo, que para se beneficiar do PCI Express 3.0 o usuário deverá ter um sistema totalmente preparado e compatível com tal recurso. Assim, além de uma VGA PCIe Gen 3.0, tanto a placa-mãe quanto o processador deverão suportar a novidade.


CUDA

Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units).

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip gráfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estágios programáveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não gráficos.

Apresentada inicialmente em 2007, a tecnologia CUDA está presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x.

De acordo com vários experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano está na arquitetura por trás do chip gráfico, massivamente focado na computação paralela, graças à imensa quantidade de cores/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Dessa forma, aplicações voltadas para a biologia, física, simulações, criptografia, entre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA.

No campo dos games, a renderização dos gráficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como por exemplo, nos cálculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...)

Atualmente, é o processo de GPGPU mais difundido no mercado, com mais de 100 milhões de placas compatíveis.

PhysX
Embora seja uma das grandes “vedetes” dos games modernos, a tecnologia de processamento da física é uma tecnologia que já vem de alguns anos.

Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trás da tecnologia.

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Assim, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs.

Muito bem, mas o que vem a ser exatamente o tal cálculo da física presente no PhysX? Trata-se da técnica na qual o chip gráfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador ao adicionar ambientes físicos vibrantes, de imersão total.

A física é o próximo passo na evolução dos jogos. Diz respeito à forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma já programada. Para os praticantes, os jogos são bons, mas falta o realismo necessário para produzir a verdadeira sensação de imersão.

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessária para produzir a física avançada e realista nos jogos de próxima geração, deixando para trás os efeitos de animação pré-fabricados.

É através do cálculo da física que, por exemplo, uma explosão parece mais real para o usuário, uma vez que se pode gerar um verdadeiro “efeito dominó” por trás desse evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo e a fumaça.

O PhysX é responsável, entre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços;
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas;
• Novos e incríveis efeitos nos efeitos dos disparos de armas;
• Tecidos que se enrugam e rasgam naturalmente;
• Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)


(Vídeo de Borderlans 2 mostrando efeitos do PhysX em uma GTX 660 Ti)

3D Vision Surround
Lançado no início de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado.

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho).

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação sequencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.

Foi uma ação extremamente ambiciosa e ousada da NVIDIA, já que ela teve que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa “The Way It's Meant To Be Played”, em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.

Vale ressaltar que a tecnologia não está limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:

• Óculos Sem Fio 3D Estereoscópico Ativo - Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plástico.

• Emissor Infravermelho de alta potência (porta USB) - Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real.

• Monitores Ultra-Flexíveis - Projetado para os monitores LCD de 120Hz, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos. 

• Softwares de Compatibilidade - Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI e PhysX.

• Visualizador 3D - Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


(Kris Rey da NVIDIA jogando Skyrim em 3 monitores,
enquanto navega no portal GeForce.com para acessar o guia de otimização do jogo para a VGA)

O passo seguinte no avanço da tecnologia 3D foi o lançamento do 3D Vision Surround (imagem acima), que possibilitou utilizar até três monitores simultâneos, formando assim uma ampla área de visualização em três dimensões.

Com a chegada da linha Kepler (mais especificamente da GeForce GTX 680), a NVIDIA aprimora ainda mais o 3D Vision Surround, ao permitir o uso da tecnologia com o uso de apenas uma GPU da nova geração, barateando consideravelmente o investimento necessário para se jogar em 3D com múltiplos monitores.

SLI
Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os gráficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.

Sendo assim, o objetivo da tecnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é o mesmo: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação gráfica, destinada a aumentar o poder de processamento disponível nas placas 3D.

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a “engavetada” até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trás do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)

Trata-se do método em que se analisa a imagem processada a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em várias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Esse é o modo padrão usado pela configuração SLI usando duas placas de vídeo.

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)

Aqui, cada GPU renderiza frames/quadros inteiros em sequência - uma trabalhando com os frames ímpares e outra responsável pelos pares, um após o outro. Quando a placa escrava/secundária finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.

• AFR de SFR

Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Dessa forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessário, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.

• SLI Antialiasing

Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade, pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não há grandes problemas em utilizar o PCI Express na configuração x8.

Atualmente, não há restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que elas possuam o mesmo chip gráfico. No início, a tecnologia restringia o uso a VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado.

PureVideo

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuário poderá ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web.

O PureVideo possui os seguintes recursos:

• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU;
• Aceleração WMV de Alta Definição por hardware: Suporte programável ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD;
• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;
• Desentrelaçamento temporal/espacial adaptável: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos;
• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução;
• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a área da tela de reprodução;
• Display Gamma Correction: Detecção automática de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela.

Fotos
Assim como a GeForce GTX 690, a GTX TITAN tem layout bastante diferenciado das demais placas da NVIDIA, na verdade ambos os modelos se assemelham bastante, com bastante material metálico.

Com acabamento bem acima do padrão, a placa usa e abusa de materiais metálicos gerando um visual muito imponente e bonito. Outro detalhe é que até mesmo parafusos com acabamento acima de modelos normais tornam o acabamento da placa melhor.

Como podem ver abaixo, talvez a principal diferença para com a GTX 690 está no cooler posicionado em uma das extremidades e não no centro da placa.

As conexões de vídeo são as mesmas de uma GTX 680, duas DVI, uma HDMI e uma DisplayPort. 


NVIDIA GeForce GTX 690 vs GTX TITAN vs GTX 680
Nas fotos abaixo colocamos lado a lado a três principais placas da NVIDIA atualmente, GeForce GTX 690, GTX TITAN e GTX 680. Como podemos ver, o projeto da GTX 690 se assemelha muito ao da TITAN, consideravelmente acima da GTX 680 e da grande maioria das placas de vídeo do mercado.


Por dentro do sistema de cooler
Também abrimos o sistema de cooler da placa, para mostrar um pouco o projeto da NVIDIA para essa característica tão importante em um produto desse segmento.

Como já tinha mencionado anteriormente, o que mais chamou a atenção é que mesmo um detalhe como parafusos, fica muito claro que é de qualidade bem superior a média, e no final temos esse produto altamente diferenciado, com sensação de algo bastante robusto e elegante.

Máquina/Softwares utilizados
Como de costume, utilizamos uma máquina TOP de linha baseada em uma mainboard ASUS rampage IV Extreme, processador Intel Core i7 3960X overclockado para 4.6GHz. Abaixo duas fotos da placa montada no sistema utilizado:


    Máquina utilizada nos testes:
    - Mainboard ASUS Rampage IV Extreme
    - Processador Intel Core i7 3960X @ 4.6GHz
    - Memórias 32 GB DDR3-1866MHz Patriot Viper III Black
    - SSD Intel 330 Series 180GB
    - HD 2TB Sata3 Western Digital Black
    - Fonte Cooler Master Silent Pro Hybrid 1300w
    - Cooler Master Hyper 212 EVO

    Sistema Operacional e Drivers
    - Windows 7 - 64 Bits 
    - Intel INF 9.3.0.1026
    - GeForce 314.07 WHQL / 314.09 BETA: Placas NVIDIA
    - Catalyst 13.2 Beta 6: Placas AMD 

    Configurações de Drivers:
    - Default

    Aplicativos/Games
    - 3DMark 11 (DX11)
    - 3DMark (DX11)
    - Unigine HEAVEN Benchmark 4.0 (DX11)
    - Unigine Valley Benchmark 1.0 (DX11)

    - Aliens vs Predator (DX11) 
    - Borderlands 2 (DX9 / PhysX)
    - Crysis 2 (DX11) 
    - F1 2012 (DX11) 
    - Just Cause 2 (DX10.1) 
    - Metro 2033 (DX11) 
    - Sleeping Dogs (DX11)
    - Hitman Absolution (DX11)

    GPU-Z e Temperatura
    Abaixo temos a tela principal do aplicativo GPU-Z mostrando algumas das principais características técnicas da GTZ TITAN ao lado da GTX680. Reparem que o clock do core caiu na TITAN, passando de 1006MHz para 837MHz, já as memórias permaneceram com clock de 6008MHz(1502x4).

    Temperatura
    Iniciamos nossa bateria de testes com um bench bastante importante: a temperatura do chip, tanto em modo ocioso como em uso contínuo.

    Nos testes abaixo é possível notar que as três placas single-chip possuem um consumo parecido, quando ociosas. A TITAN apresentou a maior temperatura, mas nada que ultrapassasse a casa dos 10% de diferença comparado ao medido na GTX 680 e na HD 7970.

    CONFIGURAÇÃO PARA O TESTE:

    Sistema ocioso (idle)

    OBS.:

    • Temperatura ambiente ou no máximo 25ºC
    • Medida em graus Celsius
    • Quanto MENOR, melhor

    [ Temperatura (GPU) | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    29

    GeForce GTX 690 2x2GB
    29

    GeForce GTX 680 2GB
    31

    GeForce GTX 680 2GB
    31

    Radeon HD 7970 3GB
    33

    Radeon HD 7970 3GB
    33

    GeForce GTX TITAN 6GB
    34

    GeForce GTX TITAN 6GB
    34



    Medimos o pico de temperatura durante os testes do 3DMark 11 rodando em modo contínuo. O teste coloca as placas "para trabalhar", aumentando com isto as temperaturas de operação. Apesar do aumento da diferença, a TITAN não chega a um aquecimento "monstruoso", comparado as outras duas placas. A maior diferença fica em relação a HD 7970 e a GTX 690, sendo que a TITAN aquece 12% a mais que elas, chegando aos 80 graus celsius.

    CONFIGURAÇÃO PARA O TESTE:

    Rodando 3DMark 11

    OBS.:

    • Temperatura ambiente ou no máximo 25ºC
    • Medida em graus Celsius
    • Quanto MENOR, melhor

    [ Temperatura (GPU) | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    71

    GeForce GTX 690 2x2GB
    71

    Radeon HD 7970 3GB
    71

    Radeon HD 7970 3GB
    71

    GeForce GTX 680 2GB
    75

    GeForce GTX 680 2GB
    75

    GeForce GTX TITAN 6GB
    80

    GeForce GTX TITAN 6GB
    80



    Consumo de Energia
    Também fizemos testes de consumo de energia com todas as placas comparadas. Os testes foram feitos todos em cima da máquina utilizada na review, o que dá a noção exata do que cada VGA consome.

    Em modo ocioso (também conhecido como idle), as três placas single-chip ficam em um empate técnico, com diferenças que não chegam a 2%.

    CONFIGURAÇÃO PARA O TESTE:

    Sistema ocioso (idle)

    OBS.:

    • Consumo do sistema inteiro
    • Resultados em Watts
    • Quanto MENOR, melhor

    [ Consumo de Energia | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX TITAN 6GB
    177

    GeForce GTX TITAN 6GB
    177

    Radeon HD 7970 3GB
    178

    Radeon HD 7970 3GB
    178

    GeForce GTX 680 2GB
    180

    GeForce GTX 680 2GB
    180

    GeForce GTX 690 2x2GB
    188

    GeForce GTX 690 2x2GB
    188



     

    No teste de carga, rodando o 3DMark 11, e aumentando o consumo de energia das placas colocando-as em situações de maior demanda de potência, vemos que a diferença da TITAN é maior que a observada na temperatura. A placa chega a um consumo quase 20% superior a medida na GTX 680, e em torno de 16% maior que a da HD 7970. O consumo da GTX 690 e da TITAN são bem próximos, na casa dos 3% de diferença, apenas.

    CONFIGURAÇÃO PARA O TESTE:

    Rodando 3DMark 11

    OBS.:

    • Consumo do sistema inteiro
    • Resultados em Watts
    • Quanto MENOR, melhor

    [ Consumo de Energia | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 680 2GB
    402

    GeForce GTX 680 2GB
    402

    Radeon HD 7970 3GB
    412

    Radeon HD 7970 3GB
    412

    GeForce GTX TITAN 6GB
    479

    GeForce GTX TITAN 6GB
    479

    GeForce GTX 690 2x2GB
    497

    GeForce GTX 690 2x2GB
    497



    OBS.: No teste em modo ocioso, consideramos 5w como margem de erro. Já no teste rodando o aplicativo 3DMark 11, consideramos 15w como margem de erro devido à grande variação que acontece testando uma mesma placa.

    3DMark 11, 3DMark

    3DMark 11
    Começamos os testes com o benchmarks da Futuremark utilizando a ferramenta anterior da empresa, o 3DMark 11. Nela podemos ver que há um grande equilíbrio entre a GTX 680 e a HD 7970, sendo que a TITAN entregou uma performance entre 35 a 40% superior as duas placas single-chip. A GTX 690 segue na liderança, com vantagem de 16%.

    CONFIGURAÇÃO PARA O TESTE:

    1280x720, PERFORMANCE

    OBS.:

    • Aplicativo baseado em DirectX 11
    • Resultados em pontos calculados pelo aplicativo
    • Quanto MAIOR, melhor

    [ 3DMark 11 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    15577

    GeForce GTX 690 2x2GB
    15577

    GeForce GTX TITAN 6GB
    13360

    GeForce GTX TITAN 6GB
    13360

    GeForce GTX 680 2GB
    9835

    GeForce GTX 680 2GB
    9835

    Radeon HD 7970 3GB
    9505

    Radeon HD 7970 3GB
    9505



     

    3DMark
    Mudando para o software mais recente, rodamos três testes da nova ferramenta: o Ice Storm, Cloud Gate e Fire Strike. Em cada teste, tivemos situações diferentes: no primeiro, a TITAN apresentou um desempenho bem próximo ao das demais placas, conseguindo apenas 3% de vantagem. No segundo, a diferença subiu para 16%, enquanto que o terceiro teste foi onde a diferença ficou mais evidente, com a placa conseguindo ser 34% superior a HD 7970, e 44% acima da GTX 680.

    Neste novo teste, a TITAN conseguiu ficar bem próxima da GTX 690, com diferenças que não passam muito de 10%. 

    CONFIGURAÇÃO PARA O TESTE:

    Ice Storm (default)

    OBS.:

    • Resultados em pontos calculados pelo aplicativo
    • Quanto MAIOR, melhor

    [ 3DMark | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    180601

    GeForce GTX 690 2x2GB
    180601

    GeForce GTX TITAN 6GB
    179241

    GeForce GTX TITAN 6GB
    179241

    GeForce GTX 680 2GB
    173754

    GeForce GTX 680 2GB
    173754

    Radeon HD 7970 3GB
    173241

    Radeon HD 7970 3GB
    173241



    CONFIGURAÇÃO PARA O TESTE:

    Cloud Gate (default)

    OBS.:

    • Resultados em pontos calculados pelo aplicativo
    • Quanto MAIOR, melhor

    [ 3DMark | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    33148

    GeForce GTX 690 2x2GB
    33148

    GeForce GTX TITAN 6GB
    31592

    GeForce GTX TITAN 6GB
    31592

    GeForce GTX 680 2GB
    27078

    GeForce GTX 680 2GB
    27078

    Radeon HD 7970 3GB
    27029

    Radeon HD 7970 3GB
    27029



    CONFIGURAÇÃO PARA O TESTE:

    DX11, Fire Strike

    OBS.:

    • Resultados em pontos calculados pelo aplicativo
    • Quanto MAIOR, melhor

    [ 3DMark | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    9886

    GeForce GTX 690 2x2GB
    9886

    GeForce GTX TITAN 6GB
    8980

    GeForce GTX TITAN 6GB
    8980

    Radeon HD 7970 3GB
    6659

    Radeon HD 7970 3GB
    6659

    GeForce GTX 680 2GB
    6231

    GeForce GTX 680 2GB
    6231



    Unigine Heaven 4.0, Valley 1.0

    Unigine HEAVEN Benchmark 4.0
    Agora em sua nova versão, trata-se de um dos testes sintéticos mais “descolados” do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API gráfica DirectX 11, como é o caso do Tessellation.

    O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation, ambas a 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

    No primeiro teste, com o tessellation desativado, a TITAN apresentou um desempenho bem acima das demais placas single-chip, ficando 58% acima da HD 7970, e 66% melhor que a GTX 680. A placa ficou bem próxima da dual-chip, ficando apenas 10% abaixo da GTX 690.

    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, DX11, Quality: ULTRA, Tessellation: DISABLE

    OBS.:

    • Resultados em pontos calculados pelo aplicativo
    • Quanto maior, melhor

    [ Unigine HEAVEN Benchmark 4.0 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    2149

    GeForce GTX 690 2x2GB
    2149

    GeForce GTX TITAN 6GB
    1928

    GeForce GTX TITAN 6GB
    1928

    Radeon HD 7970 3GB
    1220

    Radeon HD 7970 3GB
    1220

    GeForce GTX 680 2GB
    1157

    GeForce GTX 680 2GB
    1157



    Usando o tessellation ativado em modo EXTREME, o resultado é semelhante ao observado no teste anterior, com a diferença que a GTX 680 assume o segundo lugar. No comparativo, a TITAN bate ambas as placas, ficando 54% acima da outra placa da Nvidia, e 63% melhor que a placa da AMD. Aqui a diferença com a GTX 690 aumentou, situando a TITAN como intermediária entre as placas single e dual chip.

    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, DX11, Quality: ULTRA, Tessellation: EXTREME

    OBS.:

    • Resultados em pontos calculados pelo aplicativo
    • Quanto maior, melhor

    [ Unigine HEAVEN Benchmark 4.0 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    1660

    GeForce GTX 690 2x2GB
    1660

    GeForce GTX TITAN 6GB
    1351

    GeForce GTX TITAN 6GB
    1351

    GeForce GTX 680 2GB
    874

    GeForce GTX 680 2GB
    874

    Radeon HD 7970 3GB
    825

    Radeon HD 7970 3GB
    825



    Unigine Valley Benchmark 1.0
    Neste teste temos uma das maiores vantagens desta placa sobre a concorrente single-chip da AMD. A TITAN entregou um resultado 50% superior a GTX 680 e, no comparativo com a HD 7970, ficou com um score 116% maior, ou seja, mais que o dobro. A GTX 690 abriu quase 25%, comparada com a TITAN.

    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, DX11, Quality: ULTRA

    OBS.:

    • Resultados em pontos calculados pelo aplicativo
    • Quanto maior, melhor

    [ Unigine Valley Benchmark 1.0 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    3262

    GeForce GTX 690 2x2GB
    3262

    GeForce GTX TITAN 6GB
    2612

    GeForce GTX TITAN 6GB
    2612

    GeForce GTX 680 2GB
    1740

    GeForce GTX 680 2GB
    1740

    Radeon HD 7970 3GB
    1208

    Radeon HD 7970 3GB
    1208



    Aliens vs Predator

    Na primeira série de testes, vemos uma boa performance da TITAN, batendo a Radeon HD 7970 com um desempenho aproximadamente 25% superior, e entregando 50% que sua segunda melhor placa single-chip , a GTX 680. A GTX 690 ficou com uma boa vantagem, ficando 25% acima da TITAN.

    CONFIGURAÇÃO PARA O TESTE:

    1680x1050, HIGH / ULTRA HIGH

    OBS.:

    • Game baseado em DirectX 11
    • Resultados em FPS m?dio
    • Quanto maior, melhor

    [ Aliens vs Predator | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    122.4

    GeForce GTX 690 2x2GB
    122.4

    GeForce GTX TITAN 6GB
    99.0

    GeForce GTX TITAN 6GB
    99.0

    Radeon HD 7970 3GB
    79.4

    Radeon HD 7970 3GB
    79.4

    GeForce GTX 680 2GB
    65.2

    GeForce GTX 680 2GB
    65.2



    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, HIGH / ULTRA HIGH

    OBS.:

    • Game baseado em DirectX 11
    • Resultados em FPS m?dio
    • Quanto maior, melhor

    [ Aliens vs Predator | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    110.2

    GeForce GTX 690 2x2GB
    110.2

    GeForce GTX TITAN 6GB
    88.3

    GeForce GTX TITAN 6GB
    88.3

    Radeon HD 7970 3GB
    71.2

    Radeon HD 7970 3GB
    71.2

    GeForce GTX 680 2GB
    58.0

    GeForce GTX 680 2GB
    58.0



    Para os testes utilizamos a ferramenta Adrenaline Aliens vs Predator Benchmark Tool.

    Borderlands 2

    Com o game Borderlands 2, a vantagem da TITAN sobre a GTX 680 foi ampliada para 34%. A Radeon HD 7970, que já ficava aproximadamente 20% abaixo da GTX 680, viu a vantagem da TITAN chegar a casa dos 70%. 

    A GTX 690 se manteve na liderança, conseguindo entregar entre 11 e 25% de perfomance acima da TITAN. 

    CONFIGURAÇÃO PARA O TESTE:

    1680x1050, ULTRA

    OBS.:

    • Game baseado em DirectX 9
    • Resultados em FPS m?dio
    • Quanto MAIOR, melhor

    [ Borderlands 2 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    262.6

    GeForce GTX 690 2x2GB
    262.6

    GeForce GTX TITAN 6GB
    235.0

    GeForce GTX TITAN 6GB
    235.0

    GeForce GTX 680 2GB
    175.0

    GeForce GTX 680 2GB
    175.0

    Radeon HD 7970 3GB
    140.8

    Radeon HD 7970 3GB
    140.8



    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, ULTRA

    OBS.:

    • Game baseado em DirectX 9
    • Resultados em FPS m?dio
    • Quanto MAIOR, melhor

    [ Borderlands 2 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    265.9

    GeForce GTX 690 2x2GB
    265.9

    GeForce GTX TITAN 6GB
    212.5

    GeForce GTX TITAN 6GB
    212.5

    GeForce GTX 680 2GB
    153.9

    GeForce GTX 680 2GB
    153.9

    Radeon HD 7970 3GB
    124.4

    Radeon HD 7970 3GB
    124.4



    Para os testes utilizamos a ferramenta Adrenaline Borderlands 2 Benchmark Tool.

    Crysis 2

    No game da Crytek vemos um equilíbrio maior entre as três placas com um chip. Enquanto a GTX 680 e a Radeon HD 7970 apresentam um desempenho praticamente idêntico, a TITAN conseguiu um ganho de performance entre 15 a 30%, dependendo da qualidade gráfica utilizada.

    O Crysis 2, e seus problemas em ultrapassar a casa dos 90 fps, independente da placa, fez com que a TITAN e a GTX 690 entregassem o mesmo resultado, neste teste. 

    CONFIGURAÇÃO PARA O TESTE:

    1680x1050, ULTRA

    OBS.:

    • Game baseado em DirectX 11
    • Resultados em FPS m?dio
    • Quanto maior, melhor

    [ Crysis 2 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX TITAN 6GB
    94.7

    GeForce GTX TITAN 6GB
    94.7

    GeForce GTX 690 2x2GB
    94.3

    GeForce GTX 690 2x2GB
    94.3

    Radeon HD 7970 3GB
    82.0

    Radeon HD 7970 3GB
    82.0

    GeForce GTX 680 2GB
    81.2

    GeForce GTX 680 2GB
    81.2



    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, ULTRA

    OBS.:

    • Game baseado em DirectX 11
    • Resultados em FPS m?dio
    • Quanto maior, melhor

    [ Crysis 2 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    94.6

    GeForce GTX 690 2x2GB
    94.6

    GeForce GTX TITAN 6GB
    93.0

    GeForce GTX TITAN 6GB
    93.0

    Radeon HD 7970 3GB
    72.4

    Radeon HD 7970 3GB
    72.4

    GeForce GTX 680 2GB
    70.9

    GeForce GTX 680 2GB
    70.9



    Para os testes utilizamos a ferramenta Adrenaline Crysis 2 Benchmark Tool.

    F1 2012

    Assim como no Crysis 2, no game F1 2012 temos um equilíbrio entre as placas single-chip da Nvidia e AMD, a GTX 680 e Radeon HD 7970, que haviam até o momento. A TITAN conseguiu ultrapassar ambas, com um desempenho em torno de 54% superior, se tornando a placa com um chip gráfico mais potente testada neste jogo, até o momento.

    A GTX TITAN ficou na liderança, com uma vantagem de mais ou menos 16%, comparada com a GTX 690, isso acontece porque o F1 2012 é um game com problemas relativos a sistemas Crossfire e SLI, ficando bem abaixo do esperado.

    CONFIGURAÇÃO PARA O TESTE:

    1680x1050, ULTRA

    OBS.:

    • Game baseado em DirectX 11
    • Resultados em FPS m?dio
    • Quanto MAIOR, melhor

    [ F1 2012 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX TITAN 6GB
    158.9

    GeForce GTX TITAN 6GB
    158.9

    GeForce GTX 690 2x2GB
    135.1

    GeForce GTX 690 2x2GB
    135.1

    Radeon HD 7970 3GB
    105.2

    Radeon HD 7970 3GB
    105.2

    GeForce GTX 680 2GB
    103.4

    GeForce GTX 680 2GB
    103.4



    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, ULTRA

    OBS.:

    • Game baseado em DirectX 11
    • Resultados em FPS m?dio
    • Quanto MAIOR, melhor

    [ F1 2012 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX TITAN 6GB
    154.5

    GeForce GTX TITAN 6GB
    154.5

    GeForce GTX 690 2x2GB
    133.9

    GeForce GTX 690 2x2GB
    133.9

    Radeon HD 7970 3GB
    100.0

    Radeon HD 7970 3GB
    100.0

    GeForce GTX 680 2GB
    98.0

    GeForce GTX 680 2GB
    98.0



    Para os testes utilizamos a ferramenta Adrenaline Racing Benchmark Tool.

    Just Cause 2

    Neste game, tradicionalmente, vemos uma melhor performance por parte das placas da AMD. Como resultado, além da boa vantagem de 33% no comparativo com a GTX 680, neste game a 7970 conseguiu ficar bem próxima da TITAN. Ainda assim, a nova placa da Nvidia conseguiu novamente ser a mais potente placa single-chip, com uma estreita vantagem de aproximadamente 5%, comparada com a melhor placa com um chip da AMD.

    Comparada com a GTX 690, a TITAN ficou com uma das maiores diferenças, ao longo dos benchmarks, com a vitória da dual-chip por até 40%.

    CONFIGURAÇÃO PARA O TESTE:

    1680x1050, HIGH / VERY HIGH

    OBS.:

    • Game baseado em DirectX 10/10.1
    • Resultados em FPS m?dio
    • Quanto maior, melhor

    [ Just Cause 2 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    145.07

    GeForce GTX 690 2x2GB
    145.07

    GeForce GTX TITAN 6GB
    104.74

    GeForce GTX TITAN 6GB
    104.74

    Radeon HD 7970 3GB
    98.24

    Radeon HD 7970 3GB
    98.24

    GeForce GTX 680 2GB
    74.24

    GeForce GTX 680 2GB
    74.24



    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, HIGH / VERY HIGH

    OBS.:

    • Game baseado em DirectX 10/10.1
    • Resultados em FPS m?dio
    • Quanto maior, melhor

    [ Just Cause 2 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    131.82

    GeForce GTX 690 2x2GB
    131.82

    GeForce GTX TITAN 6GB
    93.39

    GeForce GTX TITAN 6GB
    93.39

    Radeon HD 7970 3GB
    89.57

    Radeon HD 7970 3GB
    89.57

    GeForce GTX 680 2GB
    67.82

    GeForce GTX 680 2GB
    67.82



    Metro 2033

    No game Metro 2033, a Radeon HD 7970 conseguia entregar uma performance em torno de 16% superior que a GTX 680. Com a TITAN, a Nvidia tomou o "pódio", ficando em torno de 30% acima da placa da AMD, novamente assumindo o título de placa single-chip mais potente. Neste teste, a TITAN passou perto da GTX 690, com diferença de meros 10%.

    CONFIGURAÇÃO PARA O TESTE:

    1680x1050, VERY HIGH

    OBS.:

    • Game baseado em DirectX 11
    • Resultados em FPS m?dio
    • Quanto maior, melhor

    [ Metro 2033 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    89.50

    GeForce GTX 690 2x2GB
    89.50

    GeForce GTX TITAN 6GB
    80.50

    GeForce GTX TITAN 6GB
    80.50

    Radeon HD 7970 3GB
    60.50

    Radeon HD 7970 3GB
    60.50

    GeForce GTX 680 2GB
    52.50

    GeForce GTX 680 2GB
    52.50



    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, VERY HIGH

    OBS.:

    • Game baseado em DirectX 11
    • Resultados em FPS m?dio
    • Quanto maior, melhor

    [ Metro 2033 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    78.00

    GeForce GTX 690 2x2GB
    78.00

    GeForce GTX TITAN 6GB
    71.00

    GeForce GTX TITAN 6GB
    71.00

    Radeon HD 7970 3GB
    54.00

    Radeon HD 7970 3GB
    54.00

    GeForce GTX 680 2GB
    46.00

    GeForce GTX 680 2GB
    46.00



    Sleeping Dogs

    Novamente a TITAN chega para tirar da AMD o primeiro lugar, na disputa entre as placas com uma GPU. A placa apresentou performance 26% superior a Radeon HD 7970, e ficou 46% acima da GTX 680.

    CONFIGURAÇÃO PARA O TESTE:

    1680x1050, ULTRA

    OBS.:

    • Game baseado em DirectX 9, 10, 10.1 e 11
    • Resultados em FPS m?dio
    • Quanto maior, melhor

    [ Sleeping Dogs | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    85.4

    GeForce GTX 690 2x2GB
    85.4

    GeForce GTX TITAN 6GB
    69.1

    GeForce GTX TITAN 6GB
    69.1

    Radeon HD 7970 3GB
    52.6

    Radeon HD 7970 3GB
    52.6

    GeForce GTX 680 2GB
    46.4

    GeForce GTX 680 2GB
    46.4



    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, ULTRA

    OBS.:

    • Game baseado em DirectX 9, 10, 10.1 e 11
    • Resultados em FPS m?dio
    • Quanto maior, melhor

    [ Sleeping Dogs | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    72.6

    GeForce GTX 690 2x2GB
    72.6

    GeForce GTX TITAN 6GB
    58.1

    GeForce GTX TITAN 6GB
    58.1

    Radeon HD 7970 3GB
    46.0

    Radeon HD 7970 3GB
    46.0

    GeForce GTX 680 2GB
    39.7

    GeForce GTX 680 2GB
    39.7



    Para os testes utilizamos a ferramenta Adrenaline Sleeping Dogs Benchmark Tool.

    Hitman Absolution

    Como já obervado em outros games, novamente a TITAN chega para desbancar a AMD Radeon HD 7970 como a melhor placa single-chip. Em Hitman, a placa da Nvidia consegue uma vantagem de 39% sobre a placa da AMD, e supera seu melhor modelo com este número de chips, a GTX 680, em mais de 60%.

    CONFIGURAÇÃO PARA O TESTE:

    1680x1050, ULTRA

    OBS.:

    • Game baseado em DirectX 11
    • Resultados em FPS m?dio
    • Quanto MAIOR, melhor

    [ Hitman Absolution | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    62.8

    GeForce GTX 690 2x2GB
    62.8

    GeForce GTX TITAN 6GB
    54.1

    GeForce GTX TITAN 6GB
    54.1

    Radeon HD 7970 3GB
    38.8

    Radeon HD 7970 3GB
    38.8

    GeForce GTX 680 2GB
    34.9

    GeForce GTX 680 2GB
    34.9



    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, ULTRA

    OBS.:

    • Game baseado em DirectX 11
    • Resultados em FPS m?dio
    • Quanto MAIOR, melhor

    [ Hitman Absolution | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 4

    GeForce GTX 690 2x2GB
    56.7

    GeForce GTX 690 2x2GB
    56.7

    GeForce GTX TITAN 6GB
    49.6

    GeForce GTX TITAN 6GB
    49.6

    Radeon HD 7970 3GB
    35.5

    Radeon HD 7970 3GB
    35.5

    GeForce GTX 680 2GB
    30.2

    GeForce GTX 680 2GB
    30.2



    PhysX com Borderlands 2
    Quando se trata de uma placa de vídeo da Nvidia, um de seus diferenciais está na tecnologia de física PhysX, presente em alguns games e que promete maior realismo, adicionando efeitos não encontrados em placas que não sejam da empresa.

    Para os testes, utilizamos o Borderlands 2, um dos melhores games do mercado com a aplicação da tecnologia PhysX.

    Como a tecnologia adiciona mais efeitos, ela exige mais da placa de vídeo e consequentemente afeta diretamente o desempenho. Abaixo, nos testes com a tecnologia ativada em modo HIGH.

    CONFIGURAÇÃO PARA O TESTE:

    1680x1050, ULTRA / PhysX: HIGH

    OBS.:

    • Game baseado em DirectX 9
    • Resultados em FPS m?dio
    • Quanto MAIOR, melhor

    [ Borderlands 2 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 3

    GeForce GTX 690 2x2GB
    118.1

    GeForce GTX 690 2x2GB
    118.1

    GeForce GTX TITAN 6GB
    99.2

    GeForce GTX TITAN 6GB
    99.2

    GeForce GTX 680 2GB
    82.6

    GeForce GTX 680 2GB
    82.6



    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, ULTRA / PhysX: HIGH

    OBS.:

    • Game baseado em DirectX 9
    • Resultados em FPS m?dio
    • Quanto MAIOR, melhor

    [ Borderlands 2 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 3

    GeForce GTX 690 2x2GB
    110.5

    GeForce GTX 690 2x2GB
    110.5

    GeForce GTX TITAN 6GB
    91.0

    GeForce GTX TITAN 6GB
    91.0

    GeForce GTX 680 2GB
    76.0

    GeForce GTX 680 2GB
    76.0



    Como se trata de uma tecnologia proprietária da Nvidia, aqui nossos comparativos envolvem somente as placas da empresa. A TITAN bateu a GTX 680 em torno de 20%, uma diferença menor que a presente na maioria dos outros testes.

    Overclock: Temp, Consumo Energia, 3DMark 11
    Assim como toda a geração GeForce 600, a TITAN também tem ótimo comportante em overclock.

    Utilizando o Afterburner, aumentamos o clock do core de 837MHz para 1000MHz, e das memórias de 6008MHz para 6408MHz, sem nenhuma alteração de voltagem, apenas setando a velocidade do FAN em 50% e o Power Limit em +6%.

    Abaixo os resultados alcançados com a placa overclockada.

    Temperatura
    Em comparação com a temperatura da placa sem overclock, o resultado foi excelente, subindo apenas 1º grau, mas vale destacar que setamos o FAN em 50% de sua rotação máxima, quando a placa usando clocks referência o controle de velocidade do FAN é feito automaticamente pela placa.

    CONFIGURAÇÃO PARA O TESTE:

    Rodando 3DMark 11

    OBS.:

    • Temperatura ambiente ou no máximo 25ºC
    • Medida em graus Celsius
    • Quanto MENOR, melhor

    [ Temperatura (GPU) | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 5

    GeForce GTX 690 2x2GB
    71

    GeForce GTX 690 2x2GB
    71

    Radeon HD 7970 3GB
    71

    Radeon HD 7970 3GB
    71

    GeForce GTX 680 2GB
    75

    GeForce GTX 680 2GB
    75

    GeForce GTX TITAN 6GB
    80

    GeForce GTX TITAN 6GB
    80

    NVIDIA GeForce GTX TITAN 6GB @ 1000MHz
    81

    NVIDIA GeForce GTX TITAN 6GB @ 1000MHz
    81



    Consumo de Energia
    O consumo de energia chegou a quase 5% de aumento, pouco porque não mexemos em voltagem na placa, caso o fizéssemos, poderíamos um consumo um pouco maior.

    CONFIGURAÇÃO PARA O TESTE:

    Rodando 3DMark 11

    OBS.:

    • Consumo do sistema inteiro
    • Resultados em Watts
    • Quanto MENOR, melhor

    [ Consumo de Energia | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 5

    GeForce GTX 680 2GB
    402

    GeForce GTX 680 2GB
    402

    Radeon HD 7970 3GB
    412

    Radeon HD 7970 3GB
    412

    GeForce GTX TITAN 6GB
    479

    GeForce GTX TITAN 6GB
    479

    GeForce GTX 690 2x2GB
    497

    GeForce GTX 690 2x2GB
    497

    NVIDIA GeForce GTX TITAN 6GB @ 1000MHz
    502

    NVIDIA GeForce GTX TITAN 6GB @ 1000MHz
    502



    3DMark 11
    Rodando o 3DMark 11 o ganho de desempenho foi de 10%, com o score da placa chegando próximo a 15k. Com isto, ela derrubou sua desvantagem de 9 para apenas 5%, comparada a GTX 690.

    CONFIGURAÇÃO PARA O TESTE:

    1280x720, PERFORMANCE

    OBS.:

    • Aplicativo baseado em DirectX 11
    • Resultados em pontos calculados pelo aplicativo
    • Quanto MAIOR, melhor

    [ 3DMark 11 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 5

    GeForce GTX 690 2x2GB
    15577

    GeForce GTX 690 2x2GB
    15577

    NVIDIA GeForce GTX TITAN 6GB @ 1000MHz
    14697

    NVIDIA GeForce GTX TITAN 6GB @ 1000MHz
    14697

    GeForce GTX TITAN 6GB
    13360

    GeForce GTX TITAN 6GB
    13360

    GeForce GTX 680 2GB
    9835

    GeForce GTX 680 2GB
    9835

    Radeon HD 7970 3GB
    9505

    Radeon HD 7970 3GB
    9505



    Overclock: AvP, Crysis 2 e Metro 2033
    Também fizemos testes em alguns games na resolução de 1920x1080, confiram abaixo:

    Aliens vs Predator
    Rodando o Aliens vs Predator, a placa quando overclockada subiu para 98,5 FPS na resolução de 1920x1080, representando 11.5% de aumento, resultado considerado bom pelo overclock feito. Com o OC, a TITAN se aproximou da GTX 690, diminuindo a diferença de 19% para 10%.

    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, HIGH / ULTRA HIGH

    OBS.:

    • Game baseado em DirectX 11
    • Resultados em FPS m?dio
    • Quanto maior, melhor

    [ Aliens vs Predator | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 5

    GeForce GTX 690 2x2GB
    110.2

    GeForce GTX 690 2x2GB
    110.2

    NVIDIA GeForce GTX TITAN 6GB @ 1000MHz
    98.5

    NVIDIA GeForce GTX TITAN 6GB @ 1000MHz
    98.5

    GeForce GTX TITAN 6GB
    88.3

    GeForce GTX TITAN 6GB
    88.3

    Radeon HD 7970 3GB
    71.2

    Radeon HD 7970 3GB
    71.2

    GeForce GTX 680 2GB
    58.0

    GeForce GTX 680 2GB
    58.0



    Crysis 2
    No Crysis praticamente não vemos diferença, mas isso se deve a um problema do próprio game com placas de alto desempenho, que param em 95FPS e não ultrapassam esse resultado, mesmo em combinações de múltiplas placas. Novamente, o problema de FPS do game impossibilitaram um resultado mais claro no comparativo com a GTX 690.

    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, ULTRA

    OBS.:

    • Game baseado em DirectX 11
    • Resultados em FPS m?dio
    • Quanto maior, melhor

    [ Crysis 2 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 5

    NVIDIA GeForce GTX TITAN 6GB @ 1000MHz
    95.1

    NVIDIA GeForce GTX TITAN 6GB @ 1000MHz
    95.1

    GeForce GTX 690 2x2GB
    94.6

    GeForce GTX 690 2x2GB
    94.6

    GeForce GTX TITAN 6GB
    93.0

    GeForce GTX TITAN 6GB
    93.0

    Radeon HD 7970 3GB
    72.4

    Radeon HD 7970 3GB
    72.4

    GeForce GTX 680 2GB
    70.9

    GeForce GTX 680 2GB
    70.9



    Metro 2033
    Por fim, no Metro 2033 tivemos aumento de quase 12%, novamente resultado bom e esperado pelo overclock feito. Como resultado, este OC praticamente empatou a GTX 690 e a TITAN.

    CONFIGURAÇÃO PARA O TESTE:

    1920x1080, VERY HIGH

    OBS.:

    • Game baseado em DirectX 11
    • Resultados em FPS m?dio
    • Quanto maior, melhor

    [ Metro 2033 | NVIDIA GeForce GTX TITAN 6GB ] Hardwares Comparados: 5

    NVIDIA GeForce GTX TITAN 6GB @ 1000MHz
    79.50

    NVIDIA GeForce GTX TITAN 6GB @ 1000MHz
    79.50

    GeForce GTX 690 2x2GB
    78.00

    GeForce GTX 690 2x2GB
    78.00

    GeForce GTX TITAN 6GB
    71.00

    GeForce GTX TITAN 6GB
    71.00

    Radeon HD 7970 3GB
    54.00

    Radeon HD 7970 3GB
    54.00

    GeForce GTX 680 2GB
    46.00

    GeForce GTX 680 2GB
    46.00



    Conclusão
    Enquanto que a disputa pelo título de melhor placa de vídeo com um chip gráfico estava equilibrada entre GTX 680 e Radeon HD 7970, com vantagem para uma ou para a outra, dependendo do teste, a GeForce GTX TITAN redefiniu o segmento de alto desempenho, deixando para trás (e muito) as suas concorrentes, oferecendo um nível de performance, que em alguns casos, fica próximo ao de placas dual-GPU. Com isso, a NVIDIA conquistou – sem nenhuma margem para questionamento – o título de “Rainha das Placas 3D” com chip único.

    A GTX TITAN foi soberana em todos os nossos testes. Mesmo nas franquias onde as placas da AMD costumam se dar melhor, como é o caso de Just Cause 2, a nova GeForce foi capaz de ficar acima da HD 7970, ainda que por uma margem pequena. No restante dos games, a vantagem da GTX TITAN para as rivais oscila entre 30 e 60%.

    A placa oferece os demais atrativos da geração Kepler, como é o caso dos filtros de aprimoramento de imagens - FXAA (Fast Approximate Anti-Aliasing) e TXAA (Temporal Anti-aliasing), além do recurso adptive VSync (sincronismo vertical adaptativo) e do 3D Vision Surround. 

    Contudo, a NVIDIA vai além, aprimorando o interessante recurso de overclock automático dinâmico, o GPU Boost. Chamado agora de GPU Boost 2.0, a tecnologia conta agora com a possibilidade de aumentar a tensão de funcionamento do chip (Overvoltaging), além de permitir aumentar a quantidade de FPS com a sincronização vertical (VSync) habilitada.

    A GeForce GTX TITAN tem apenas um único negativo: o preço. Ou melhor, o alto preço! Apesar de custar os mesmos US$ 999 de uma GTX 690, a NVIDIA informa que as duas placas coexistirão, por entender que cada uma tem seus nichos de mercado. Enquanto que a dual GPU da companhia é voltada especialmente para quem quer o máximo em despenho existente, a placa tem ainda como foco, os usuários que utilizam monitores amplos, com pelo menos 26 polegadas.

    Já a nova GeForce tem como foco os gamers que utilizam, ou desejam utilizar, múltiplos monitores (via tecnologia Surround Gaming), graças ao fato da GTX TITAN a imensa quantidade de VRAM (6GB) bem como fartos 384 bits de barramento. Além disso, em virtude de suas dimensões relativamente compactas para o segmento, é possível instalar a placa em vários gabinetes mais compactos (Small Form Factor), ampliando assim as possibilidades dos usuários.

    A GeForce GTX TITAN redefiniu o segmento de placas de alto desempenho, fornecendo desempenho próximo às soluções dual GPU do mercado


    PRÓS
    • A VGA mais bonita, elegante e bem acabada que já analisamos;
    • Bastante silenciosa;
    • Performance digna da "Rainha das Placas 3D" com um único chip;
    • Suporte ao que existe de melhor em tecnologias.
    • GPU Boost 2.0 adiciona novas funcionalidades de overclock;
    • 6GB de memória VRAM GDDR5
    CONTRAS
    • Preço muito elevado para uma placa de vídeo single GPU, especialmente por ficar atrás da GTX 690 com mesmo preço.

    NVIDIA GeForce GTX TITAN