Aguardada por uma grande parcela da comunidade gamemaníaca, eis que finalmente chega ao mercado a NVIDIA GeForce GTX 660 Ti, placa voltada para o segmento intermediário e que chega com duas grandes responsabilidades: ser uma substituta à altura da GTX 560 Ti (sucesso de público e crítica), bem como aumentar as vendas de chips da nova geração Kepler.

Assim como as suas “irmãs maiores”, a placa é baseada no chip gráfico GK104. Algo inusitado, aliás, visto que é a primeira vez na história recente da NVIDIA que uma GeForce de classe intermediária “herda” a mesma GPU que uma GeForce de segmento superior. Ou seria o oposto? Para quem não acompanhou o Adrenaline nos últimos meses, notícias veiculadas em diversos webstes internacionais sugeriram que o verdadeiro chip gráfico da linha superior – leia-se GTX 680 e GTX 670 – deveria ser o GK100/110, e que (supostamente) por um motivo desconhecido, a NVIDIA teria resolvido utilizar o GK104 nas suas GeForces superiores.

Como previsto, a GeForce GTX 660 Ti chega com um preço bem mais atraente do que a GTX 670 – o que por si só, seria motivo de aguçar o desejo da comunidade gamer. Contudo, a placa oferece ainda outro atrativo: possuir macroespecificações praticamente idênticas em relação a sua “irmã maior”. Ou seja, tem um poder de fogo bem próximo à GTX 670, custando cerca de US$ 100 a menos que esta (US$ 299 vs. US$ 399).

Se por um lado isso é bom para a NVIDIA, uma vez que a GTX 660 Ti deve ser uma campeã de vendas, por outro a companhia pode ter criado para si um grande problema, pois a GTX 670 corre o risco de ficar “encalhada nas prateleiras”. Caso isso ocorra, é provável que o preço da GTX 670 caia para um valor mais adequado com a nova realidade, algo em torno de US$ 349.


(Modelo de referência da GTX 660 Ti)

Assim como ocorreu com as GTX 680 e GTX 670, os números por trás da GTX 660 Ti “saltam aos olhos” de quem lê: a quantidade de CUDA Cores (processadores gráficos, também conhecidos como Sream Processors ou Shader Cores) foi aumentada em 3,5 vezes em relação à GTX 560 Ti! Em relação aos clocks, o incremento chega a 50% nas memórias e pico de 20% na GPU. E o melhor de tudo é que a dissipação térmica foi reduzida em 12%.

Além de muitos “músculos” a mais, a placa mantém os demais atributos da nova geração Kepler. É o caso do GPU Boost (que turbina dinamicamente os clocks da placa), dos filtros proprietários FXAA (Fast Approximate Anti-Aliasing) e TXAA (Temporal Anti-aliasing), além do recurso adaptive VSync (sincronismo vertical adaptativo) e do 3D Vision Surround.

É muito provável que a NVIDIA siga a receita adotada na geração anterior: além da versão mais poderosa “Ti” (referência a Titatium – sufixo utilizado em um passado remoto em uma de suas primeiras GeForces), lançar ainda uma variante “vanilla”, sem o sufixo Ti. Em outras palavras, uma GeForce GTX 660.

Outro destaque está nos conectores SLI. Diferente da 560 Ti, a 660Ti vem com duplo conector SLI, possibilitando 4-Way SLI, tecnologia até então disponível apenas nas placas de vídeo mais TOPs das gerações passadas, como a GTX 570 e a 580.

O modelo analisado pela Adrenaline foi a GTX 660Ti Power Edition da MSI, modelo que conta com atrativos bem interessantes para o usuário, como é o caso do sistema de refrigeração especial Twin Frozr IV, que além de garantir uma melhor eficiência na dissipação térmica, gera muito menos ruído que o cooler de referência e de quebra possui uma tecnologia proprietária que remove a poeira das ventoinhas; componentes de primeiríssima qualidade (Classe Militar III); dentre outros.

No decorrer desta análise, você vai conferir o comportamento da GeForce GTX 660 Ti nos mais diversos testes aos quais foi submetida pela nossa equipe, descobrir se a placa é de fato capaz de ameaçar a GTX 670, e ver o quão poderosa é em relação às Radeons da AMD.



 

Arquitetura GK104

A linha Fermi, que deu origem as GeForces da série 400 e 500, foi sem dúvida o passo mais significativo em termos de avanço na macro-arquitetura das GPUs, para a NVIDIA, desde o lançamento da primeira G80 (8800 GTX) lançada no final de 2006, inaugurando o que se conhece muito bem hoje do conceito de gráficos unificados e computação paralela conjugada MIMD (Múltiplas Instruções, Múltiplos Dados). 

Com a Fermi, os engenheiros da NVIDIA empregaram todo o seu conhecimento adquirido ao longo das duas últimas gerações, bem como todos os aplicativos, e desenvolveram uma abordagem totalmente nova de design para criar a primeira GPU computacional do mundo. A arquitetura era baseada em pipelines de geometria paralela otimizados para o Tessellation e para o mapeamento de deslocamento, bem como para uma nova arquitetura computacional que oferecia mais velocidade na troca de contexto e aprimoramento no desempenho para operações atômicas.


Já a Kepler, encabeçada pelo GK104 (presente na GTX 680/GTX 670), parece dar um passo adiante na evolução dos chips gráficos da NVIDIA, ao focar na otimização e eficiência de recursos – embora construída a partir dos alicerces da Fermi.

A nova geração de GPUs é composta de inúmeros blocos de hardware distintos, cada um especializado em tarefas específicas. Entretanto, o GPC (Graphics Processing Clusters) continua a ser o bloco de hardware de alto nível dominante na arquitetura Kepler, com recursos dedicados para a computação geral, rasterização, sombreamento e texturização. Em outras palavras, quase todas a funções de processamento gráfico de um núcleo da GPU estão contidas no GPC.



Conforme pode ser visto acima na estrutura de processamento da Kepler, há um grande bloco chamado pela NVIDIA de “Gigathread Engine”, composto de quatro GPCs, quatro controladores de memória, partições ROPs e cache L2. Vale ressaltar que cada GPC, que são na realidade grandes unidades de processamento e se comportam como mini GPUs independentes, possui duas unidades da nova geração de Streaming Multiprocessors, chamados agora pela companhia de SMX (até então a empresa havia batizado os multiprocessadores de Streaming de SM). Diferentemente das duas gerações passadas (GF10x e GF11x), em que cada SM continha 32 CUDA Cores, os SMX da GK104 e suas variantes possuem nada menos do que 192 CUDA Cores! Desta forma, a NVIDIA chega ao número “mágico” de 1536 CUDA Cores (4 GPCs x 2 SMXs x 192 CUDA Cores) no chip GK104 da GTX 680.

Como não poderia deixar de ser, a tática de desativar conjuntos de recursos se repete com a geração Kepler. Assim, ao invés de 8 unidades de SMX, a GK104 da GTX 660 Ti possui 7 unidades. Com isso, a quantidade total de CUDA Cores cai de 1536 para 1344 (8 SMXs x 192 CUDA Cores). Valor idêntico à GTX 670.

Outra mudança visível na comparação entre as arquiteturas da Fermi e Kepler está na quantidade máxima de controladores de memória. Ao invés de seis blocos de 64 bits, há “apenas” quatro, totalizando assim um bus de 256 bits (4 blocos x 64 bits) para a GK104 contra 384 bits das GF100 e GF110. Para diferenciara 660 Ti da GTX 670, a NVIDIA reduziu a quantidade de blocos de 64 bits, de 4 para 3. Com isso, o barramento de memória foi reduzido de 256 para 192 bits.

Em relação à quantidade de unidades de rasterização, a GK104 possui um total de 32 ROPs, contra 48 ROPs das GF100 e GF110. Essa diferença só foi possível pelo fato de estas unidades estarem arranjadas em um bloco funcional separado do SMX. Assim, enquanto a linha Fermi possui seis blocos rasterizadores, cada um composto por oito ROPs – totalizando 48 ROPs -, a GK104 possui “apenas” quatro blocos, explicando-se assim a quantidade máxima de 32 ROPs (4 blocos x 8 ROPs). Mais uma vez a NVIDIA alterou o arranjo para manter distância em relação à GTX 670. A GeForce GTX 660 Ti tem 3 blocos de unidades rasterizadoras, totalizando assim 24 ROPs.

Quanto às unidades de texturização, cada SMX é composto por 16 TMUs, o dobro do número de TMUs presentes no Streaming Multiprocessor da geração Fermi. Com um total de 8 SMX (4 GPCs x 2 SMXs), a GK104 tem, portanto, um total de 128 unidades de texturização (8 SMXs x 16 TMUs), contra 64 TMUs da GF110 (16 SM x 4 TMUs).

Mais uma vez cabe explicar que, pela ausência de uma unidade SMX, a GeForce GTX 660 Ti (assim como a GTX 670) possui um total de 112 TMUs (7 SMXs x 16 TMUs).

Por dentro do SMX
Talvez a grande novidade presente na arquitetura Kepler seja essa nova geração dos Streaming Multiprocessors, batizado pela NVIDIA de SMX. Além de disponibilizar um desempenho muito maior que o antigo SM da linha Fermi, cada multiprocessador de Streaming consome agora significativamente menos energia em relação à arquitetura anterior.

As principais unidades de hardware responsáveis pelo processamento do GK104 estão inseridas dentro da estrutura do SMX, como é o caso dos CUDA Cores. Eles lidam, entre outras coisas, com o processamento dos vértices, pixels e da geometria, bem como os cálculos computacionais e de física.

Além disso, é aí que se encontram as unidades de texturização que fazem a filtragem das texturas, com o carregamento/armazenamento das unidades de busca (units fetch) e pelo salvamento dos dados na memória.



Olhando para a imagem acima, podemos ver que os 192 CUDA Cores foram “empacotados” juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa comutação dinâmica auxilia os desenvolvedores de jogos a otimizar a performance de seus games, em virtude da arquitetura ser bastante flexível. A GPU tem ainda à disposição 512KB de cache L2 (384 KB na GTX 660 Ti).

Além disso, há ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (65.536 entradas de 32-bits – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc). O cluster SMX possui ainda 16 TMUs, cache de textura e o mais importante de tudo: PolyMorph Engine 2.0.

As unidades de Polymorph Engine foram introduzidas na Fermi para lidar com uma enorme carga de trabalho advinda das novas tecnologias, como é o caso da API gráfica DirectX 11. Talvez, a principal delas seja a badalada técnica de aprimoramento da qualidade das imagens, conhecida como Tessellation (Tess), que aumenta de forma quase exponencial a quantidade de triângulos em uma cena, exigindo assim o máximo da GPU.

Com a geração Kepler, a NVIDIA aprimorou a Polymorph Engine, ao introduzir a Polymorph Engine 2.0 que, de acordo com a companhia, possibilita o dobro de desempenho do processamento primitivo e de Tessellation por SMX, em relação à Fermi.

A PolyMorph Engine 2.0 lida com os buscadores de vértices, com o tessellation, transformador viewport, configurador de atributo e saída de streaming.

Finalmente, as Unidades de Função Especial, mais conhecidas pela sigla em inglês SFU (Special Function Units) controlam instruções transcendentais e de interpolação gráfica.

 

Os recursos da GTX 660 Ti

Abaixo, um resumo das principais especificações da GeForce GTX 660 Ti.

• 3,54 bilhões de transistores;
• Nova litografia em 28 nm;
• Área do die (estimada): 294mm2;
• Frequência de operação das texturas e ROPs (GPU): 915MHz (base clock) / 980Mhz (boost clock);
• 1344 CUDA Cores/shader processors;
• Frequência de operação das memórias: 6008MHz (GDDR5);
• Quantidade de memória: 2GB;
• Interface de memória: 192bits;
• TDP: máximo de 150 watts;
• Limiar térmico da GPU em 98° C;
• Suporte às tecnologias: CUDA, DirectX 11.1, GeForce 3D Vision, NVIDIA 3D Vision Surround, Filtros FXAA/TXAA, GPU Boost, Adaptive VSync, NVIDIA PhysX,  PureVideo HD Technology, HDMI 1.4a, OpenGL 4.2, OpenCL, DirectCompute, Windows 7.

E ainda:

• Nova Geração do Streaming Multiprocessor (SMX);
• 192 CUDA cores por SMX, 6x mais que a GF110 (GTX 580/GTX 570);
• 7 PolyMorph Engine 2.0 (GTX 660 Ti);

Assim como as GTX 680 e GTX 670, a GeForce GTX 660 Ti tem vários números que surpreendem até mesmo aos fãs mais apaixonados pela linha GeForce. A frequência de operação das memórias é um destes casos. Enquanto que a GTX 560 Ti tem VRAM em 4.008Mhz, a GTX 660 Ti ganhou um upgrade de 50%, indo para 6.008Mhz. Em contrapartida, ao reduzir o bus de 256 bits para 192 bits, o incremento na largura de banda de memória foi de apenas 12,5%, chegando a 144,2 GB/s. Em relação à frequência de operação da GPU, embora o incremento nominal tenha sido bem mais tímido (11%), graças à tecnologia GPU Boost o ganho pode chegar a quase 20% (822Mhz vs. 980Mhz).

Contudo, o mais surpreendente de todos os números é, sem dúvida, o expressivo aumento na quantidade de processadores gráficos. Enquanto que a GTX 560 Ti tem 384 CUDA Cores, a GTX 660 Ti tem 3,5 vezes mais shaders, chegando a impressionantes 1344 CUDA Cores. Conforme explicado no tópico anterior, não se trata do “mesmo” tipo de CUDA Core encontrado na arquitetura Fermi. Daí a razão da nova GeForce intermediária não ser 3,5 vezes mais veloz que a anterior. Entretanto, a nova arquitetura trouxe ganhos consideráveis. Não apenas no desempenho, mas principalmente na relação performance por watt gasto.

Apesar dos 3,54 bilhões de transistores (81% a mais que na GTX 560 Ti), 1344 CUDA Cores (250% a mais que a GTX 560 Ti) e clocks extremamente elevados para o segmento, a GeForce GTX 660 Ti possui TDP máximo de 150W! Trata-se de um valor extremamente surpreendente, ainda mais em comparação aos 170W da sua “irmã mais velha”.

Vale mencionar que, para suprir os 150W, a companhia disponibilizou dois conectores de energia de seis pinos, capaz de oferecer um total de 225W (75W por conector, além de outros 75W do PCI Express). Com esta configuração, reduz-se a necessidade da utilização de adaptadores (o que não é recomendável), além de aumentar o espectro de fontes (PSUs) compatíveis com a placa. De acordo com a NVIDIA, é recomendado o uso de uma fonte real de 450W.

Por último, porém não menos surpreendente, está a área do die do GK104. Apesar de comportar 3,54 bilhões de transistores (contra 1,95 bilhão na GTX 560 Ti) e 3,5 vezes mais CUDA Cores, o chip tem área de apenas 294 mm², ante 318mm² da GTX 560 Ti. Qual o segredo? Refinamento no processo de fabricação em 28nm (contra 40nm da geração anterior), bem como a nova arquitetura mais otimizada.

 

As novidades da Kepler

Conforme já mencionado no decorrer desta análise, a nova geração Kepler trouxe gratas surpresas para os usuários. Algumas exclusivas, como é o caso dos novos filtros FXAA e TXAA, do GPU Boost, Adptive VSync e 3D Vision Surround com apenas uma VGA. Outras são comuns às demais placas de nova geração, como é o caso do suporte ao DirectX 11.1 e do PCI Express 3.0. Detalharemos a seguir as novidades.

DirectX 11.1
Apesar do suporte à mais recente API Gráfica da Microsoft ter sempre sido motivo de destaque no marketing das companhias, ao que parece, a NVIDIA não está tão empolgada com tal fato. Tanto que, apesar de a arquitetura Kepler suportar o  DirectX 11.1, John Danskin, vice-presidente de arquitetura de GPU da NVIDIA, soltou a seguinte frase durante o NVIDIA Editor's Day em São Francisco (evento super seleto, fechado a um restrito grupo de jornalistas de várias partes do mundo – e coberto pelo Adrenaline): "Sim, [a GeForce GTX 680] será compatível com DirectX 11.1, mas... quem se importa?"

Provavelmente o que o executivo quis dizer foi que a atualização da API Gráfica da Microsoft não trará tantas melhorias gráficas; e mais ainda: deverá demorar até que o DX11.1 seja adotado amplamente pelos games – assim como o próprio DX11. Até que isso ocorra, é provável que as GeForces da série 700 ou mesmo 800 já tenha sido lançadas.

Outro ponto é que, até o Windows 8 chegar, tal recurso ficará apenas no papel. Ainda assim, as principais novidades do DX11.1 serão:

• Rasterização independente de objeto;
• Interoperabilidade flexível entre computação gráfica e vídeo;
• Suporte nativo ao Stereo 3D.

PCIe Gen 3
Na medida em que novas gerações de placas chegavam ao mercado, foi gerado um temor nos analistas de que o padrão de interface de comunicação PCI Express chegaria a um ponto em que não conseguiria dar mais vazão ao fluxo de dados com a intensidade necessária, criando assim um verdadeiro gargalo para o desempenho da VGA.

Este temor, contudo, se diluiu, com o recente anúncio da geração 3 do PCIe, que dobrou a taxa de transferência em relação ao PCIe Gen 2, garantindo tranquilidade para as futuras placas 3D.

Com o novo patamar de desempenho advindo da geração Kepler, a NVIDIA garantiu o suporte ao PCI Express 3.0 nas GeForces série 600, encerrando qualquer tipo de temor em relação a gargalo de desempenho.

Com o PCIe Gen 3, a largura de banda saltou de 16GB/s para 32GB/. Já nas placas acessórias instaladas, o ganho saiu de 500MB/s para 1GB/s por pista/linha. Assim, os dispositivos que utilizam a configuração x16 podem utilizar de 16GB/s, ou 128Gbps. Vale ressaltar, contudo, que para se beneficiar do PCI Express 3.0 o usuário deverá ter um sistema totalmente preparado e compatível com tal recurso. Assim, além de uma VGA PCIe Gen 3.0, tanto a placa-mãe quanto o processador deverão suportar a novidade.

GPU Boost

Exclusivo das GeForces, trata-se da tecnologia combinada de harware com software de ajuste dinâmico nos clocks.

Semelhante ao Turbo Boost da Intel e ao TurboCore da AMD, o GPU Boost tem como objetivo disponibilizar a quantidade de megahertz necessária para o bom funcionamento das tarefas, a depender, claro, de certas condições, como consumo de energia e temperatura da GPU.

Com a Kepler, há agora os conceitos de clocks base (base clock) e clock de impulso (boost clock). Dessa forma, a placa opera por padrão em 915Mhz, podendo ir a 980Mhz (overclock de 7%) quando for preciso um maior poder de processamento (como a renderização de gráficos complexos), desde, claro, que haja condições para isso (TDP e temperatura abaixo do máximo permitido). Em outras palavras, a tecnologia utiliza a diferença entre o consumo atual (varia de acordo com o software executado) e o TDP máximo da placa, para alavancar o clock base e aumentar a performance, chegando assim ao patamar que a NVIDIA denominou de "boost clock".


(Algoritmo de execução do GPU Boost)


Em alguns casos, esse upgrade dinâmico pode superar em 10% o clock base da GeForce, ou seja, chegar a casa do gigahertz, desde, novamente, que haja condições para isso. O mais bacana é que, se você for um overclocker por natureza e quiser elevar ainda mais o desempenho via overclock tradicional, o GPU Boost continuará funcionando mesmo com a placa overclockada, variando os clocks para cima e para baixo da mesma forma que em VGAs com clocks default.


(Cada jogo utiliza uma quantidade específica de energia da VGA.
O GPU Boost monitora o consumo de energia em tempo real e aumenta o clock da GPU quando há condições disponíveis.)


Entretanto, caso o usuário esteja realizando tarefas triviais, como, por exemplo, surfando na web, ou utilizando uma suíte de escritório, o GPU Boost reduz automaticamente a frequência de operação do chip gráfico para economizar energia. Além de dar uma “ajudinha” no bolso do usuário no final do mês com a conta de energia, a tecnologia é particularmente interessante para o mundo dos portáteis, onde qualquer otimização na autonomia da bateria é bem-vinda.

FXAA

Embora não seja um filtro de Anti-Aliasing (antisserrilhado) inédito, a NVIDIA aprimorou o FXAA (Fast Approximate Anti-Aliasing) na nova geração Kepler.

Semelhante ao MLAA (Morphological Anti-Aliasing, ou Antisserrilhamento Morfológico) empregado pela AMD nas novas Radeons, o FXAA é uma técnica de pós-processamento, isto é, que aplica o filtro de anti-aliasing na imagem após esta ter sido gerada pela GPU. Isso é bastante vantajoso, haja vista que alivia a carga de trabalho da unidade de processamento gráfico. Vale destacar que o FXAA é aplicado junto com outras técnicas de pós-processamento, como é o caso do motion blur e do bloom.

Com a chegada da Kepler, a NVIDIA passou a adotar o FXAA via driver (geração R300), possibilitando a utilização do filtro em centenas de jogos. Outro destaque do Fast Approximate Anti-Aliasing sobre o Morphological Anti-Aliasing está no ganho de desempenho, chegando a ser 60% mais veloz que o MSAA em 4X.

Um fato que chamou bastante a atenção da comunidade foi a apresentação do Samaritan Demo (demonstração de um vídeo da Epic que ressalta o poderio gráfico do DirectX da Unreal Engine) na Game Devolpers Conference – GDC 2011. Na ocasião, a Epic necessitou de três GeForces GTX 580 para rodar o demo a contento. Passado um ano, ou seja, na GDC 2012, a Epic fez uma nova apresentação do Samaritan Demo. Contudo, para a surpresa de todos, foi necessário apenas uma GeForce GTX 680 e a utilização do FXAA para “dar conta do recado”.

Para ver um comparativo mais apurado dos benefícios do filtro, clique aqui.

TXAA
Considerado pela NVIDIA como a próxima geração de filtros de antisserilhamento (responsável pela geração do próximo nível em termos de qualidade de imagem), o TXAA (Temporal Anti-aliasing) promete disponibilizar muito mais qualidade e performance se comparado com o MSAA.

Segundo a companhia, o antisserilhamento temporal foi criado com o objeto de explorar toda a capacidade de processamento de texturas da geração Kepler (mais especificamente nas placas baseadas no chip gráfico GK104, ou seja, nas GTX 680/670/660).

O TXAA é um misto de anti-aliasing de hardware com filme GC estilo AA, e para o caso do filtro em 2X, um componente temporal opcional é empregado, para melhorar a qualidade da imagem.

O filtro de Temporal Anti-aliasing está disponível em dois modos: TXAA1 e TXAA2. De acordo com a NVIDIA, o TXAA1 oferece uma qualidade gráfica superior ao MSAA em 8X, com gasto de processamento semelhante ao MSAA em 2X. Já o TXAA2 permite uma qualidade das imagens superior ao TXAA1, com performance comparável ao MSAA em 4X.

Inicialmente o filtro antisserilhamento temporal será implementado diretamente na engine de alguns dos principais jogos da futura geração. Até o momento, a Epic Games, com a sua badalada Unreal Engine Technology 4, e a Crytek, são dois dos principais estúdios que já estão desenvolvendo games com o novo filtro da NVIDIA.


Adptive VSync

O sincronismo vertical – V-Sync foi projetado para lidar com os chamados artefatos fora de sincronismo ou artefatos trepidantes (tearing artifacts ), que podem ocorrer quando a quantidade de FPS é bem superior à taxa de atualização (refresh rate) do monitor, e que além de causarem um desconforto visual, prejudicam a jogabilidade do usuário. Embora seja raro, é possível ainda que o fenômeno aconteça na situação inversa ao mencionado acima, ou seja, quando os FPS são bem menores que a taxa de atualização da tela.


(Tearing artifacts)

Apesar de criado com o intuito de acabar (ou amenizar) com os tearing artifacts, o V-Sync gerou outro problema: a perda de frames (stuttering), também conhecido como “lag”. Isso ocorre quando os FPS caem para menos de 60 quadros por segundo, ocasionando a redução do V-Sync para 30Hz (e demais quocientes de 60, como 20Hz ou 15Hz).


(Problema de sincronismo vertical - VSync)

Como forma de enfrentar esse desafio, os engenheiros de software da NVIDIA criaram o Adptive V-Sync. Presente na geração de drivers R300 da companhia, a tecnologia dinamicamente liga e desliga o sincronismo vertical, de forma a gerar FPS mais regulares e cadenciados, o que minimiza os lags nos games e previne a má sincronização das imagens.

Mais especificamente, quando a taxa de quadros por segundo cai para menos de 60 FPS, o Adptive V-Sync entra em cena e desliga o sincronismo vertical, possibilitando que os frame rates funcionem em sua taxa natural, o que reduz as chances de ocorrer lag. Quando os FPS voltam para 60 quadros por segundo, o Adptive V-Sync atua novamente ao ligar o sincronismo vertical, reduzindo a possibilidade de ocorrerem artefatos fora de sincronismo.


(Adptive V-Sync em funcionamento)

NVENC
A NVIDIA introduziu em todas das VGAs da linha Kepler o NVENC, novo vídeo encoder para o padrão H.264.

Antes do NVENC, as GeForces utilizavam o Badaboom (mais detalhes na próxima seção), que utiliza do poder dos CUDA Cores para a conversão de diferentes formatos de streaming multimídia. Se, por um lado, esse recurso tem a grande vantagem de desafogar o processador e acelerar o processo, por outro, tem o ponto fraco de aumentar o consumo de energia da placa durante a conversão.

Para resolver essa questão, a NVIDIA criou o NVENC, que utiliza um circuito especializado para o “encodamento” H.264. Vale destacar que tal circuito é quase quatro vezes mais veloz que o encoder via CUDA Cores, além de consumir consideravelmente menos energia que o Badaboom.

O NVENC é capaz de lidar com as seguintes situações:

- Encodar vídeos em fullHD (1080p) com velocidade até oito vezes maior que em tempo real. De acordo com a companhia, em modo de alta performance, o NVENC é capaz de encodar um vídeo de 16 minutos em 1080p @ 30 FPS em apenas dois minutos;

- Suporte ao padrão H.264 nos níveis de profile 4.1 Base, Main e High (mesmo que o padrão Blu-Ray);

- Suporte ao MVC (Multiview Video Coding) para vídeos estereoscópicos – extensão do H.264 para o padrão Blu-Ray 3D;

- “Encodamento” para resolução de até 4096x4096 pixels.

É bom que se diga que, além da transcodificação, o NVENC é útil para edição de vídeos, telas do tipo wireless (sem fio) e aplicações de vídeo conferência.

 

Outras tecnologias

CUDA
Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units).

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip gráfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estágios programáveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não gráficos.

Apresentada inicialmente em 2007, a tecnologia CUDA está presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x.

De acordo com vários experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano está na arquitetura por trás do chip gráfico, massivamente focado na computação paralela, graças à imensa quantidade de cores/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Dessa forma, aplicações voltadas para a biologia, física, simulações, criptografia, entre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA.

No campo dos games, a renderização dos gráficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como por exemplo, nos cálculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...)

Atualmente, é o processo de GPGPU mais difundido no mercado, com mais de 100 milhões de placas compatíveis.

PhysX
Embora seja uma das grandes “vedetes” dos games modernos, a tecnologia de processamento da física é uma tecnologia que já vem de alguns anos.

Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trás da tecnologia.

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Assim, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs.

Muito bem, mas o que vem a ser exatamente o tal cálculo da física presente no PhysX? Trata-se da técnica na qual o chip gráfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador ao adicionar ambientes físicos vibrantes, de imersão total.

A física é o próximo passo na evolução dos jogos. Diz respeito à forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma já programada. Para os praticantes, os jogos são bons, mas falta o realismo necessário para produzir a verdadeira sensação de imersão.

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessária para produzir a física avançada e realista nos jogos de próxima geração, deixando para trás os efeitos de animação pré-fabricados.

É através do cálculo da física que, por exemplo, uma explosão parece mais real para o usuário, uma vez que se pode gerar um verdadeiro “efeito dominó” por trás desse evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo e a fumaça.

O PhysX é responsável, entre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços;
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas;
• Novos e incríveis efeitos nos efeitos dos disparos de armas;
• Tecidos que se enrugam e rasgam naturalmente;
• Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)


(Vídeo de Borderlans 2 mostrando efeitos do PhysX em uma GTX 660 Ti)

3D Vision Surround
Lançado no início de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado.

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho).

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação sequencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.

Foi uma ação extremamente ambiciosa e ousada da NVIDIA, já que ela teve que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa “The Way It's Meant To Be Played”, em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.

Vale ressaltar que a tecnologia não está limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:

• Óculos Sem Fio 3D Estereoscópico Ativo - Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plástico.

• Emissor Infravermelho de alta potência (porta USB) - Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real.

• Monitores Ultra-Flexíveis - Projetado para os monitores LCD de 120Hz, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos. 

• Softwares de Compatibilidade - Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI e PhysX.

• Visualizador 3D - Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


(Kris Rey da NVIDIA jogando Skyrim em 3 monitores,
enquanto navega no portal GeForce.com para acessar o guia de otimização do jogo para a VGA)


O passo seguinte no avanço da tecnologia 3D foi o lançamento do 3D Vision Surround (imagem acima), que possibilitou utilizar até três monitores simultâneos, formando assim uma ampla área de visualização em três dimensões.

Com a chegada da linha Kepler (mais especificamente da GeForce GTX 680), a NVIDIA aprimora ainda mais o 3D Vision Surround, ao permitir o uso da tecnologia com o uso de apenas uma GPU da nova geração, barateando consideravelmente o investimento necessário para se jogar em 3D com múltiplos monitores.

SLI
Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os gráficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.

Sendo assim, o objetivo da tecnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é o mesmo: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação gráfica, destinada a aumentar o poder de processamento disponível nas placas 3D.

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a “engavetada” até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trás do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)

Trata-se do método em que se analisa a imagem processada a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em várias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Esse é o modo padrão usado pela configuração SLI usando duas placas de vídeo.

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)

Aqui, cada GPU renderiza frames/quadros inteiros em sequência - uma trabalhando com os frames ímpares e outra responsável pelos pares, um após o outro. Quando a placa escrava/secundária finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.

• AFR de SFR

Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Dessa forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessário, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.

• SLI Antialiasing

Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade, pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não há grandes problemas em utilizar o PCI Express na configuração x8.

Atualmente, não há restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que elas possuam o mesmo chip gráfico. No início, a tecnologia restringia o uso a VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado.

PureVideo

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuário poderá ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web.

O PureVideo possui os seguintes recursos:

• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU;
• Aceleração WMV de Alta Definição por hardware: Suporte programável ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD;
• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;
• Desentrelaçamento temporal/espacial adaptável: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos;
• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução;
• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a área da tela de reprodução;
• Display Gamma Correction: Detecção automática de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela.

 

Tecnologias by MSI

A GeForce GTX 660 Ti Power Edition possui algumas tecnologias exclusivas, listamos algumas abaixo.

Potencial de overclock até 18,2% maior

A placa de vídeo MSI GTX 660 Ti Power Edition utiliza a arquitetura MSI Power Edition: Triple Overvoltage com suporte ao programa Afterburner que permite ajustes na GPU, memória e voltagens PLL. Assim, todo o potencial da placa de vídeo pode ser liberado e a performance do overclock ter ganho de até 18,2%. O fornecimento de energia também foi melhorado para aumentar o fluxo atual em até 17%, se comparado com outras placas de referência, e mantém alta estabilidade durante o overclock.

Abaixo temos a tela principal do Afterburner:



Temperatura 14ºC menor e ruído 17,1 dB menor que placas de referência

A GPU possui ainda o cooler Twin Frozr IV. Com a tecnologia proprietária da MSI Dust Removal, as ventoinhas rodam no sentido inverso durante a inicialização para otimizar o desempenho da refrigeração. A tecnologia internacionalmente patenteada Propeller Blade oferece fluxo de ar 20% superior se comparado a ventoinhas convencionais e também melhora a superfície de refrigeração. Duas fans controladoras de temperatura de 8cm, tecnologia SuperPipe e base de cobre banhado a níquel que reduz, efetivamente, a temperatura em até 14ºC e ruído em até 17,1 dB.

Componentes Military Class III para performance mais suave e confiável

Os componentes Military Class III da MSI passaram por rigorosos testes MIL-STD-810G para garantir a qualidade e estabilidade. Entre esses componentes estão o Tantalum Core Hi-c CAP, SFC 30% mais poderoso e Solid CAP com uma vida útil de até 10 anos.

 

Fotos

Esse modelo que recebemos para análise da MSI está entre os melhores disponíveis no lançamento da GTX 660 Ti. Todo o projeto da placa foi feito visando torna-lá uma das melhores do mercado em várias características, como acabamento, refrigeração e overclock.

Nas fotos abaixo podemos ver o design na cor azul, já característico de produtos diferenciados da MSI que levam o selo Classe Militar.

Um dos grandes atrativos da GTX 660 Ti é que ela vem com dois conectores SLI, e dessa forma possibilita conectar 4 placas ao mesmo tempo em 4-Way, tecnologia até então disponível apenas para modelos mais parrudos de gerações anteriores, como a GTX 570 e 580, sendo que a 560 Ti não trazia esse suporte, como podemos ver nas fotos mais abaixo onde comparamos as duas placas.

GTX 690, GTX 670 e GTX 660 Ti
Nas fotos abaixo temos a GTX 660 Ti Power Edition ao lado de uma GTX 680 e uma GTX 670, demais placas TOP single chip da geração GeForce 600.

Update: Esse modelo da MSI utiliza PCB diferente da referência, dessa forma é possível notar que ele é maior do que a GTX 670 (placa do meio). A diferença fica clara na foto da parte do fundo das placas, reparem que a GTX 670 tem parte em plastico onde fica o FAN, semelhante ao modelo referência da GTX 660 Ti, já esse modelo da MSI possui PCB maior.

GTX 660 Ti e 560 Ti
Comparado com a 560 Ti, o tamanho da 660 Ti não mudou muito, como destacamos, a nova versão vem com dois conectores SLI, além de DisplayPort e uma conexão HDMI, e não Mini HDMI como na GTX 560 Ti.

 

Máquina/Softwares utilizados

Como de constume, utilizamos uma máquina TOP de linha baseada em um processador Intel Core i7 3960X overclockado para 4.6GHz.

Abaixo, fotos do sistema montado com a MSI GTX 660 Ti Power Edition.

A seguir, os detalhes da máquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

Máquina utilizada nos testes:
- Mainboard MSI X79A-GD65 8D
- Processador Intel Core i7 3960X @ 4.6GHz
- Memórias 16 GB DDR3-1600MHz Corsair Dominator-GT
- HD 1TB Sata2 Western Digital Black
- Fonte XFX ProSeries 1000W
- Cooler Master Hyper 212 EVO

Sistema Operacional e Drivers
- Windows 7 64 Bits 
- Intel INF 9.3.0.1020
- Catalyst 12.6 WHQL: Placas AMD 
- GeForce 296.10 WHQL: Placas Nvidia GeForce 500
- GeForce 301.10 WHQL: Placas Nvidia GeForce 600
- GeForce 305.37 BETA - GTX 660Ti

Configurações de Drivers
3DMark 
- Anisotropic filtering: OFF 
- Antialiasing - mode: OFF 
- Vertical sync: OFF 
- Demais opções em Default

Games: 
- Anisotropic filtering: Variado através do game testado 
- Antialiasing - mode: Variado através do game testado 
- Texture filtering: High-Quality 
- Vertical sync: OFF 
- Demais opções em Default 

Aplicativos/Games
- 3DMark 11 1.0.3 (DX11) 
- Unigine HEAVEN Benchmark 3.0 (DX11)

- Aliens vs Predator (DX11) 
- Batman Arkham City (DX11)
- Crysis Warhead (DX10) 
- Crysis 2 (DX11)
- DiRT 3 (DX11) 
- Just Cause 2 (DX10.1) 
- Mafia II (DX9) 
- Metro 2033 (DX11) 
- Sniper Elite V2 Benchmark (DX11)

 

GPU-Z e Temperatura

Abaixo temos a tela principal do GPU-Z, mostrando algumas das principais características técnicas da GTX 660 Power Edition da MSI, que possui clock do core superior ao modelo referência que tem clock do GPU em 915MHz. Já as memórias desse modelo tem mesmo clock de uma referência, 6008MHz.


GPU Boost
Antes dos testes, vejam um vídeo que fizemos demonstrando a tecnologia GPU Boost em ação rodando com uma GTX 680 referência, reparem na mudança constante do clock e voltagem da placa.

Temperatura
Iniciamos nossa bateria de testes com um bench bastante importante: a temperatura do chip, tanto em modo ocioso como em uso contínuo.

Em modo ocioso (idle), a placa da MSI conseguiu um dos melhores desempenhos entre os modelos de nosso comparativo, empatando com a GTX 560 Ti.

CONFIGURAÇÃO PARA O TESTE:

Sistema ocioso (idle)

OBS.:

  • Temperatura ambiente em 25ºC
  • Medida em graus Celsius
  • Quanto MENOR, melhor
  • Hardwares comparados: 13

[ TEMPERATURA (GPU) | MSI GTX 660TI POWER EDITION ]

MSI GeForce GTX 660Ti Power Edition 2GB
28
NVIDIA GeForce GTX 560 Ti 1GB
28
ASUS Radeon HD 7870 DirectCU II TOP 2GB
29
NVIDIA GeForce GTX 680 2GB
31
ASUS Radeon HD 7970 3GB
33
XFX Radeon HD 7850 BE OC DD 2GB
33
NVIDIA GeForce GTX 670 2GB
34
XFX Radeon HD 7950 BE DD 3GB
36
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
37
NVIDIA GeForce GTX 580 1.5GB
44
NVIDIA GeForce GTX 570 1.25GB
45
XFX Radeon HD 6950 1GB
46
XFX Radeon HD 6970 1GB
52

Medimos o pico de temperatura durante os testes do 3DMark 11 rodando em modo contínuo. Aqui vemos que o ótimo resultado obtido em modo ocioso não foi por acaso, e novamente a placa fica próxima do topo dos melhores modelos, com um dos menores aquecimentos.

CONFIGURAÇÃO PARA O TESTE:

Rodando 3DMark 11

OBS.:

  • Temperatura ambiente em 25ºC
  • Medida em graus Celsius
  • Quanto MENOR, melhor
  • Hardwares comparados: 13

[ TEMPERATURA (GPU) | MSI GTX 660TI POWER EDITION ]

XFX Radeon HD 7850 BE OC DD 2GB
59
MSI GeForce GTX 660Ti Power Edition 2GB
61
ASUS Radeon HD 7870 DirectCU II TOP 2GB
67
ASUS Radeon HD 7970 3GB
67
NVIDIA GeForce GTX 560 Ti 1GB
67
XFX Radeon HD 7950 BE DD 3GB
67
XFX Radeon HD 6950 1GB
72
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
74
NVIDIA GeForce GTX 680 2GB
75
NVIDIA GeForce GTX 570 1.25GB
78
NVIDIA GeForce GTX 580 1.5GB
79
XFX Radeon HD 6970 1GB
81
NVIDIA GeForce GTX 670 2GB
82

 

Consumo de Energia

Também fizemos testes de consumo de energia com todas as placas comparadas. Os testes foram feitos todos em cima da máquina utilizada na review, o que da a noção exata do que cada VGA consome.

Em modo ocioso (também conhecido como idle), o consumo de energia da MSI GTX 660Ti PE é também um dos modelos com menor consumo de energia, ficando próximo de modelos Radeon HD 7850 e 7870 que estão no topo da lista.

CONFIGURAÇÃO PARA O TESTE:

Sistema ocioso (idle)

OBS.:

  • Consumo do sistema inteiro
  • Resultados em Watts
  • Quanto MENOR, melhor
  • Hardwares comparados: 12

[ CONSUMO DE ENERGIA | MSI GTX 660TI POWER EDITION ]

ASUS Radeon HD 7870 DirectCU II TOP 2GB
143
XFX Radeon HD 7850 BE OC DD 2GB
143
ASUS Radeon HD 7970 3GB
146
MSI GeForce GTX 660Ti Power Edition 2GB
146
NVIDIA GeForce GTX 670 2GB
147
NVIDIA GeForce GTX 680 2GB
147
XFX Radeon HD 7950 BE DD 3GB
150
NVIDIA GeForce GTX 560 Ti 1GB
152
XFX Radeon HD 6950 1GB
154
XFX Radeon HD 6970 1GB
155
NVIDIA GeForce GTX 570 1.25GB
162
NVIDIA GeForce GTX 580 1.5GB
170

 

No teste de carga, rodando o 3DMark 11, e aumentando o consumo de energia das placas colocando-as em situações de maior demanda de potência, a relação entre os modelos se manteve, com a placa da MSI ficando próxima dos melhores modelos no comparativo.

CONFIGURAÇÃO PARA O TESTE:

Rodando 3DMark 11

OBS.:

  • Consumo do sistema inteiro
  • Resultados em Watts
  • Quanto MENOR, melhor
  • Hardwares comparados: 13

[ CONSUMO DE ENERGIA | MSI GTX 660TI POWER EDITION ]

XFX Radeon HD 7850 BE OC DD 2GB
313
ASUS Radeon HD 7870 DirectCU II TOP 2GB
334
MSI GeForce GTX 660Ti Power Edition 2GB
337
NVIDIA GeForce GTX 560 Ti 1GB
339
NVIDIA GeForce GTX 670 2GB
343
XFX Radeon HD 6950 1GB
352
XFX Radeon HD 7950 BE DD 3GB
353
XFX Radeon HD 6970 1GB
354
NVIDIA GeForce GTX 570 1.25GB
364
NVIDIA GeForce GTX 680 2GB
365
ASUS Radeon HD 7970 3GB
376
AMD Radeon HD 7970 3GB
384
NVIDIA GeForce GTX 580 1.5GB
405

 

3DMark 11, Heaven 3.0

Com o 3DMark 11, versão mais recente do aplicativo para testes de desempenho de placas de vídeo mais famoso do mundo, podemos ver a ótima performance da placa de vídeo da MSI, que superou vários modelos de referência como GTX 670 e Radeon HD 7970. A placa ficou próxima até mesmo da GTX 680, perdendo em apenas 7%.

CONFIGURAÇÃO PARA O TESTE:

PERFORMANCE, 1280x720

OBS.:

  • Aplicativo baseado em DirectX 11
  • Resultados em pontos calculados pelo aplicativo
  • Quanto MAIOR, melhor
  • Hardwares comparados: 13

[ 3DMARK 11 | MSI GTX 660TI POWER EDITION ]

NVIDIA GeForce GTX 680 2GB
9881
MSI GeForce GTX 660Ti Power Edition 2GB
9185
NVIDIA GeForce GTX 670 2GB
8833
ASUS Radeon HD 7970 3GB
8176
XFX Radeon HD 7950 BE DD 3GB
7731
ASUS Radeon HD 7870 DirectCU II TOP 2GB
7320
NVIDIA GeForce GTX 580 1.5GB
6925
XFX Radeon HD 7850 BE OC DD 2GB
6205
NVIDIA GeForce GTX 570 1.25GB
6134
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
5964
XFX Radeon HD 6970 1GB
5906
XFX Radeon HD 6950 1GB
5290
NVIDIA GeForce GTX 560 Ti 1GB
4819

 

Unigine HEAVEN 3.0 - DirectX 11

Trata-se de um dos testes sintéticos mais “descolados” do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API gráfica DirectX 11, como é o caso do Tessellation.

O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation, ambas a 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

No primeiro teste, com o tessellation desativado, a placa não consegue repetir o ótimo desempenho alcançado com o 3DMark, e caiu algumas posições. Seu desempenho foi muito próximo ao da GTX 580 referência, ficando 20% abaixo da GTX 670 e mantendo uma vantagem de 5% no comparativo com o modelo overclockado da XFX da 7850.

CONFIGURAÇÃO PARA O TESTE:

Shaders: HIGH / Tessellation: DISABLED, AA 8x AF 16x, 1920x1080

OBS.:

  • Teste baseado em DirectX 11
  • Resultados em pontos calculados pelo aplicativo
  • Quanto maior, melhor
  • Hardwares comparados: 12

[ UNIGINE HEAVEN BENCHMARK 3.0 | MSI GTX 660TI POWER EDITION ]

ASUS Radeon HD 7970 3GB
1918
XFX Radeon HD 7950 BE DD 3GB
1801
NVIDIA GeForce GTX 680 2GB
1797
NVIDIA GeForce GTX 670 2GB
1695
ASUS Radeon HD 7870 DirectCU II TOP 2GB
1596
MSI GeForce GTX 660Ti Power Edition 2GB
1410
NVIDIA GeForce GTX 580 1.5GB
1409
XFX Radeon HD 6970 1GB
1372
XFX Radeon HD 7850 BE OC DD 2GB
1341
NVIDIA GeForce GTX 570 1.25GB
1170
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
1169
NVIDIA GeForce GTX 560 Ti 1GB
1016

Usando o tessellation ativado em modo normal, as posições não se alteraram, mantendo aproximadamente a mesma relação de desempenho entre os produtos.

CONFIGURAÇÃO PARA O TESTE:

Shaders: HIGH / Tessellation: NORMAL, AA 8x AF 16x, 1920x1080

OBS.:

  • Teste baseado em DirectX 11
  • Resultados em pontos calculados pelo aplicativo
  • Quanto maior, melhor
  • Hardwares comparados: 12

[ UNIGINE HEAVEN BENCHMARK 3.0 | MSI GTX 660TI POWER EDITION ]

ASUS Radeon HD 7970 3GB
1468
NVIDIA GeForce GTX 680 2GB
1444
XFX Radeon HD 7950 BE DD 3GB
1385
NVIDIA GeForce GTX 670 2GB
1351
ASUS Radeon HD 7870 DirectCU II TOP 2GB
1271
MSI GeForce GTX 660Ti Power Edition 2GB
1140
NVIDIA GeForce GTX 580 1.5GB
1121
XFX Radeon HD 7850 BE OC DD 2GB
1066
XFX Radeon HD 6970 1GB
1027
NVIDIA GeForce GTX 570 1.25GB
938
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
938
NVIDIA GeForce GTX 560 Ti 1GB
786

 

Aliens vs Predator

Começamos os testes em jogos com o Aliens vs Predator, game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica.

Em AvP, a placa da MSI perdeu para a GTX 580, ficando 24% abaixo da GTX 670. A placa se situou próximo do modelo overclockado da XFX da 7850, e ficou aproximadamente 10% abaixo do modelo diferenciado da ASUS com o chip Radeon HD 7870.

CONFIGURAÇÃO PARA O TESTE:

HIGH / ULTRA HIGH, AA 4x AF 16x, 1680x1050

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ ALIENS VS PREDATOR | MSI GTX 660TI POWER EDITION ]

ASUS Radeon HD 7970 3GB
72.1
XFX Radeon HD 7950 BE DD 3GB
67.6
NVIDIA GeForce GTX 680 2GB
64.7
NVIDIA GeForce GTX 670 2GB
63.5
XFX Radeon HD 6970 1GB
57.2
ASUS Radeon HD 7870 DirectCU II TOP 2GB
55.2
NVIDIA GeForce GTX 580 1.5GB
54.0
MSI GeForce GTX 660Ti Power Edition 2GB
51.0
XFX Radeon HD 6950 1GB
50.4
XFX Radeon HD 7850 BE OC DD 2GB
46.3
NVIDIA GeForce GTX 570 1.25GB
45.5
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
45.2
NVIDIA GeForce GTX 560 Ti 1GB
37.8

CONFIGURAÇÃO PARA O TESTE:

HIGH / ULTRA HIGH, AA 4x AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ ALIENS VS PREDATOR | MSI GTX 660TI POWER EDITION ]

ASUS Radeon HD 7970 3GB
65.3
XFX Radeon HD 7950 BE DD 3GB
60.8
NVIDIA GeForce GTX 680 2GB
58.2
NVIDIA GeForce GTX 670 2GB
56.2
XFX Radeon HD 6970 1GB
51.9
ASUS Radeon HD 7870 DirectCU II TOP 2GB
49.4
NVIDIA GeForce GTX 580 1.5GB
48.5
XFX Radeon HD 6950 1GB
45.7
MSI GeForce GTX 660Ti Power Edition 2GB
45.0
XFX Radeon HD 7850 BE OC DD 2GB
41.1
NVIDIA GeForce GTX 570 1.25GB
40.9
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
40.6
NVIDIA GeForce GTX 560 Ti 1GB
34.0

 

Crysis Warhead

O FPS futurístico da Crytek fez muito barulho por trazer uma qualidade gráfica bem superior a dos concorrentes e por ser considerado por muito tempo como um dos games que mais exigia recursos do computador, principalmente das placas 3D. Assim, nada melhor do que submeter as VGAs da review pelo crivo de "Crysis Warhead".

Neste teste, a GTX 660Ti da MSI ficou próxima do desempenho de placas com o chip Radeon HD 7950 e 7970, e ficou 10% abaixo da performance da GTX 670 de referência.

CONFIGURAÇÃO PARA O TESTE:

ENTHUSIAST, AA 8x, 1680x1050

OBS.:

  • Game baseado em DirectX 10
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ CRYSIS WARHEAD | MSI GTX 660TI POWER EDITION ]

NVIDIA GeForce GTX 680 2GB
59.53
NVIDIA GeForce GTX 670 2GB
56.18
ASUS Radeon HD 7970 3GB
52.96
XFX Radeon HD 7950 BE DD 3GB
50.77
MSI GeForce GTX 660Ti Power Edition 2GB
50.73
NVIDIA GeForce GTX 580 1.5GB
47.86
ASUS Radeon HD 7870 DirectCU II TOP 2GB
45.21
NVIDIA GeForce GTX 570 1.25GB
40.92
XFX Radeon HD 7850 BE OC DD 2GB
40.33
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
40.26
XFX Radeon HD 6970 1GB
39.97
XFX Radeon HD 6950 1GB
36.43
NVIDIA GeForce GTX 560 Ti 1GB
33.63

CONFIGURAÇÃO PARA O TESTE:

ENTHUSIAST, AA 8x, 1920x1080

OBS.:

  • Game baseado em DirectX 10
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ CRYSIS WARHEAD | MSI GTX 660TI POWER EDITION ]

NVIDIA GeForce GTX 680 2GB
52.23
NVIDIA GeForce GTX 670 2GB
48.77
ASUS Radeon HD 7970 3GB
47.17
XFX Radeon HD 7950 BE DD 3GB
45.10
MSI GeForce GTX 660Ti Power Edition 2GB
43.79
NVIDIA GeForce GTX 580 1.5GB
41.82
ASUS Radeon HD 7870 DirectCU II TOP 2GB
39.67
XFX Radeon HD 6970 1GB
35.90
NVIDIA GeForce GTX 570 1.25GB
35.61
XFX Radeon HD 7850 BE OC DD 2GB
35.53
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
35.09
XFX Radeon HD 6950 1GB
32.10
NVIDIA GeForce GTX 560 Ti 1GB
28.95

 

Crysis 2

Para os testes com o Crysis 2, utilizamos a ferramenta Adrenaline Crysis 2 Benchmark Tool, que lançamos no ano passado e é utilizada por praticamente todos os websites internacionais para benchmarks com o Crysis 2. O game, como todos sabem, é referência em qualidade de imagem, e no mês de junho 2011 finalmente ganhou seu patch com suporte ao DirectX 11, já que originalmente o game vinha apenas em DX9.

Neste game, o modelo overclockado da MSI conseguiu chegar próximo da GTX 670, ficando menos de 10% abaixo em performance. A placa conseguiu superar modelos overclockados de placas com chip 7850 e 7870, ficando entre 5 e 10% acima.

CONFIGURAÇÃO PARA O TESTE:

ULTRA, AA Quincunx 2X, 1680x1050

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ CRYSIS 2 | MSI GTX 660TI POWER EDITION ]

NVIDIA GeForce GTX 680 2GB
78.3
AMD Radeon HD 7970 3GB
77.3
XFX Radeon HD 7950 BE DD 3GB
76.3
NVIDIA GeForce GTX 670 2GB
73.3
MSI GeForce GTX 660Ti Power Edition 2GB
67.8
NVIDIA GeForce GTX 580 1.5GB
63.6
ASUS Radeon HD 7870 DirectCU II TOP 2GB
62.9
XFX Radeon HD 7850 BE OC DD 2GB
56.0
NVIDIA GeForce GTX 570 1.25GB
54.2
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
53.6
XFX Radeon HD 6970 1GB
48.9
XFX Radeon HD 6950 1GB
43.9
NVIDIA GeForce GTX 560 Ti 1GB
43.7

CONFIGURAÇÃO PARA O TESTE:

ULTRA, AA Quincunx 2X, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ CRYSIS 2 | MSI GTX 660TI POWER EDITION ]

AMD Radeon HD 7970 3GB
68.6
NVIDIA GeForce GTX 680 2GB
67.5
XFX Radeon HD 7950 BE DD 3GB
65.8
NVIDIA GeForce GTX 670 2GB
62.8
MSI GeForce GTX 660Ti Power Edition 2GB
57.7
ASUS Radeon HD 7870 DirectCU II TOP 2GB
54.2
NVIDIA GeForce GTX 580 1.5GB
54.1
XFX Radeon HD 7850 BE OC DD 2GB
48.9
NVIDIA GeForce GTX 570 1.25GB
46.5
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
46.0
XFX Radeon HD 6970 1GB
42.4
XFX Radeon HD 6950 1GB
37.6
NVIDIA GeForce GTX 560 Ti 1GB
37.2

 

DiRT 3

DiRT 3 é o game mais recente de uma das séries de corrida off-road de maior sucesso da história da indústria dos jogos eletrônicos. Lançado em junho de 2011, o game traz o que existe de melhor em tecnologia da API DirectX 11. Os testes com o game foram feitos utilizando a ferramenta Adrenaline Racing Benchmark Tool.

Neste game vemos uma boa vantagem para os modelos da NVIDIA, que povoam o topo da lista. Aqui o modelo da MSI conseguiu enconstar na GTX 670, ficando 5% abaixo, e perdendo em 15% no comparativo com a GTX 680. Comparando com modelos AMD, a placa ficou 3% acima da Readon HD 7970.

CONFIGURAÇÃO PARA O TESTE:

ULTRA, AA 8x, 1680x1050

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ DIRT 3 | MSI GTX 660TI POWER EDITION ]

NVIDIA GeForce GTX 680 2GB
116.1
NVIDIA GeForce GTX 670 2GB
106.8
MSI GeForce GTX 660Ti Power Edition 2GB
100.6
AMD Radeon HD 7970 3GB
96.9
XFX Radeon HD 7950 BE DD 3GB
85.7
NVIDIA GeForce GTX 580 1.5GB
83.5
ASUS Radeon HD 7870 DirectCU II TOP 2GB
80.7
NVIDIA GeForce GTX 570 1.25GB
74.8
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
73.4
XFX Radeon HD 6970 1GB
66.0
XFX Radeon HD 7850 BE OC DD 2GB
63.9
NVIDIA GeForce GTX 560 Ti 1GB
62.5
XFX Radeon HD 6950 1GB
59.9

CONFIGURAÇÃO PARA O TESTE:

ULTRA, AA 8x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ DIRT 3 | MSI GTX 660TI POWER EDITION ]

NVIDIA GeForce GTX 680 2GB
106.5
NVIDIA GeForce GTX 670 2GB
99.2
MSI GeForce GTX 660Ti Power Edition 2GB
91.5
AMD Radeon HD 7970 3GB
90.5
XFX Radeon HD 7950 BE DD 3GB
78.3
NVIDIA GeForce GTX 580 1.5GB
76.9
ASUS Radeon HD 7870 DirectCU II TOP 2GB
71.9
NVIDIA GeForce GTX 570 1.25GB
67.8
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
66.1
XFX Radeon HD 6970 1GB
60.4
NVIDIA GeForce GTX 560 Ti 1GB
58.1
XFX Radeon HD 7850 BE OC DD 2GB
57.7
XFX Radeon HD 6950 1GB
53.5

 

Just Cause 2

Para fazer o "contra peso", as placas da série Radeon dominam em todos os segmentos rodando o Just Cause 2, curiosamente apoiado pela NVIDIA.

Neste game, a GTX 660Ti da MSI conseguiu se manter próxima da GTX 670, em performance e, acompanhando os demais modelos da NVIDIA, ficou para trás de diversas placas da AMD, ficando 12% abaixo do modelo overclockado da ASUS com chip 7870.

CONFIGURAÇÃO PARA O TESTE:

HIGH / VERY HIGH, AA 8x AF 16x, 1680x1050

OBS.:

  • Game baseado em DirectX 10/10.1
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ JUST CAUSE 2 | MSI GTX 660TI POWER EDITION ]

AMD Radeon HD 7970 3GB
87.21
XFX Radeon HD 7950 BE DD 3GB
81.99
NVIDIA GeForce GTX 680 2GB
73.41
ASUS Radeon HD 7870 DirectCU II TOP 2GB
71.74
MSI GeForce GTX 660Ti Power Edition 2GB
64.79
NVIDIA GeForce GTX 670 2GB
64.19
XFX Radeon HD 6970 1GB
58.81
XFX Radeon HD 7850 BE OC DD 2GB
58.00
NVIDIA GeForce GTX 580 1.5GB
56.97
XFX Radeon HD 6950 1GB
55.21
NVIDIA GeForce GTX 570 1.25GB
51.90
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
51.44
NVIDIA GeForce GTX 560 Ti 1GB
42.25

CONFIGURAÇÃO PARA O TESTE:

HIGH / VERY HIGH, AA 8x AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 10/10.1
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ JUST CAUSE 2 | MSI GTX 660TI POWER EDITION ]

AMD Radeon HD 7970 3GB
78.44
XFX Radeon HD 7950 BE DD 3GB
73.34
NVIDIA GeForce GTX 680 2GB
65.78
ASUS Radeon HD 7870 DirectCU II TOP 2GB
64.09
NVIDIA GeForce GTX 670 2GB
61.25
MSI GeForce GTX 660Ti Power Edition 2GB
57.21
NVIDIA GeForce GTX 580 1.5GB
53.77
XFX Radeon HD 6970 1GB
52.91
XFX Radeon HD 7850 BE OC DD 2GB
51.20
XFX Radeon HD 6950 1GB
49.09
NVIDIA GeForce GTX 570 1.25GB
46.31
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
46.27
NVIDIA GeForce GTX 560 Ti 1GB
37.35

 

Mafia II

Mafia II trouxe a continuação do aclamado game de ação em terceira pessoa ambientado no obscuro mundo da máfia italiana dos anos 40 e 50, nos EUA.

Nesta bateria de testes, a GTX 660Ti da MSI conseguiu ficar bem próxima da 7970 referência, bem como da GTX 670, perdendo por menos de 5%. Também conseguiu manter-se acima do desempenho da 7950 overclockada da XFX, ainda que por uma pequena margem (menos de 2%)

CONFIGURAÇÃO PARA O TESTE:

HIGH, AA ON AF 16x, 1680x1050

OBS.:

  • Game baseado em DirectX 9
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ MAFIA II | MSI GTX 660TI POWER EDITION ]

NVIDIA GeForce GTX 680 2GB
107.6
NVIDIA GeForce GTX 670 2GB
98.2
AMD Radeon HD 7970 3GB
96.0
MSI GeForce GTX 660Ti Power Edition 2GB
94.1
XFX Radeon HD 7950 BE DD 3GB
88.4
NVIDIA GeForce GTX 580 1.5GB
85.0
ASUS Radeon HD 7870 DirectCU II TOP 2GB
83.9
XFX Radeon HD 6970 1GB
75.1
NVIDIA GeForce GTX 570 1.25GB
73.3
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
71.1
XFX Radeon HD 7850 BE OC DD 2GB
71.1
XFX Radeon HD 6950 1GB
66.6
NVIDIA GeForce GTX 560 Ti 1GB
62.9

CONFIGURAÇÃO PARA O TESTE:

HIGH, AA ON AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 9
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ MAFIA II | MSI GTX 660TI POWER EDITION ]

NVIDIA GeForce GTX 680 2GB
93.9
AMD Radeon HD 7970 3GB
86.5
NVIDIA GeForce GTX 670 2GB
85.9
MSI GeForce GTX 660Ti Power Edition 2GB
82.7
XFX Radeon HD 7950 BE DD 3GB
81.6
ASUS Radeon HD 7870 DirectCU II TOP 2GB
75.3
NVIDIA GeForce GTX 580 1.5GB
73.8
XFX Radeon HD 6970 1GB
66.8
NVIDIA GeForce GTX 570 1.25GB
63.8
XFX Radeon HD 7850 BE OC DD 2GB
62.3
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
62.1
XFX Radeon HD 6950 1GB
60.0
NVIDIA GeForce GTX 560 Ti 1GB
54.6

 

Metro 2033

Trata-se de um FPS da 4A Games baseado em um romance homônimo russo, que conta a saga dos sobreviventes de uma guerra nuclear ocorrida em 2013 que se refugiam nas estações de metrô. O game, que faz uso intensivo da técnica de Tessellation e demais recursos do DirectX 11, desbancou de Crysis o título de jogo mais pesado. Sendo assim, nada melhor do que observar como se comportam as VGAs sob este intenso teste.

Com o game, a placa da MSI ficou próxima do modelo overclockado da 7870 da ASUS, e ficou aproximadamente 10% abaixo da GTX 670, e mais de 20% abaixo de modelos overclockados da 7950. Como visto em diversos dos testes, a GTX 660Ti desta análise tem um desempenho bem próximo ao da GTX 580. 

CONFIGURAÇÃO PARA O TESTE:

VERY HIGH, AA 4x AF 16x, 1680x1050

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ METRO 2033 | MSI GTX 660TI POWER EDITION ]

AMD Radeon HD 7970 3GB
56.00
XFX Radeon HD 7950 BE DD 3GB
53.50
NVIDIA GeForce GTX 680 2GB
51.00
NVIDIA GeForce GTX 670 2GB
49.50
ASUS Radeon HD 7870 DirectCU II TOP 2GB
45.50
MSI GeForce GTX 660Ti Power Edition 2GB
43.50
NVIDIA GeForce GTX 580 1.5GB
42.50
XFX Radeon HD 6970 1GB
41.00
XFX Radeon HD 7850 BE OC DD 2GB
40.00
NVIDIA GeForce GTX 570 1.25GB
36.50
XFX Radeon HD 6950 1GB
36.00
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
36.00
NVIDIA GeForce GTX 560 Ti 1GB
30.00

CONFIGURAÇÃO PARA O TESTE:

VERY HIGH, AA 4x AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ METRO 2033 | MSI GTX 660TI POWER EDITION ]

AMD Radeon HD 7970 3GB
50.00
XFX Radeon HD 7950 BE DD 3GB
47.00
NVIDIA GeForce GTX 680 2GB
44.50
NVIDIA GeForce GTX 670 2GB
43.00
ASUS Radeon HD 7870 DirectCU II TOP 2GB
40.50
MSI GeForce GTX 660Ti Power Edition 2GB
38.50
NVIDIA GeForce GTX 580 1.5GB
38.00
XFX Radeon HD 6970 1GB
36.00
XFX Radeon HD 7850 BE OC DD 2GB
35.00
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
32.50
NVIDIA GeForce GTX 570 1.25GB
32.00
XFX Radeon HD 6950 1GB
31.50
NVIDIA GeForce GTX 560 Ti 1GB
26.50

 

PhysX

Quando se trata de uma placa de vídeo da Nvidia, não temos como não testar a tecnologia de física PhysX, presente em alguns games e que promete maior realismo, adicionando efeitos não encontrados em placas que não sejam da empresa.

Para os testes, utilizamos o Batman Arkham City, sequência da série que traz efeitos muito bons dessa tecnologia. Abaixo, um exemplo da diferença do game rodando com e sem PhysX.

Como a tecnologia adiciona mais efeitos, ela exige mais da placa de vídeo e consequentemente afeta diretamente o desempenho. Abaixo, nos testes com a tecnologia ativada, temos um desempenho muito bom da placa, conseguindo desbancar modelos como a GTX 680 em alguns momentos. A placa ficou em torno de 5% abaixo da GTX 670, e não teve como concorrer com a poderosa GTX 690, e seus mais de 50% de vantagem.

CONFIGURAÇÃO PARA O TESTE:

VERY HIGH / PhysX: HIGH, AA 8x, 1680x1050

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ BATMAN ARKHAM CITY | MSI GTX 660TI POWER EDITION ]

NVIDIA GeForce GTX 690 2x2GB
78
NVIDIA GeForce GTX 670 2GB
54
NVIDIA GeForce GTX 680 2GB
52
MSI GeForce GTX 660Ti Power Edition 2GB
51
NVIDIA GeForce GTX 590 3GB
49
MSI GeForce GTX 580 Lightning Xtreme Edition 3GB
47
NVIDIA GeForce GTX 580 1.5GB
46
NVIDIA GeForce GTX 560 SLI 2x1GB
44
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
41
NVIDIA GeForce GTX 570 1.25GB
40
NVIDIA GeForce GTX 560 Ti 1GB
36
ZOTAC GeForce GTX 560 1GB
34
GALAXY GeForce GTX 470 1.25GB
33

CONFIGURAÇÃO PARA O TESTE:

VERY HIGH / PhysX: HIGH, AA 8x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 13

[ BATMAN ARKHAM CITY | MSI GTX 660TI POWER EDITION ]

NVIDIA GeForce GTX 690 2x2GB
76
NVIDIA GeForce GTX 670 2GB
51
MSI GeForce GTX 660Ti Power Edition 2GB
48
NVIDIA GeForce GTX 680 2GB
48
NVIDIA GeForce GTX 590 3GB
47
MSI GeForce GTX 580 Lightning Xtreme Edition 3GB
46
NVIDIA GeForce GTX 580 1.5GB
44
NVIDIA GeForce GTX 560 SLI 2x1GB
43
NVIDIA GeForce GTX 570 1.25GB
39
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
37
NVIDIA GeForce GTX 560 Ti 1GB
33
ZOTAC GeForce GTX 560 1GB
31
GALAXY GeForce GTX 470 1.25GB
30

 

Overclock: Temperatura

Assim como demais modelos da geração GeForce 600, a GTX 660 Ti tem bom potencial para overclock, sem contar que sobre seu clock overclockado definido pela BIOS ou por algum programa, o GPU Boost vai atuar aumentando ainda mais o clock da placa. Esse modelo tem entre seus principais diferenciais ser desenvolvida para alcançar clocks consideravelmente maiores, mas tivemos uma série de problemas relacionados aos drivers beta, que travavam com o 3DMark 11 quando colocávamos clocks acima de 1080MHz, mesmo não tendo problemas nos demais testes.

Dessa forma subimos o clock de 1020MHz para 1070MHz, apenas 50MHz, resultado que foi suficiente para dar bom ganho em alguns de nossos testes. Também subimos as memórias para 6408MHz.

Confiram abaixo as telas do GPU-Z e os testes da placa quando overclockada.


Temperatura
Após a mudança da frequência, a temperatura sofreu um aumento, porém nada muito significativo. Os 5% a mais ainda mantiveram a placa muito bem posicionada, no comparativo com outros modelos.

CONFIGURAÇÃO PARA O TESTE:

Rodando 3DMark 11

OBS.:

  • Temperatura ambiente em 25ºC
  • Medida em graus Celsius
  • Quanto MENOR, melhor
  • Hardwares comparados: 14

[ TEMPERATURA (GPU) | MSI GTX 660TI POWER EDITION ]

XFX Radeon HD 7850 BE OC DD 2GB
59
MSI GeForce GTX 660Ti Power Edition 2GB
61
MSI GeForce GTX 660Ti Power Edition 2GB @ 1070MHz
64
ASUS Radeon HD 7870 DirectCU II TOP 2GB
67
ASUS Radeon HD 7970 3GB
67
NVIDIA GeForce GTX 560 Ti 1GB
67
XFX Radeon HD 7950 BE DD 3GB
67
XFX Radeon HD 6950 1GB
72
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
74
NVIDIA GeForce GTX 680 2GB
75
NVIDIA GeForce GTX 570 1.25GB
78
NVIDIA GeForce GTX 580 1.5GB
79
XFX Radeon HD 6970 1GB
81
NVIDIA GeForce GTX 670 2GB
82

 

Overclock: Consumo de Energia, 3DMark 11

Consumo de Energia
Assim como na temperatura, o consumo de energia da placa da MSI não se alterou de forma muito grande, com um incremento na cas dos 5%, também. A diferença, neste caso, é que este aumento fez com que ela perdessemuitas posições, mas ainda conseguindo se situar no meio de nossa tabela.

CONFIGURAÇÃO PARA O TESTE:

Rodando 3DMark 11

OBS.:

  • Consumo do sistema inteiro
  • Resultados em Watts
  • Quanto MENOR, melhor
  • Hardwares comparados: 14

[ CONSUMO DE ENERGIA | MSI GTX 660TI POWER EDITION ]

XFX Radeon HD 7850 BE OC DD 2GB
313
ASUS Radeon HD 7870 DirectCU II TOP 2GB
334
MSI GeForce GTX 660Ti Power Edition 2GB
337
NVIDIA GeForce GTX 560 Ti 1GB
339
NVIDIA GeForce GTX 670 2GB
343
XFX Radeon HD 6950 1GB
352
XFX Radeon HD 7950 BE DD 3GB
353
MSI GeForce GTX 660Ti Power Edition 2GB @ 1070MHz
354
XFX Radeon HD 6970 1GB
354
NVIDIA GeForce GTX 570 1.25GB
364
NVIDIA GeForce GTX 680 2GB
365
ASUS Radeon HD 7970 3GB
376
AMD Radeon HD 7970 3GB
384
NVIDIA GeForce GTX 580 1.5GB
405

3DMark 11
O overclock trouxe um ganho de performance na casa dos 4%, no teste com o 3DMark. Isto aproximou mais a GTX 660Ti da MSI da GTX 680 referência, derrubando para apenas 3% a diferença entre os dois modelos.

CONFIGURAÇÃO PARA O TESTE:

PERFORMANCE, 1280x720

OBS.:

  • Aplicativo baseado em DirectX 11
  • Resultados em pontos calculados pelo aplicativo
  • Quanto MAIOR, melhor
  • Hardwares comparados: 14

[ 3DMARK 11 | MSI GTX 660TI POWER EDITION ]

NVIDIA GeForce GTX 680 2GB
9881
MSI GeForce GTX 660Ti Power Edition 2GB @ 1070MHz
9569
MSI GeForce GTX 660Ti Power Edition 2GB
9185
NVIDIA GeForce GTX 670 2GB
8833
ASUS Radeon HD 7970 3GB
8176
XFX Radeon HD 7950 BE DD 3GB
7731
ASUS Radeon HD 7870 DirectCU II TOP 2GB
7320
NVIDIA GeForce GTX 580 1.5GB
6925
XFX Radeon HD 7850 BE OC DD 2GB
6205
NVIDIA GeForce GTX 570 1.25GB
6134
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
5964
XFX Radeon HD 6970 1GB
5906
XFX Radeon HD 6950 1GB
5290
NVIDIA GeForce GTX 560 Ti 1GB
4819

 

Overclock: AvP, Crysis 2 e DiRT 3

Além do 3DMark 11, fizemos testes com a placa overclockada na resolução de 1920x1080 em alguns games. Vamos acompanhar abaixo como a placa se comportou.

Aliens vs Predator
Com este game, o overclock apresentou um pouco mais de ganho, aumentando em 7% a performance da placa, e tornando possivel a ela superar a 6950 da XFX. Isto aproximou o modelo da GTX 580 e do modelo overclockado de fábrica da ASUS com o chip Radeon HD 7870.

CONFIGURAÇÃO PARA O TESTE:

HIGH / ULTRA HIGH, AA 4x AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 14

[ ALIENS VS PREDATOR | MSI GTX 660TI POWER EDITION ]

ASUS Radeon HD 7970 3GB
65.3
XFX Radeon HD 7950 BE DD 3GB
60.8
NVIDIA GeForce GTX 680 2GB
58.2
NVIDIA GeForce GTX 670 2GB
56.2
XFX Radeon HD 6970 1GB
51.9
ASUS Radeon HD 7870 DirectCU II TOP 2GB
49.4
NVIDIA GeForce GTX 580 1.5GB
48.5
MSI GeForce GTX 660Ti Power Edition 2GB @ 1070MHz
48.2
XFX Radeon HD 6950 1GB
45.7
MSI GeForce GTX 660Ti Power Edition 2GB
45.0
XFX Radeon HD 7850 BE OC DD 2GB
41.1
NVIDIA GeForce GTX 570 1.25GB
40.9
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
40.6
NVIDIA GeForce GTX 560 Ti 1GB
34.0

Crysis 2
Com o game Crysis 2, novamente temos o ganho de desempenho na casa de 5%, o que possibilitou a GTX 660Ti encostar de vez na GTX 670, perdendo por apenas 3%.

CONFIGURAÇÃO PARA O TESTE:

ULTRA, AA Quincunx 2X, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 14

[ CRYSIS 2 | MSI GTX 660TI POWER EDITION ]

AMD Radeon HD 7970 3GB
68.6
NVIDIA GeForce GTX 680 2GB
67.5
XFX Radeon HD 7950 BE DD 3GB
65.8
NVIDIA GeForce GTX 670 2GB
62.8
MSI GeForce GTX 660Ti Power Edition 2GB @ 1070MHz
60.6
MSI GeForce GTX 660Ti Power Edition 2GB
57.7
ASUS Radeon HD 7870 DirectCU II TOP 2GB
54.2
NVIDIA GeForce GTX 580 1.5GB
54.1
XFX Radeon HD 7850 BE OC DD 2GB
48.9
NVIDIA GeForce GTX 570 1.25GB
46.5
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
46.0
XFX Radeon HD 6970 1GB
42.4
XFX Radeon HD 6950 1GB
37.6
NVIDIA GeForce GTX 560 Ti 1GB
37.2


Metro 2033
Assim como em Crysis, o overclock fez o produto da MSI passar bem perto do desempenho da GTX 670, com um aumento de 6% na performance da placa. Este ganho também fez com que o a placa ultrapassasse o modelo diferenciado da ASUS com a GPU Radeon HD 7870.

CONFIGURAÇÃO PARA O TESTE:

VERY HIGH, AA 4x AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor
  • Hardwares comparados: 14

[ METRO 2033 | MSI GTX 660TI POWER EDITION ]

AMD Radeon HD 7970 3GB
50.00
XFX Radeon HD 7950 BE DD 3GB
47.00
NVIDIA GeForce GTX 680 2GB
44.50
NVIDIA GeForce GTX 670 2GB
43.00
MSI GeForce GTX 660Ti Power Edition 2GB @ 1070MHz
41.00
ASUS Radeon HD 7870 DirectCU II TOP 2GB
40.50
MSI GeForce GTX 660Ti Power Edition 2GB
38.50
NVIDIA GeForce GTX 580 1.5GB
38.00
XFX Radeon HD 6970 1GB
36.00
XFX Radeon HD 7850 BE OC DD 2GB
35.00
ZOTAC GeForce GTX 560 Ti 448 Cores 1.25GB
32.50
NVIDIA GeForce GTX 570 1.25GB
32.00
XFX Radeon HD 6950 1GB
31.50
NVIDIA GeForce GTX 560 Ti 1GB
26.50

 

 

Conclusão

A GeForce GTX 660 Ti trouxe um expressivo ganho em relação à sua “irmã mais velha”, a GTX 560 Ti, com média de 50%, conforme evidenciado em nossos testes. Trata-se, sem dúvidas, de um feito digno de louvor. Entretanto, quando é posto na comparação outras placas, como é o caso de suas rivais Radeons 7870 e 7950, a coisa muda de figura.

Com um preço entre as duas concorrentes da AMD, a GTX 660 Ti tem uma performance bastante acirrada com tais VGAs, ora superando a 7950, ora ficando atrás da 7870, dificultando ainda mais a comparação por parte do consumidor. De um lado tem-se a nova GeForce por US$ 299, e de outro, Radeons variando entre US$ 250-330. O fato é que a GeForce GTX 660 Ti tem todas as condições de se dar muito bem no mercado, por entregar o que promete: desempenho respeitável, ótimas tecnologias e um preço bastante razoável na atual conjuntura do mercado.

A MSI foi ainda mais além com a GTX 660Ti Power Edition, agregando mais valor à categoria. A adição de componentes de qualidade superior e do sistema de refrigeração especial Twin Frozr IV com tecnologia de remoção de poeira são diferenciais bastante competitivos, e que devem seduzir ainda mais o consumidor na hora da compra. Esse modelo custa entre US$ 15-25 acima do modelo referência.

Update: Apesar da placa já vir overclockada de fábrica, ela não subiu mais o clock como esperávamos, a principio pensávamos ser problema dos drivers, mas parece que é da própria placa vide reviews internacionais, sendo que modelos concorrentes passaram de 1100MHz chegando até a 1150MHz, já esse modelo ficou instável em alguns testes com core a 1080GHz, mesmo com alterações na voltagem.

Outros destaques da GeForce GTX 660 Ti referem-se a suavidade (uso dos filtros FXAA/TXAA e do Adptive VSync) e maior riqueza (3D Vision Surround com apenas 1 VGA/GPU, e PhysX mais poderoso).

Por fim, a mudança na arquitetura da Kepler além de proporcionar uma maior otimização na relação desempenho por watt gasto, permitiu uma estratégia de marketing bastante interessante para a companhia: a de possuir VGAs com quantidades de Shaders Processors (ou Stream Processors / CUDA Cores) bem próximas as Radeons rivais. Nada de discrepância da ordem de 2,5-3 vezes.

A GTX 660 Ti mostrou ser uma ótima opção para os gamemaníacos, ao oferecer desempenho para rodar os games mais exigentes do mercado, além de disponibilizar uma farta lista de tecnologias de ponta.


MSI GTX 660Ti Power Edition

AVALIAÇÃO:

Performance

9.0

Preço

9.0

Tecnologias

10.0

Diferenciais

10.0

Overclock

8.5

Nota final

PRÓS
  • Sistema de refrigeração eficiente e bastante silencioso;
  • Excelente acabamento;
  • Preço pouco acima dos modelo de referência;
  • Sistema de auto limpeza da ventoinhas (FANs);
  • GPU overclockado de fábrica;
  • Possibilidade de 4-Way SLI;
  • Placa funciona com temperatura "baixa".
CONTRAS
  • Poderia vir com memória overclockada de fábrica;
  • Apesar do TDP de apenas 150W, o consumo da GTX 660 Ti poderia ser menor ( pode ser que o modelo referência consuma menos);
  • Overclock abaixo do que modelos concorrentes.