ANÁLISE: Nvidia GeForce GTX 560 Ti

ANÁLISE: Nvidia GeForce GTX 560 Ti

A chegada das GeForces da série 500 (apelidada por alguns de Fermis 1.5) representou um importante passo para a NVIDIA, uma vez que ela galgou novamente o topo da "pirâmide" com a GTX 580 (ainda que fortemente pressionada pela Radeon dual GPU 5970), e disponibilizou uma solução com ótimo custo x benefício para o segmento TOP com a GTX 570.

Passada a "euforia" da linha mÁxima (GeForces equipadas com o chip GF110) da NVIDIA, o mercado passou naturalmente a voltar sua atenção para as placas dos segmentos intermediÁrios e intermediÁrios de alta performance, em especial para a GTX 560, principalmente por serem as VGAs que estarão presentes em um maior número de lares em todo o mundo, em virtude de apresentarem um custo mais atraente para o consumidor.

Na verdade, a GeForce GTX 560 chega bastante "pressionada" não apenas pelas concorrentes Radeons 6870 (turbinadas) e 6950 de 1GB, mas sobretudo pela sua própria "irmã mais velha". É que graças à ótima relação de custo x benefício introduzida pela GTX 460, a GTX 560 tem a Árdua missão de repetir o sucesso da GF104.


Modelo de referência da NVIDIA

Por falar em chip, a NVIDIA seguiu a mesma receita de sucesso da GTX 580 com a GTX 560, ou seja, ativou todos os Stream Processors (ou CUDA Cores, se preferirem), disponibilizando poder mÁximo ao chip. Além disso, submeteu o core a uma reengenharia em sua arquitetura, otimizando assim a relação de performance por mm² vs. consumo (e dissipação de calor).

Uma curiosidade da GeForce GTX 560 é a volta do sufixo Ti (uma alusão ao termo Titanium), utilizada inicialmente com as célebres GeForces da série 3 (e que depois foi ampliada para as séries 2 e 4). O artifício serve para identificar as versões mais poderosas, em contraste à linha MX, voltada para o segmento intermediÁrio e de entrada.


(GeForce Ti 500)

Vale destacar que, assim como ocorreu com o lançamento das GTX 580 e 570, a Adrenaline recebeu em carÁter super exclusivo da NVIDIA um exemplar da GeForce GTX 560 Ti. Trata-se de um verdadeiro "presente" para toda a comunidade brasileira, e principalmente para os nossos assíduos leitores, que poderão conferir em primeiríssima mão o comportamento da placa frente a outros pesos pesados.

{break::Arquitetura GF114}O GF100 foi, sem dúvida para a NVIDIA, o passo à frente mais significativo em termos de avanço na macro-arquitetura das GPUs desde o lançamento da primeira G80, inaugurando o que se conhece muito bem hoje: o conceito de grÁficos unificados e computação paralela.

Com a Fermi, os engenheiros da NVIDIA empregaram todo o seu conhecimento adquirido ao longo das duas últimas gerações, bem como todos os aplicativos, e desenvolveram uma abordagem totalmente nova de design para criar a primeira GPU computacional do mundo.

Abaixo, alguns pontos-chaves da arquitetura Fermi:

• Otimização na Performance de Precisão Dupla: Enquanto a performance de ponto flutuante de precisão única foi da ordem de dez vezes o desempenho dos processadores, algumas aplicações de computação por GPU necessitam de mais desempenho de precisão dupla;

• Suporte a ECC: O chamado ECC (Error-Correcting Code memory em tradução livre, código de correção de erro de memória) se encarrega de fazer os devidos testes e correções de erros de forma automÁtica, muitas vezes de forma transparente e imperceptível ao sistema operacional. Assim, abre-se espaço para a utilização, de forma segura, de uma grande quantidade de GPUs em Data Centers, garantindo uma maior confiabilidade em sistemas críticos, tais como aplicações médicas, financeiras e militares;

• Hierarquia de Memória Cache Real: Alguns algoritmos paralelos eram incapazes de usar a memória compartilhada da GPU, de forma que os usuÁrios solicitaram uma arquitetura real para ajudÁ-los no desenvolvimento das tarefas e programas;

• Mais Memória Compartilhada: Muitos programadores do ambiente CUDA solicitaram mais de 16 KB de memória compartilhada para os Streaming Multiprocessors como forma de acelerar as aplicações;

• Alternância de Contexto Mais RÁpida: Muitos usuÁrios desejavam uma alternância de contexto mais veloz entre aplicações e interoperações de computação e grÁficos;

• Operações Atômicas mais Velozes: Os programadores necessitavam de operações atômicas de leitura-modificação-escrita mais velozes para se adequarem aos algoritmos paralelos.

Como resultado dos preceitos acima, a equipe de desenvolvimento da Fermi projetou um chip com imenso poder de fogo, trazendo ainda muitas inovações tecnológicas e que oferece um alto grau de programação e eficiência computacional.

Baseada no GF104 (GTX 460) o chip GF114 é uma versão mais "enxuta" em relação ao GF110 (GTX 580/570), muito embora traga em sua estrutura uma relação mais otimizada em termos de Shader Processors por clusters que o seu "irmão maior" (48 CUDA Cores contra 32), traduzindo em uma performance mais eficiente por mm².

Em outras palavras, podemos dizer que os engenheiros da NVIDIA conseguiram tiraram "leite de pedra" da arquitetura Fermi. Graças a toda uma nova reengenharia pela qual passou o chip, como a utilização de transistores com menos perda de energia dispostos em um novo arranjo físico, foi possível manter o consumo de energia praticamente inalterado em relação à GTX 460, apesar da ativação de todos os CUDA Cores, bem como do expressivo aumento no clock.

Para quem ainda não se convenceu do avanço, basta dizer que a GeForce GTX 560 Ti tem um desempenho similar ao da GTX 470, mas com um TDP bem menor (170W contra 215W).

Com a mesma estrutura de computação conjugada MIMD (Múltiplas Instruções, Múltiplos Dados) e os mesmos 1,95 bilhão de transistores em uma Área aproximada de 318mm² - portanto, idêntica ao GF104 - o GF114 teve ainda o benefício de herdar um amadurecimento no processo de fabricação – algo semelhante à atualização de stepping por que passa um processador, mantendo as mesmas características bÁsicas, como o clock, mas com um menor TDP (consumo de energia).

Como pode ser visto acima na estrutura de processamento "host interface" (responsÁvel por gerenciar os comandos do processador) do chip GF114, hÁ um grande bloco chamado pela NVIDIA de "Gigathread Engine" composto de 2 GPCs (Graphics Processing Clusters), 4 controladores de memória, partições ROPs e cache L2 com 512KB.

Vale ressaltar que cada GPC (que são, na realidade, grandes unidades de processamento e se comportam como mini GPUs independentes) possui 4 unidades de Streaming Multiprocessor (SMs), cada uma composta por 48 CUDA Cores. Dessa forma, a GF114 conta com um total de 384 Shaders Processors (8 SMs x 48 CUDA Cores).

Só agora que podemos compreender um dos motivos da utilização de todo o poder de fogo dos chips GF100 e GF104. Em outras palavras, como forma de não sacrificar ainda mais o consumo das GTX 480 e GTX 460, e (principalmente) ter uma maneira de disponibilizar mais desempenho às Fermis 1.5, é que a NVIDIA parece não ter optado por lançar as primeiras GTX 400 com todos os Shaders Processors ativados. Pelo visto, uma sÁbia decisão por parte da equipe de engenheiros da NVIDIA.

Em se tratando Texture Memory Units, hÁ uma grata surpresa. A GTX 560 Ti possui a mesma quantidade de TMUs que a GTX 580. São ao todo 64 unidades, graças à configuração de 8 TMUs por cada Stream Multiprocessor ativo (8 SMs x 8 TMUs).

JÁ em relação à quantidade de unidades de rasterização (ROPs), o GF114 possui um total de 32 unidades de rasterização (4 partições x 8 ROPs).

Um dos grandes segredos do GF114 herdado do GF104 estÁ no design e na disposição de algumas estruturas internas, como é o caso da relação entre SM e CUDA Cores. Enquanto no GF100/110 hÁ 32 CUDA Cores por SM, no GF114 hÁ 48 por Streaming Multiprocessor. Dessa forma, os SMs do chip da GTX 560 Ti são capazes de processar as informações de forma mais eficiente que a de sua irmã maior. Enquanto o GF100/110 possui 4 TMUs por SM, o GF114 possui 8 por SM, outro benefício da mudança de design. Além disso, ao passo que o chip das GTX 480/470/465/580/570 possui duas dispatch units por SM, o GF114 conta com o dobro de unidades, ou seja, 4. Essas são as razões pelas a quais que a GeForce GTX 560 Ti possui um desempenho tão bom frente à GTX 470.

Em contrapartida aos Combinadores de Registros, Unidades de Shaders e Shaders Cores presentes nas gerações passadas, os novos CUDA Cores são o que existe de última palavra em termos de tecnologia. Tratam-se de unidades autônomas capazes de processar múltiplas instruções e múltiplos dados (arquitetura MIMD), em oposição ao SIMD (instrução única, múltiplos dados). Assim, os 384 CUDA Cores consistem em unidades de despachos, coletores de operações, duas unidades de processamento (inteiros e pontos flutuantes) e registradores de filas de resultados.

Para ser sincero, o cluster de Streaming Multiprocessor é a grande razão pela qual a arquitetura Fermi poder ser vista como a mais eficiente em se tratando de unidade de processamento grÁfico. Olhando para a imagem acima, podemos ver que os 48 CUDA Cores foram "empacotados" junto com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa comutação dinâmica auxilia os desenvolvedores de jogos a otimizar a performance de seus games, graças à arquitetura bastante flexível.

Além disso, hÁ ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (32.768 entradas de 32-bit – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc). O cluster SM possui ainda 8 TMUs, cache de textura, e o mais importante de tudo: Polymorph Engine.

As unidades de Polymorph Engines foram introduzidas na Fermi para lidar com uma enorme carga de trabalho imposta pelas novas tecnologias, como é o caso da API grÁfica DirectX 11. Talvez, a principal delas seja a badalada técnica de aprimoramento da qualidade das imagens, conhecida como Tessellation (Tess), que aumenta de forma quase exponencial a quantidade de triângulos em uma cena, exigindo o mÁximo da GPU.

Eis aqui um dos principais pontos geradores de discussão pela a web. A AMD possui uma abordagem diferente da NVIDIA quanto à utilização do Tessellation, afirmando que o uso em excesso do recurso degrada muito a performance das VGAs sem, no entanto, trazer melhoras visuais perceptíveis. Enquanto isso, a NVIDIA adota uma posição contrÁria, dizendo que quanto maior a utilização do Tess, maior serÁ a qualidade das imagens.

Ao que parece, não se trata de quem estÁ com a razão, mas sim, quem estÁ puxando a "sardinha para a sua brasa". Pelo jeito, cada empresa estÁ defendendo o seu ponto de vista de acordo com os seus interesses, ou melhor, com os pontos fortes de suas placas. É fato que as GeForces da geração Fermi se saem muito melhor que as Radeons da geração Evergreen (série 5000) e mesmo das novas Northern Islands (série 6000) no que diz respeito ao Tessellation. O segredo estÁ na arquitetura de cada VGA. Enquanto as Radeons 5000/6000 contam com apenas uma única unidade de processamento dedicada ao Tess (à exceção da linha 6900, que possui duas), a NVIDIA equipou as novas GeForces com um conjunto de vÁrias unidades, como é o caso da GeForce GTX 580, que conta com um total de 16 Polymorph Engines. JÁ a GTX 560 Ti possui 8 Polymorph Engines.

Apesar de utilizar a mesma configuração Streaming Multiprocessor da GTX 460, a GeForce GTX 560 Ti recebeu dois aprimoramentos chaves na arquitetura como forma de trazer mais performance. Para começar, a VGA suporta agora toda a velocidade do filtro de textura FP16, o que acelera o processamento de certas aplicações/imagens com muitas texturas. Outra melhoria foi a adição do suporte a novos formatos de polígonos que aprimoram a eficiência do Z-cull. De acordo com a NVIDIA, essas "simples" novidades aprimoraram o desempenho da placa, em média, entre 5% e 10% nos principais games.

Assim como o GF100/110/104, o GF114 suporta o filtro de antialiasing modo 32x CSAA (8+24x), com 32 níveis de transparência, com expressivo ganho de desempenho sobre o GT200. O melhor de tudo é que, segundo a NVIDIA, a degradação da performance serÁ muito pouca em relação ao modo tradicional em 8X, variando entre 8-15%. Para quem critica e acha que a utilização de filtro de AA acima de 8x não traz ganho visível, segue abaixo uma prova, seguindo o pensamento de que uma imagem vale mais que mil palavras.



Em relação às memórias caches, enquanto a GT200 estava limitada ao compartilhamento de nível L2, a Fermi conta ainda com o nível L1, auxiliando sobremaneira o trabalho dos Shaders Processors. São ao todo 1MB de cache L1 e 512KB de L2.

De acordo com Henry Moreton, engenheiro da NVIDIA, o cache L1 da Fermi pode ultrapassar a impressionante marca de 1,5TB/s de largura de banda. Valor muito semelhante ao que chega o L2.

Ainda dentro do assunto memória, a arquitetura da GF114 é composta de 4 partições de 64 bits, o que resulta em um total de 256 bits de interface de memória. Vale ressaltar que a Fermi é capaz de suportar um total de até 6GB de VRAM. No entanto, atualmente apenas algumas versões especiais da GTX 580 contam com "apenas" 3GB. JÁ a GTX 560 Ti, a princípio, ficarÁ com 1GB.


Por fim, é interessante destacar que, diferentemente da GTX 460, que possui três versões (336 CUDA Cores/1GB/256bits; 336 CUDA Cores/768MB/192bits; e 228 CUDA Cores/1GB/256bits), a GTX 560 Ti conta (ao menos por enquanto) com apenas uma variante. Ainda não se sabe se a NVIDIA ampliarÁ a linha , muito embora seus documentos oficiais sempre se refiram à placa como GeForce GTX 560 Ti 1GB, enfatizando, portanto, que se trata de um modelo com 1GB.

Outro ponto que corrobora com o possível lançamento de pelo menos mais uma versão é o fato de um melhor posicionamento frente às suas rivais. Assim, enquanto a variante com um 1GB concorreria com a Radeon 6950 de 1GB, uma eventual GTX 560 de 384 CUDA Cores/768MB/192 bits, ou mesmo com 336 CUDA Cores/1GB/256 bits competiria em melhores condições em termos de preço X performance com a 6870.


{break::Os recursos da GTX 560 Ti}Abaixo, um resumo das principais especificações da GeForce GTX 560 Ti.


• 1,95 bilhão de transistores;
• "Segunda geração" da litografia em 40 nm;
• Área do die (estimado): 318 mm2;
• 8 Polymorph Engines;
• Frequência de operação das texturas e ROPs (GPU): 822MHz;
• 384 CUDA cores/shader processors;
• Frequência de operação dos CUDA cores: 1644MHz;
• Frequência de operação das memórias: 4008MHz (GDDR5);
• Quantidade de memória: 1GB;
• Interface de memória: 256bits;
• Consumo de energia/TDP: mÁximo de 170 watts;
• Limiar térmico da GPU em 100° C;
• Suporte às tecnologias: CUDA, DirectX 11/Shader Model 5.0, GeForce 3D Vision, NVIDIA 3D Vision Surround, NVIDIA PhysX,  PureVideo HD Technology, Badaboom, HDMI 1.3a, OpenGL 3.2, OpenCL, DirectCompute, Windows 7.

E ainda:

• Terceira Geração do Streaming Multiprocessor (SM);
- 48 CUDA cores por SM;
- Performance até 8x maior em ponto flutuante de precisão dupla em relação à GT200;
- Dual Warp Scheduler, que simultaneamente agenda e despacha instruções de duas rasterizações independentes;
- 64 KB de RAM com uma partição configurÁvel de memória compartilhada e cache L1.

• Segunda Geração de Execução de Thread Paralelo ISA
- Espaço de Endereçamento Unificado com suporte completo a C++;
- Otimização para OpenCL e DirectCompute;
- Precisão completa para IEEE 754-2008 32-bit e 64-bit;
- Caminho completo para inteiros de 32-bit e extensões de 64-bit;
- Instruções de acesso a memória para suportar a transição no endereçamento de 64-bit;
- Melhora na performance através da técnica de Predicação.

• Subsistema de Memória Otimizada
- Utilização da hierarquia NVIDIA Parallel DataCacheTM com L1 ajustÁvel e L2 unificada;
- Primeira GPU com suporte a memórias ECC;
- Otimização no desempenho das operações atômicas de memória.

• NVIDIA GigaThreadTM Engine
- 10x mais rÁpido nas aplicações de alternância de contexto;
- Execução simultânea de Kernel;
- Execução de blocos de theads fora de ordem;
- Engine de transferência de memória com dupla sobreposição.

Conforme jÁ mencionado na seção anterior, os engenheiros da NVIDIA se superaram ao construírem uma placa inteiramente baseada na anterior – mantendo, contudo, o mesmo processo de fabricação – com uma relação entre desempenho e consumo de energia bem mais eficiente. Isso só foi possível graças ao amadurecimento no processo de fabricação em 40nm, além de uma reengenharia e otimização na arquitetura.

Para suprir os 170W, a GTX 560 Ti possui dois conectores de alimentação extra, ambos de seis pinos (75W) que, somados aos 75W do slot PCIe, garantem 225W à placa, conferindo uma boa folga para o overclock. De acordo com a NVIDIA, é recomendado o uso de uma fonte real de 500W, em virtude dos demais componentes do computador, sobretudo se o processador for de alto desempenho.

Fazendo uma comparando nas especificações da placa, podemos perceber a substancial evolução nos números da GTX 560 Ti frente à GTX 460. Além do aumento de 14% na quantidade de CUDA Cores (384 contra 336) e de TMUs (64 contra 56), a nova GeForce ganhou um super overclock de fÁbrica. Enquanto a GTX 460 tem GPU/Shaders/memória trabalhando, respectivamente, em 675/1350/3600Mhz, a GTX 560 Ti vai muito além, com 822/1644/4008Mhz, um aumento de 22% na GPU e CUDA Cores e de 11% na memória.

Apesar de contar com menos CUDA Cores e ROPs do que a GTX 470, a reengenharia interna da arquitetura (adição do FP16 texture filtering e aprimoramento no Z-cull) somada com os altos clocks, possibilitou que a GTX 560 Ti pudesse galgar novos patamares, batendo de frente, inclusive, com a GTX 470!

Outro ponto positivo da nova GeForce (jÁ adiantado no tópico anterior) é o consumo de energia. Enquanto a GTX 460 de 1GB tem TDP de 160W, a GTX 560 Ti sofreu um aumento de apenas 10W. Trata-se de um incremento irrisório dado o grande aumento nos clocks da placa. De quebra, a placa tem um consumo menor que a GTX 470 (215W), reforçando mais uma vez a grande evolução na eficiência energética da VGA.


{break::Monitoramento de Energia}Além do tradicional monitoramento que protege as GPUs de eventuais problemas causados pelo excesso de temperatura, a NVIDIA inaugurou na GeForce GTX 580 (também presente na GTX 570) mais um recurso de proteção para a VGA, chamado de monitoramento de energia.

Trata-se de um conjunto de circuitos presentes no PCB da placa, que faz o monitoramento em tempo real da corrente elétrica e voltagem transmitida em cada rail 12V, seja via conector extra de seis pinos, oito pinos ou mesmo via PCI Express.

Assim, o driver é capaz de ajustar dinamicamente (e de forma transparente ao usuÁrio) o clock em certas aplicações de uso pesado, como é o caso do Furmak e OCCT, caso os níveis de corrente e voltagem excedam os limites da VGA.


(Detalhe dos circuitos de proteção de sobrecarga de corrente/voltagem no PCB de uma GTX 580)

{break::Novidades do DirectX 11}Como foi dito no início desta review, um dos grandes trunfos da geração Fermi é o suporte à nova API grÁfica da Microsoft, o DirectX 11, focada principalmente em seu principal recurso em termos de aprimoramento da qualidade das imagens: o Tessellation.

As novidades presentes no DX11 são:

- DirectCompute 11;
- Hardware Tessellation;
- High Definition Ambient Occlusion;
- Shader Model 5.0;
- Depth of Field; e
- Renderização Multi-threaded (Multi-threading).



DirectCompute 11
O DirectCompute é um dos grandes trunfos do DX11, pois possibilita que os desenvolvedores utilizem a GPU para o processamento de outras tarefas alheias à renderização 3D. Trata-se do conceito por trÁs do termo GPGPU, que transforma a placa de vídeo em um processador.

Os benefícios não ficam restritos às aplicações gerais. Nos games, por exemplo, é possível programar para que a GPU cuide de tarefas como o processamento e filtro das imagens (conceito de post processing). Ela também pode ficar responsÁvel por outros aspectos, como o Order Independent Transparency - OIT (técnica de sobreposição de objetos que aperfeiçoa o efeito de semi-transparência – como, por exemplo, na criação de efeito de fogo, fumaça, cabelo, vidro), a renderização de sombras, a física e a inteligência artificial, além de prevenir erros no processamento da priorização da formação das imagens.

Não é apenas o quesito qualidade que foi beneficiado com o OIT. Enquanto o método Simple Alpha Blending (SAB) presente no DX10 necessita de 64 passagens para a renderização, o OIT requer uma única leitura, ou seja, hÁ também uma expressiva otimização do processo.

Hardware Tessellation
Trata-se de um dos benefícios mais aguardados pela indústria dos jogos eletrônicos.

Embora a ATi tenha implementado a tecnologia Tessellation jÁ nas Radeons HD série 2000, somente agora tal funcionalidade começa a ser utilizada em sua plenitude nas placas 3D modernas, em virtude da adição de dois tipos de shaders (Hull e Domain) ao Shader Model 5.0.

De forma simplista, trata-se da tecnologia que adiciona, em tempo real, mais detalhes aos objetos 3D. Para tanto, subdivide-se um objeto/superfície em pedaços menores, acrescentando polígonos mais simples (de fÁcil execução).

Em outras palavras, ao invés de a GPU gastar um grande tempo para o processamento de um objeto único (ou parte de um grande objeto) e complexo de uma única vez, o Tessellation "quebra" o mesmo em partes menores de forma a tornar a tarefa mais simples e rÁpida.

Assim, os desenvolvedores estão agora "impedidos" de acrescentar mais objetos e detalhes aos games. Com o Tessellation, o processamento dos terrenos/solos serÁ muito mais simples e rÁpido, sem contar que permitirÁ que os programadores criem texturas e maiores detalhes - como a deformação dinâmica - resultando em um maior realismo ao jogo.

Nas fotos abaixo, é possível perceber com nitidez a diferença na qualidade da imagem quando a tecnologia é utilizada.




(imagens à esquerda sem a técnica; e à direita com a técnica)

High Definition Ambient Occlusion
Trata-se de outra técnica de efeito de pós-processamento de imagem, que melhora as sombras e luzes, além de aumentar a sensação de profundidade dos objetos (3D).

Para isso, a Microsoft disponibilizou dois novos métodos de compressão de texturas: os filtros BC6 e BC7. O primeiro oferece uma taxa de compressão de 6:1 com 16 bits por canal e sem perdas, mostrando-se uma texturização eficiente e de alta qualidade para a iluminação HDR. JÁ o BC7 oferece compressões de 3:1 com o padrão de cores RGB ou 4:1 para Alpha.


Shader Model 5.0
O DX11 introduz a versão 5.0 do Shader Model para a linguagem de programação HLSL, na qual adiciona precisão dupla para o processo, permitindo o uso específico dos shaders com polimorfismo, objetos e interfaces.

Na verdade, diferentemente das versões anteriores, o SM 5.0 não traz grandes avanços em termos de capacidades, mas promete facilitar o trabalho dos desenvolvedores ao introduzir certos conceitos de programação orientada a objetos.

Depth of Field
O método adiciona efeitos bem interessantes envolvendo o foco da imagem (primeiro plano) e o plano de fundo, para dar um aspecto cinemÁtico às imagens.

O Depth of Field utiliza um filtro de núcleo nos pixels da imagem processada como um efeito de pós-processamento. Este utiliza os dados dos pixels adjacentes para criar efeitos como borrado de movimentos, mapeamento de tom, detecção de bordas, suavização e nitidez.

Renderização Multi-threaded
É a técnica pela qual as GPUs processam os dados de forma simultânea, e não mais em sequência como em uma fila. O ganho, claro, estÁ na eficiência no processamento, resultando em uma melhor performance.

Embora existam pouquíssimos jogos prontos ou em desenvolvimento sob o DirectX 11, é justo dizer que a sua adoção estÁ sendo feita de forma mais acelerada em relação à versão 10.

{break::Outras tecnologias}CUDA

Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units).

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip grÁfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estÁgios programÁveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não grÁficos.

Apresentada inicialmente em 2007, a tecnologia CUDA estÁ presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x.

De acordo com vÁrios experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano estÁ na arquitetura por trÁs do chip grÁfico, massivamente focado na computação paralela, graças à imensa quantidade de cores/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Dessa forma, aplicações voltadas para a biologia, física, simulações, criptografia, entre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA.

No campo dos games, a renderização dos grÁficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como é o caso, por exemplo, dos cÁlculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...)

Atualmente, é o processo de GPGPU mais difundido no mercado, contando com mais de 100 milhões de placas compatíveis.

PhysX

Embora seja uma das grandes "vedetes" dos games modernos, a tecnologia de processamento da física é uma tecnologia que jÁ vem de alguns anos.

Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trÁs da tecnologia.

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Logo, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs.

Muito bem, mas o que vem a ser exatamente o tal cÁlculo da física presente no PhysX? Trata-se da técnica na qual o chip grÁfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador, ao adicionar ambientes físicos vibrantes, de imersão total.

A física é o próximo passo na evolução dos jogos. Trata-se da forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma jÁ programada. Para os praticantes, os jogos são bons, mas falta o realismo necessÁrio para produzir a verdadeira sensação de imersão.

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessÁria para produzir a física avançada e realista nos jogos de próxima geração, deixando para trÁs os efeitos de animação pré-fabricados.

É através do cÁlculo da física que, por exemplo, uma explosão parece mais real para o usuÁrio, uma vez que se pode gerar um verdadeiro "efeito dominó" por trÁs deste evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo em si e a fumaça.

O PhysX é responsÁvel, dentre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços;
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas;
• Novos e incríveis efeitos nos efeitos dos disparos de armas;
• Tecidos que se enrugam e rasgam naturalmente;
• Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)

Ironias à parte, atualmente é possível utilizar, por exemplo, uma GeForce mais simples como uma PPU (exclusivo para o processamento da física), deixando uma segunda placa da NVIDIA de classe superior responsÁvel para o processamento principal. Infelizmente, a companhia bloqueou em seus drivers a utilização de uma GeForce em conjunto com uma Radeon.

Na teoria, uma placa da ATI até pode realizar os cÁlculos da parte física sem possuir o PhysX, mas, na prÁtica, o resultado é desastroso, derrubando os FPS para níveis que podem, em certos casos, inviabilizar a prÁtica do jogo.

3D Vision (óculos 3D)

Lançado no início do ano de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi, de início, motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem-sucedidas de outras empresas no passado.

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho humano).

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação sequencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.

Trata-se, na verdade, de uma ação extremamente ambiciosa e ousada da NVIDIA, uma vez que tem que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa "The Way It's Meant To Be Played", em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.

Vale ressaltar que a tecnologia não estÁ limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:

• Óculos Sem Fio 3D Estereoscópico Ativo
Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plÁstico.

• Emissor Infravermelho de alta potência (porta USB)
Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real.

• Monitores Ultra-Flexíveis
Projetado para os monitores LCD de 120Hz ViewSonic e Samsung, HDTVs Mitsubishi DLP 1080p, e projetores DepthQ HD 3D, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos. 

• Softwares de Compatibilidade
Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI, PhysX, e o Microsoft DirectX 10.

• Visualizador 3D
Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


Não bastasse tudo isso, recentemente a NVIDIA ampliou a tecnologia, com o lançamento do 3D VISION SURROUND (imagem acima), que nada mais é do que ampliar a capacidade para até três monitores simultamente, formando assim uma ampla Área de visualização em três dimensões.

Para saber mais detalhes sobre a tecnologia, leia nossa review completa do 3D Vision aqui.

SLI

Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os grÁficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.

Sendo assim, o objetivo da tecbnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é o mesmo: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação grÁfica, destinada a aumentar o poder de processamento disponível nas placas 3D.

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a "engavetada" até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trÁs do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)
Trata-se do método em que se analisa a imagem processada a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em vÁrias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Esse é o modo padrão usado pela configuração SLI usando duas placas de vídeo.

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)
Aqui, cada GPU renderiza frames/quadros inteiros em sequência - uma trabalhando com os frames ímpares e outra ficando responsÁvel pelos pares, um após o outro. Quando a placa escrava/secundÁria finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.

• AFR de SFR
Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Desta forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessÁrio, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.

• SLI Antialiasing
Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado, pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não hÁ grandes problemas em utilizar o PCI Express na configuração x8.

Atualmente, não hÁ restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que as mesmas possuam o mesmo chip grÁfico. No início, a tecnologia restringia o uso a VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado.

PureVideo

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuÁrio poderÁ ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web.

O PureVideo possui os seguintes recursos:

• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU;

• Aceleração WMV de Alta Definição por hardware: Suporte programÁvel ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD;

• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;

• Desentrelaçamento temporal/espacial adaptÁvel: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos;

• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando fantasmas e trepidações durante a reprodução;

• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a Área da tela de reprodução;

• Display Gamma Correction: Detecção automÁtica de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela;

Badaboom

Trata-se da tecnologia utilizada para a conversão de diferentes formatos de streaming multimídia para utilização em outros meios. A grande diferença do Badaboom para a grande maioria dos outros programas existentes no mercado é que, enquanto seus concorrentes utilizam o processador para executar a tarefa, a solução da NVIDIA faz uso de outra tecnologia, a CUDA, ou seja, da GPU. Desta forma, o processo é realizado de forma muito mais rÁpida e eficiente.

Outro benefício é que, ao deixar a CPU livre, o usuÁrio poderÁ realizar outras atividades, como por exemplo, navegar pela a web. Na conversão tradicional via processador, a mÁquina fica praticamente inoperante para outras tarefas.

Na versão 1.2.1, o Badaboom Media Converter é vendido por US$30 e possui como um dos grandes destaques a facilidade na interface. O usuÁrio necessitarÁ apenas escolher a origem, ajustar as configurações e definir o destino.

Embora seja focado para os produtos da Apple, como iPhone, iPod e Apple TV, o usuÁrio poderÁ definir ainda uma série de opções de saída, como Xbox 360, PS3, PSP e HTPCs.

{break::Fotos}Como podemos ver abaixo, a GTX 560 Ti tem um layout externo semelhante ao da GTX 460, sem nenhum heatpipe exposto, com dois conectores de força de seis pinos. Seu sistema de cooler é bem interessante e traz três heatpipes junto a uma base de dissipadores, melhorando assim a condução do calor.

Nas fotos com a placa "aberta" podemos ver em detalhes o sistema de cooler, muito bonito, diga-se de passagem, e bastante imponente.


Parceiros
Abaixo, fotos de alguns modelos da GTX 560 Ti de alguns dos parceiros da Nvidia.


{break::MÁquina/Softwares utilizados}Utilizamos uma mÁquina TOP de linha baseada em um processador Intel Core i7 980X overclockado para 4.2GHz, evitando assim qualquer dúvida sobre gargalo do processador.

As placas utilizadas nos comparativos foram, por parte da NVIDIA, a placa analisada, GeForce GTX 560 Ti, além da GeForce GTX 570, GTX 480, GTX 470 e GTX 460 1GB. JÁ os modelos da AMD (ATi) foram a Radeon HD 6950, 6870, 5870 e 5850.

Abaixo, uma foto da GTX 560 Ti montada no sistema.

A seguir, os detalhes da mÁquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

MÁquina utilizada nos testes:
- Mainboard Gigabyte GA-X58A-UD9
- Processador Intel Core i7 980X @ 4.2GHz
- Memórias 4 GB DDR3-1600MHz G.Skill Trident
- HD 1TB Sata2 Western Digital Black
- Fonte XFX 850W Black Edition
- Cooler Thermalright Venomous X

Sistema Operacional e Drivers:
- Windows 7 64 Bits
- Intel INF 9.1.1.1025
- NVIDIA ForceWare 266.56: GTX 560 Ti
- NVIDIA ForceWare 263.09: GTX 570
- NVIDIA ForceWare 260.99 WHQL: GTX 480, GTX 470
- ATI Catalyst 10.12 hotfix: Placas ATI

Configurações de Drivers:
3DMark
- Anisotropic filtering: OFF
- Antialiasing - mode: OFF
- Vertical sync: OFF
- Demais opções em Default

Games:
- Anisotropic filtering: Variado através do game testado
- Antialiasing – mode: Variado através do game testado
- Texture filtering: High-Quality
- Vertical sync: OFF
- Demais opções em Default

* Todos os filtros foram aplicados via game testado. Apenas o Starcraft II, que não possui configuração interna de filtros, nos obrigou a configurar via drivers.

Aplicativos/Games:
- 3DMark Vantage 1.0.2 (DX10)
- 3DMark 11 1.0.1 (DX11)
- Unigine HEAVEN Benchmark 2.1 (DX11)

- Aliens vs Predator (DX11)
- Crysis Warhead (DX10)
- DiRT 2 (DX11)
- F1 2010 (DX11)
- Tom Clancy´s HAWX 2 (DX 11)
- Just Cause 2 (DX10/10.1)
- Mafia II (DX9)
- Metro 2033 (DX11)

{break::GPU-Z, Temperatura}Abaixo temos a tela principal do aplicativo GPU-Z com detalhes técnicos da GeForce GTX 560 Ti.


Temperatura
Iniciaremos nossa bateria de benchmarks com um dos testes mais solicitados e importantes de uma VGA de alto desempenho: a temperatura.

Em modo ocioso, ela jÁ mostra que seu sistema de cooler cumpre seu papel. Pelo menos quando o sistema não estÁ em uso, jÁ que foi a placa com a temperatura mais baixa dos modelos testados, ficando 1°C abaixo da GTX 460, outra placa que se comporta muito bem no quesito temperatura.

{benchmark::1382}

JÁ em modo FULL, a temperatura sobe um pouco e a placa fica 5°C acima da GTX 460, com 72°C. Essa temperatura ainda estÁ muito boa, como vemos, abaixo da temperatura dos modelos intermediÁrios da série 6800 da AMD.

{benchmark::1383}

{break::3DMark Vantage, 3DMark 11}3DMark Vantage
Embora considerados testes bastante polêmicos por parte da comunidade, por serem tachados como benchs sintéticos que não refletem, muitas vezes, a condição da placa no mundo real (leia-se jogos), a série 3DMark é um dos indicadores de performance mais amplamente utilizados em todo o mundo e não poderíamos refutÁ-los

Começamos pelo 3DMark Vantage onde a GTX 560 Ti se comporta muito bem e fica na segunda colocação da tabela, atrÁs apenas da GTX 570. Na comparação com a GTX 470, a 560 Ti tem performance superior em pouco mais de 12%. JÁ na comparação com a GTX 460, a vantagem sobe para mais de 25%, resultado muito bom e dentro do esperado para uma nova geração.

{benchmark::1384}

3DMark 11
Diferente do Vantage, no 3DMark 11 o comportamento da GTX 560 Ti não foi o esperado, ficando atrÁs até mesmo da GTX 470. Se não for problema de drivers, a performance ficou bem aquem do que se esperava, principalmente por se tratar de uma aplicação DirectX 11.

{benchmark::1385}

{break::Unigine Heaven 2.1}Unigine HEAVEN 2.1 - DirectX 11
Trata-se de um dos testes sintéticos mais "descolados" do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API grÁfica DirectX 11, como é o caso do Tessellation.

O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation, ambas a 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

Começando pelo teste com tessellation desativado, jÁ podemos ver que o comportamento da GTX 560 Ti é muito bom, ficando cerca de 12% à frente da GTX 470 e empatada tecnicamente com a 6950. Isso é muito bom, jÁ que a nova placa da NVIDIA compete em um segmento abaixo.

Podemos ver que a melhora sobre a GTX 460 foi superior a 27%, uma vantagem muito boa.

{benchmark::1386}

Com a tecnologia tessellation ativada em modo normal, não tivemos mudança de posição na tabela. Ocorreu sim uma briga mais acirrada entre 6950 e GTX 560 Ti, agora com diferença de apenas um ponto.

A melhora da GTX 560 Ti sobre a GTX 470 ficou na casa de 7%, jÁ sobre a GTX 460 foi pouco superior a 28%.

{benchmark::1387}

{break::Aliens vs Predator}Chegamos finalmente ao ponto alto da review: os testes em jogos!

Nada melhor do que começar por Aliens vs Predator, game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica.

Vemos que a 6950 se distanciou um pouco, deixando a GTX 560 Ti brigando com a placa top da geração passada da ATI, a 5870.

A nova placa da NVIDIA novamente fica na frente da GTX 470, situação que deve acontecer em todos os demais testes. Na comparação com a GTX 460, a 560 Ti tem ganho médio de 22 a 23%, o que é muito bom para uma placa de nova geração quando comparada à geração passada de mesmo segmento.

{benchmark::1388}

{benchmark::1389}

{benchmark::1390}

{break::Crysis Warhead}O FPS futurístico da Crytek fez muito barulho por trazer uma qualidade grÁfica bem superior aos concorrentes e por ser considerado por muito tempo como um dos games que mais exigia recursos do computador, principalmente das placas 3D. Assim, nada melhor do que submeter as VGAs da review pelo crivo de "Crysis Warhead".

Se no Aliens vs Predator a 6950 conseguiu se distanciar um pouco, no Crysis Warhead a história é diferente: 6950, 5870 e GTX 560 Ti ficam empatadas tecnicamente, com um comportamento muito bom da placa da NVIDIA frente a esses modelos da AMD, principalmente pelas placas da AMD estarem em um segmento de mercado um pouco mais caro.

Na comparação com a GTX 470, a 560 Ti fica, em média, 10% na frente. JÁ em relação à 460, a porcentagem sobe para cerca de 24%.

{benchmark::1391}

{benchmark::1392}

{benchmark::1393}

{break::DiRT 2}"Colin McRae: Dirt 2", mais conhecido simplesmente como DiRT 2, é uma das séries de corrida off-road de maior sucesso da história da indústria dos jogos eletrônicos. Lançado em setembro de 2009, o game foi um dos primeiros a ser desenvolvido com o DirectX 11.

Como podemos ver, as placas da NVIDIA se comportam melhor em cima do game, conseguindo resultados bem mais altos. Em todas as resoluções a GTX 560 Ti foi superior às placas da AMD, inclusive a 6950.

JÁ na comparação com a GTX 470, a nova placa tem performance superior em cerca de 9%, parecida com o que vimos nos testes anteriores.Comparando a placa com a GTX 460, temos uma média de 20% a mais para a GTX 560 Ti.

{benchmark::1394}

{benchmark::1395}

{benchmark::1396}

{break::F1 2010}As Radeons se deram muito bem em F1 2010, game baseado na engine EGO 1.5 da Codemasters.

Neste caso, as placas da AMD dominam e, diferente dos demais testes, a GTX 560 Ti fica com resultados idênticos aos da GTX 470 em todas as resoluções, sendo a Radeon HD 5850 a placa da AMD mais próxima na tabela.

Na comparação com a GTX 460, o ganho médio da GTX 560 Ti é superior a 20%.

{benchmark::1397}

{benchmark::1398}

{benchmark::1399}

{break::Tom Clancy´s HAWX 2}HAWX 2 foi um dos primeiros games a fazer uso da tecnologia tessellation do DirectX 11. Agora, se existe um game no qual as placas da AMD não têm chance contra as da NVIDIA, é o HAWX 2 rodando com a tecnologia tessellation ativada.

Como podemos ver abaixo, até a GTX 460 consegue resultados competitivos, mesmo sobre modelos de segmento TOP da AMD.

A GTX 560 Ti também mostra a que veio. Assim como na maioria dos testes, supera a GTX 470, mas agora com uma média inferior a 5%.

Quando comparamos GTX 460 e GTX 560 Ti, a nova placa leva vantagem média superior a 24%.

{benchmark::1412}

{benchmark::1413}

{benchmark::1414}

{break::Just Cause 2}Se tem um game no qual as placas da série Radeon dominam em todos os segmentos é o Just Cause 2, curiosamente apoiado pela NVIDIA.

E se no HAWX 2 a Nvidia domina, a AMD faz a mesma coisa com o Just Cause 2, sendo que, apenas na resolução mais alta, a GTX 570 conseguiu superar a 5850. De resto, só deu Radeon.

Falando especificamente da GTX 560 Ti, a GPU fica, em média, pouco mais de 5% à frente da GTX 470. JÁ na comparação com a GTX 460, a nova placa da NVIDIA supera em 25%. Novamente, um excelente resultado.

{benchmark::1400}

{benchmark::1401}

{benchmark::1402}

{break::Mafia II}Mafia II trouxe a continuação do aclamado game de ação em terceira pessoa ambientado no obscuro mundo da mÁfia italiana dos anos 40 e 50 nos EUA.

Possivelmente, é o game com as melhores disputas, jÁ que não temos uma marca que se destaque com todas as suas placas.

Vemos a 560 Ti se comportar muito bem, ficando pouco à frente da GTX 470 e querendo encostar na 5850 e 6950, mas ainda assim seguida de perto pela 6870.

Novamente, a média de ganho da GTX 560 Ti sobre a 460 é superior a 25%, situação que vem se repetindo, o que mostra o bom ganho dessa nova geração.

{benchmark::1403}

{benchmark::1404}

{benchmark::1405}

{break::Metro 2033}Trata-se de um FPS da 4A Games baseado em um romance homônimo russo, que conta a saga dos sobreviventes de uma guerra nuclear ocorrida em 2013 que se refugiam nas estações de metrô. O game, que faz uso intensivo da técnica de Tessellation e demais recursos do DirectX 11, desbancou de Crysis o título de jogo mais pesado. Sendo assim, nada melhor do que observar como se comportam as VGAs sob este intenso teste.

Diferente da geração passada, a série Radeon 6000 melhorou bastante em cima do game Metro 2033. Ainda não consegue bater a NVIDIA na competição direta, mas não deixa a empresa americana se distanciar demais. Como vemos, apesar do bom resultado da GTX 560 Ti, ela não conseguiu superar a 6950.

Por outro lado, além de novamente ficar à frente da GTX 470, também coloca uma diferença superior a 20% sobre a GTX 460, em todas as resoluções.

{benchmark::1406}

{benchmark::1407}

{benchmark::1408}

{break::Overclock: Temperatura, Vantage}Assim como as duas outras placas da geração 500, a GTX 560 Ti também tem excelente potencial para overclock.

Utilizamos a versão 2.1.0 Beta 6 do Afterburner para o overclock. Apesar de ter sido lançado antes da placa, jÁ possibilita alterar a voltagem, a fim de subir um pouco mais os clocks.

Abaixo, na tela principal do GPU-Z, podemos ver que colocamos a placa com core trabalhando a 950MHz totalmente estÁvel sem nenhum problema. É um aumento de 127MHz, o que que representa um overclock pouco superior a 13% no que diz respeito a clocks. JÁ as memórias subiram de 4GHz para 4.3GHz, vantagem bastante considerÁvel também.

Vale destacar que, assim como as GTX 570 e 580, chegamos a colocar a 560 Ti trabalhando com core a 975MHz e memórias a 4.4GHz, mas o teste do 3DMark Vantage não era finalizado. Assim, fomos obrigados a diminuir um pouco o over. Outro ponto importante é que modelos diferenciados de algumas marcas podem aguentar overclocks mais altos do que esse modelo referência.


Temperatura
Como vemos, a temperatura da placa quando overclockada sobe muito pouco, apenas 2ºC quando em modo ocioso.

{benchmark::1415}

JÁ em uso, a temperatura sobre apenas 4ºC. Nada fora do normal, ainda mais se compararmos com a temperatura da 470 que, mesmo com clocks padrões, ficou 9ºC acima.

{benchmark::1416}

3DMark Vantage
Começamos os testes com o 3DMark Vantage, no qual a placa, quando overclockada, alcança 24.923 pontos. Esse resultado representa um ganho de 11%, bem próximo da porcentagem de ganho em cima dos clocks (13%), mas ainda assim longe da GTX 570.

{benchmark::1417}

{break::Overclock: AvsP, Mafia II e Metro 2033}Além do 3DMark Vantage, fizemos testes com a placa overclockada na resolução de 1920x1080 em alguns games. Vamos acompanhar abaixo como a placa se comportou.

Aliens vs Predator
Em cima do AvsP, o ganho foi de 11%. Assim como no Vantage, bastante próximo do que se espera pelo overclock feito.

{benchmark::1418}

Mafia II
Com o game Mafia II, o resultado é ainda melhor. Temos ganho de pouco mais de 13% com a placa overclockada, mesma porcentagem de overclock dos clocks, mostrando que, em alguns casos, o ganho é justamente o que se consegue tecnicamente.

{benchmark::1419}

Metro 2033
JÁ com o Metro 2033, o ganho foi de pouco menos de 10%, ainda bastante bom pelo overclock feito.

{benchmark::1420}

{break::PhysX}Como estamos analisando uma placa de vídeo da NVIDIA, não tínhamos como não fazer testes de performance com PhysX. Para isso, utilizamos o Mafia II, um dos games mais recentes a utilizar bastante essa tecnologia.

Como vemos nos grÁficos abaixo, não existe uma diferença muito grande entre modelos de segmentos de mercado diferente, um exemplo é que a 560 Ti ficou a apenas 8 FPS da GTX 580 na resolução mais alta, mesmo a placa TOP da NVIDIA custando bem mais.

JÁ na comparação entre GTX 560 Ti e GTX 460, temos ganho médio de 12% a favor da nova placa, dentro do esperado para essa tecnologia.

{benchmark::1421}

{benchmark::1422}

{benchmark::1423}

{break::Conclusão}A GeForce GTX 560 Ti chega em um momento crucial para as pretensões da NVIDIA em disseminar suas novas placas 3D entre os consumidores. De acordo com a empresa, 2011 serÁ o ano do DirectX 11, uma vez que apenas 16% do mercado possui VGAs compatíveis com a nova API grÁfica da Microsoft.

Nesse sentido, a GF114 deve seduzir os gamemaníacos ao oferecer uma excepcional relação de custo-benefício, principalmente na comparação com a GTX 470. Apesar do ótimo desempenho, o consumo de energia da GTX 560 Ti manteve-se praticamente inalterado em relação à sua "irmã mais velha", graças à reengenharia na arquitetura.

Além do alto desempenho, a GeForce GTX 560 Ti mantém todos os destaques da geração Fermi, como o filtro de anti-aliasing 32xCSAA, 3D VISION SURROUND, CUDA e PhysX, só para citar alguns.

Assim como as GTX 580/570, a GTX 560 Ti trouxe um recurso extra de proteção, que é o monitoramento da quantidade de corrente elétrica/voltagem, evitando assim uma sobrecarga no sistema e protegendo a placa de eventuais danos.

Apesar de não contar com o mesmo sistema de refrigeração especial com tecnologia VCT (Câmara de Vapor), a NVIDIA reforçou o cooler da placa, ao acrescentar um heatpipe extra, bem como um dissipador de calor mais robusto, cobrindo inclusive os circuitos de força da GPU e memória. Somando-se isso à utilização de uma ventoinha maior e a utilização de um circuito de energia reforçado de 4 fases, a GeForce GTX 560 Ti tem os requisitos para se atingir altos patamares de overclock.

Diante de tudo o que foi abordado nesta review, podemos concluir que a GeForce GTX 560 Ti tem todos os ingredientes para repetir o sucesso alcançado pela GTX 460, apesar de a AMD ter algumas "armas" que prometem esquentar a briga, como é o caso da Radeon 6950 de 1GB e as versões turbinadas da 6870, sem contar com a queda de preço anunciada hoje.


PRÓS
Excelente custo / benefício
MID com desempenho de TOP
Sistema de cooler excelente com baixo ruído
Supera a GTX 470 na maioria dos testes
Alto potencial para overclock
CONTRA
N/A
Assuntos
Tags
  • Redator: Fabio Feyh

    Fabio Feyh

    Fábio Feyh é sócio-fundador do Adrenaline e Mundo Conectado, e entre outras atribuições, analisa e escreve sobre hardwares e gadgets. No Mundo Conectado é responsável pelas análise de drones e alguns gadgets relacionados a fotos e vídeo, como Action Cams.