A terceira edição do VGA Chart da Adrenaline foi feita novamente por Fábio e Filipe, encarregados pelas reviews de placas de vídeo do portal. Abaixo, breve descritivo de ambos.

Fábio Feyh é sócio-fundador da Adrenaline, e entre outras atribuições, analisa e escreve com muita propriedade sobre hardwares e games. Com profundo conhecimento em hardwares de alto desempenho, é responsável pela maioria das reviews publicadas na Adrenaline relacionadas a placas de vídeo, memórias, processadores, placas mãe e demais hardwares que por ventura existam dentro de um PC.

Filipe Braga destaca-se pela quantidade de notícias postadas diariamente e pela relevância das mesmas. Um cearense extremamente simpático formado em Ciências da Computação e apaixonado por computadores e tecnologia em geral. Também participa de grande parte de reviews de hardware, especialmente placas de vídeo, processadores e placas mãe.

Placa de vídeo
Antes de começarmos o VGA Chart com as informações das empresas e das placas, além dos dados técnicos pertinentes ao artigo, vamos a uma breve introdução sobre “placas de vídeo”, a fim de esclarecer para os mais leigos no assunto a sua função.

Como o processador, a placa de vídeo vem se tornando um dos principais componentes de um computador, o que afeta diretamente o preço final, desempenho da máquina e funcionalidades que ela terá.

A placa de vídeo tem como principal função gerenciar o que será, e como será, apresentado na tela do computador, relacionado à parte gráfica mais especificamente. Isso quer dizer que uma placa de vídeo é a principal responsável pela qualidade da imagem e pelo bom desempenho do que for mostrado aos olhos do usuário.

Não são todas as aplicações que necessitam uma placa de vídeo potente, na verdade a maior parte delas não exige uma placa diferenciada. Inclusive, a grande maioria dos computadores vendidos hoje em dia possui chip gráfico integrado à placa-mãe, que é capaz de executar as principais funções relacionadas a vídeo, como visualização de filmes, rodar alguns jogos mais simples etc.

Já uma placa de vídeo off-board ou add-on (termos utilizados para uma placa de vídeo que se conecta sobre a placa mãe através dos slots PCI-Express ou AGP), possui mais capacidade do que uma integrada à placa mãe. Isso quer dizer que ela conseguirá rodar jogos com qualidade muito superior aos modelos integrados, sendo esse seu principal atrativo. Além disso, atualmente, esse componente vem avançando e assumindo outras funções, como controle de física, gerenciamento de renderizações até então feitas pelo processador, e por aí vai. Com isso, a placa de vídeo se torna tão importante quanto o processador em muitas aplicações, e não mais apenas em jogos como acontecia há pouco tempo atrás.


O mercado de placas de vídeo é dominado por duas empresas, NVIDIA e ATI, essa última, uma divisão da AMD. A seguir, iremos falar um pouco de cada uma dessas empresas.

 

NVIDIA

Fundada em 1993 por Jen-Hsun Huang e Chris Malachowsky, a NVIDIA, sediada em Santa Clara, Califórnia - EUA, é uma das empresas mais respeitadas do ramo de informática, especialmente no ramo que envolve produtos gráficos.

O foco inicial da NVIDIA, que fez todo seu nome e ajudou a erguer seu império, são seus chips gráficos para placas de vídeo. Nos últimos anos, a empresa tem diversificado bastante, principalmente em produtos integradores, como chipsets, e ultimamente, vem mostrando que vai apostar alto em produtos para a telefonia móvel (se é que podemos chamar esse ramo de telefonia, afinal ele vai muito além disso). Também tem mostrado produtos mais compactos que envolvem multimídia, além de chipsets para placas-mãe, mercado que ela tem uma boa experiência e ótima aceitação.

Em 2000, quando comprou a 3DFx, sua principal concorrente na época, e que poucos anos antes era tida como a grande empresa do ramo de placas de vídeo, ninguém imaginava que a NVIDIA viria a se tornar uma das maiores empresas do mundo e que ditaria muitas das "regras" desse mercado. Entre suas outras grandes aquisições estão a ULI Electronics em 2005, empresa especializada no desenvolvimento de chipsets para mainboards, e mais recentemente, em fevereiro de 2008, a AGEIA Technologies, pioneira no desenvolvimento de hardware para controle físico, que hoje está integrado às placas da linha GeForce.

Quando a AMD comprou a ATI em dezembro de 2006, muito foi questionado do poder de fogo da NVIDIA para brigar de igual para igual com essa gigante que agora detinha alguns dos principais produtos do ramo da informática. Porém, a nomeação de Jen-Hsun Huang como "homem do ano de 2007" pela revista Forbes, possivelmente a publicação mais respeitada do gênero, mostrou que a NVIDIA não é uma empresa qualquer, mas administrada por gente do mais alto gabarito, que dá a ela uma expectativa de vida longa, não apenas fazendo número no mercado, mas o conquistando e ajudando a evoluir como um todo.

Seu primeiro chip gráfico, o NV1, lançado em 1995, ajudou muito no avanço da empresa, que, dois anos depois, trouxe o RIVA 128 e, em seguida, o RIVA TNT. Isso colocou a empresa em pé de igualdade com a 3DFx, que, na época, se destacava com a série Voodoo. O grande trunfo da NVIDIA e que vem se destacando até hoje como líder em vendas é a série GeForce, lançada em 1999 através do modelo GeForce 256 (NV10). Atualmente, a série GeForce está em sua décima segunda geração, com o advento da recém lançada série 500 (GTX 580/570), baseada na arquitetura Fermi.

 

Tecnologias por trás das GeForces

CUDA

Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units).

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip gráfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estágios programáveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não gráficos.

Apresentada inicialmente em 2007, a tecnologia CUDA está presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x.

De acordo com vários experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano está na arquitetura por trás do chip gráfico, massivamente focado na computação paralela, graças à imensa quantidade de cores/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Dessa forma, aplicações voltadas para a biologia, física, simulações, criptografia, entre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA.

No campo dos games, a renderização dos gráficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como é o caso, por exemplo, dos cálculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...)

Atualmente, é o processo de GPGPU mais difundido no mercado, contando com mais de 100 milhões de placas compatíveis.

PhysX

Embora seja uma das grandes “vedetes” dos games modernos, a tecnologia de processamento da física já vem de alguns anos.

Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trás da tecnologia.

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Assim, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs.

Muito bem, mas o que vem a ser exatamente o tal cálculo da física presente no PhysX? Trata-se da técnica na qual o chip gráfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador, ao adicionar ambientes físicos vibrantes, de imersão total.

A física é o próximo passo na evolução dos jogos. Trata-se da forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma já programada. Para os praticantes, os jogos são bons, mas falta o realismo necessário para produzir a verdadeira sensação de imersão.

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessária para produzir a física avançada e realista nos jogos de próxima geração, deixando para trás os efeitos de animação pré-fabricados.

É através do cálculo da física que, por exemplo, uma explosão parece mais real para o usuário, uma vez que se pode gerar um verdadeiro “efeito dominó” por trás deste evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo em si e a fumaça.

O PhysX é responsável, dentre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços;
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas;
• Novos e incríveis efeitos nos disparos de armas;
• Tecidos que se enrugam e rasgam naturalmente;
• Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)

Ironias à parte, atualmente é possível utilizar, por exemplo, uma GeForce mais simples como uma PPU (exclusivo para o processamento da física), deixando uma segunda placa da NVIDIA de classe superior responsável para o processamento principal. Infelizmente, a companhia bloqueou em seus drivers a utilização de uma GeForce em conjunto com uma Radeon.

Na teoria, uma placa da ATI até pode realizar os cálculos da parte física sem possuir o PhysX, mas, na prática, o resultado é desastroso, derrubando os FPS para níveis que podem, em certos casos, inviabilizar a prática do jogo.

3D Vision (óculos 3D)

Lançado no início de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, nos Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado.

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho humano).

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação sequencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.

Trata-se, na verdade, de uma ação extremamente ambiciosa e ousada da NVIDIA, uma vez que tem que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa “The Way It's Meant To Be Played”, em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.

Vale ressaltar que a tecnologia não está limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:

• Óculos Sem Fio 3D Estereoscópico Ativo
Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plástico.

• Emissor Infravermelho de alta potência (porta USB)
Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real.

• Monitores Ultra-Flexíveis
Projetado para os monitores LCD de 120Hz ViewSonic e Samsung, HDTVs Mitsubishi DLP 1080p, e projetores DepthQ HD 3D, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos. 

• Softwares de Compatibilidade
Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI, PhysX, e o Microsoft DirectX 10.

• Visualizador 3D
Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


Não bastasse tudo isso, recentemente a NVIDIA ampliou a tecnologia, com o lançamento do 3D VISION SURROUND (imagem acima), que nada mais é do que ampliar a capacidade para até três monitores simultamente, formando assim uma ampla área de visualização em três dimensões.

Para saber mais detalhes sobre a tecnologia, leia nossa review completa do 3D Vision aqui.


SLI

Antes de começarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os gráficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.

Sendo assim, o objetivo da tecbnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é o mesmo: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação gráfica, destinada a aumentar o poder de processamento disponível nas placas 3D.

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a “engavetada” até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trás do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)
Trata-se do método em que se analisa a imagem processada a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em várias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Esse é o modo padrão usado pela configuração SLI usando duas placas de vídeo.

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)
Aqui, cada GPU renderiza frames/quadros inteiros em sequência - uma trabalhando com os frames ímpares e outra ficando responsável pelos pares, um após o outro. Quando a placa escrava/secundária finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.

• AFR de SFR
Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Desta forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessário, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.

• SLI Antialiasing
Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado, pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não há grandes problemas em utilizar o PCI Express na configuração x8.

Atualmente, não há restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que as mesmas possuam o mesmo chip gráfico. No início, a tecnologia restringia o uso a VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado.

PureVideo

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuário poderá ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web.

O PureVideo possui os seguintes recursos:

• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU;

• Aceleração WMV de Alta Definição por hardware: Suporte programável ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD;

• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;

• Desentrelaçamento temporal/espacial adaptável: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos;

• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução;

• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a área da tela de reprodução;

• Display Gamma Correction: Detecção automática de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela;

Badaboom

Trata-se da tecnologia utilizada para a conversão de diferentes formatos de streaming multimídia para utilização em outros meios. A grande diferença do Badaboom para a grande maioria dos outros programas existentes no mercado é que, enquanto seus concorrentes utilizam o processador para executar a tarefa, a solução da NVIDIA faz uso de outra tecnologia, a CUDA, ou seja, da GPU. Desta forma, o processo é realizado de forma muito mais rápida e eficiente.

Outro benefício é que ao deixar a CPU livre, o usuário poderá realizar outras atividades, como por exemplo, navegar pela a web. Na conversão tradicional via processador, a máquina fica praticamente inoperante para outras tarefas.

Na versão 1.2.1, o Badaboom Media Converter é vendido por US$30 e possui como um dos grandes destaques a facilidade na interface. O usuário necessitará apenas escolher a origem, ajustar as configurações e definir o destino.

Embora seja focado para os produtos da Apple, como iPhone, iPod e Apple TV, o usuário poderá definir ainda uma série de opções de saída, como Xbox 360, PS3, PSP e HTPCs.

 

AMD

A ATI Technologies, fundada em 1985 por Lee Ka Lau, Benny Lau e Kwok Yuen Ho, tem sua sede em Markham, Ontário – Canadá. Está entre as pioneiras quando o assunto é hardware gráfico para computadores, sendo que, inicialmente, começou a comercializar seus produtos de forma OEM, especialmente para IBM e Commodore. Em 1987, a empresa lançou sua primeira linha independente, precisamente os modelos EGA Wonder e VGA Wonder.

Por ser mais “velha” que sua principal concorrente, o número de produtos pouco conhecidos pela maioria dos atuais consumidores é grande, dentre eles o chip March8, lançado em 1991 - primeiro da empresa capaz de processar gráficos sem a ajuda do CPU. Em 1992, lançou o March32, com maior banda de memória e aceleração gráfica. Em 1994, ainda colocou no mercado o March64, chip que seria utilizado no Rage3D, um dos grandes sucessos da empresa.

Em 1996, aconteceu um dos lançamentos que marcaram a ATI: a série All-in-Wonder, primeiro produto do mercado a combinar um chip de aceleração gráfica e um sintonizador de TV. Ele possibilitava ver TV na tela do computador, recurso hoje bem mais simples, mas não comum em um mesmo produto.

No ano 2000, empresa lançou um dos seus principais produtos, que tem sua continuidade até os dias de hoje. Estamos falando da linha RADEON, uma das maiores marcas do mundo no meio do mercado de informática, atualmente em sua décima geração com a recém lançada Radeon série 6000.

Em 2006 a história da ATi sofreu uma verdadeira reviravolta, com a compra da companhia pela AMD em dezembro daquele ano por US$ 5,4 bilhões. O negócio foi bastante frutífero para ambas as empresas, uma vez que estas tiveram seus portfólios fortalecidos e passaram a desenvolver estratégias comuns. Um dos grandes “frutos” dessa união será lançado no início de 2011, e atenderá pelo nome de Fusion. Trata-se de um chip que integra no mesmo die um processador e uma GPU. Além disso, o negócio possibilitou a criação da única companhia a desenvolver procesador e chips gráficos de alto desempenho para computador.

Contudo, após 4 anos juntas, somente no final de agosto de 2010 que de fato houve uma união completa, com o fim da logo e da marca ATi. Na ocasião, a companhia alegou razões mercadológicas, como a facilidade na identificação dos novos produtos, como é o caso do já citado Fusion. A partir de então saiu de cena a expressão "ATi Radeon..." para então iniciar a nova era "AMD Radeon..."

 

Tecnologias por trás das Radeons

HD3D

Trata-se de uma das novidades mais quentes advindas da nova geração Northern Islands (Radeon 6000). A tecnologia estereoscópica 3D é uma das tecnologias mais badaladas dos últimos tempos na indústria do entretenimento, tanto em cinemas/TVs, quanto no mundo dos games.

Apesar de ter ficado inerte por algum tempo, a AMD entra agora no jogo com força total com o HD3D, prometendo assim bater de frente com o 3D VISION da NVIDIA, que até então reinava absoluto no segmento.

Enquanto a NVIDIA utiliza um padrão proprietário e bem definido, a AMD, por outro lado, utilizou uma abordagem totalmente diferente: um padrão aberto, em que definiu algumas normas, deixando a cargo de empresas terceiras a criação de outras, como é o caso dos monitores/TVs e óculos 3D.

Dessa forma, como meio de construir uma estrutura padrão mínima em que os jogos 3D estéreos possam ser desenvolvidos e os filmes em 3D assistidos nas Radeons, a AMD recrutou uma série de empresas.

Sendo os óculos 3D estereoscópicos um dos principais recursos de sucesso da tecnologia HD3D, a AMD aliou-se aos principais nomes do mercado, como é o caso da XpanD e da Bit Cauldron.

Na verdade, o HD3D é compatível com a tecnologia HeartBeat da Bit Cauldron, que promete virtualmente eliminar o incômodo problema de sincronismo que algumas vezes ocorrem com os óculos ativos.

Uma vez que não há drivers nativos da AMD para o 3D estéreo, os parceiros da AMD irão disponibilizar drivers terceiros que disponibilizem suporte através de programas que “peguem carona” no Catalyst. Atualmente, a DDD e a iZ3D já contam com interfaces compatíveis que, juntas, suportam cerca de 400 games. Ambas permitem o uso do 3D estéreo em jogos e filmes que não são nativamente suportados pela percepção de profundidade.

Se, por um lado, uma tecnologia aberta favorece a ampla adesão por parte dos consumidores, por outro, cria-se um certo risco em termos de qualidade, uma vez que AMD detém um controle muito pequeno sobre como as empresas implementam suas soluções. Ao menos por enquanto, os drivers de terceiros contam com baixo índice de adesão à certificação WHQL, podendo eventualmente causar algum problema de conflito com o Windows.

Pode ser que a AMD mude de planos, mas até o momento a companhia não mostrou interesse em disponibilizar seus próprios drivers com suporte ao 3D estéreo.

EyeSpeed
Na verdade, o EyeSpeed não é uma tecnologia, mas sim um “selo” que abrange todos os recursos que melhoram a experiência multimídia, como é o caso do pré/pós-processamento, transcodificação e reprodução de vídeos em alta definição, tudo em um ambiente unificado.

O EyeSpeed é dividido em duas principais esferas de influência: a alavancagem no processamento paralelo para a melhoria no desempenho global do PC e a decodificação de vídeo através da tecnologia UVD3.

UVD3
Para quem ainda não sabe, a tecnologia Decodificação de Vídeo Universal (UVD) da AMD já está no mercado há bastante tempo, sendo considerada uma das plataformas mais eficientes no processamento de vídeos, e que de tempos em tempos recebe melhorias por parte da companhia.

Com a chegada da geração Northern Islands, a AMD disponibiliza uma série de novidades à tecnologia, expandindo inclusive a lista de codes que passam a ser suportados.

Um dos recursos chaves do UVD3 é a habilidade de decodificar vídeos usando a codificação MVC. Fazendo parte do codec H264 / MPEG-4 AVC, o MVC é responsável pela criação do fluxo de bits de vídeo duplo que são essenciais para saída do 3D estereoscópico. Com isso, as novas Radeons são capazes de processar filmes em Blu-Ray 3D através de um conector HDMI 1.4a.

Embora não tenha havido nenhuma menção ao codec Nero Digital, as Radeons 6000 contam agora com aceleração via hardware do MPEG-4 Part 2.

Áudio Bitstreaming
Atrelado à engine UVD3 está o áudio. Graças ao uso da conexão HDMI, as Radeons das séries 3000 em diante podem transmitir som sem perda de qualidade. Contudo, com as Radeons 6000, é possível agora distribuir o som no sistema de 7.1 canais, sem perdas, a 192kHz / 24-bits.

Isso só foi possível graças ao uso da versão 1.4a do HDMI, que suporta ainda as tecnologias Dolby True HD e DTS-HD. As demais tecnologias, tais como PCM, AC-3 e DTS se mantêm compatíveis com o novo padrão. Finalmente, o HDMI 1.4a permite transferência de bits a taxa de até 65Mbps, além do suporte a TV3D nos formatos (Side-by-Side Horizontal & Top-and-Bottom).

AMD APP Technology

Conhecida até então por ATI Stream – tecnologia para designar a arquitetura de computação paralela (general-purpose computing on graphics processing units ou simplesmente GPGPU) – passa a se chamar AMD Accelerated Parallel Processing (APP) Technology.

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip gráfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estágios programáveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não gráficos.

A AMD APP Technology pode ser considerada como um canal de ligação entre o ambiente OpenCL e softwares, permitindo que os desenvolvedores criem programas para “conversar” com a GPU, utilizando-a para executar determinadas tarefas até então exclusivas aos processadores.

Trata-se de um recurso cada vez mais utilizado em nosso dia a dia, ainda que muitas vezes passe despercebido pelos usuários. Seguem alguns programas que se beneficiam da GPU para o processamento de algumas tarefas: Cyberlink MediaShow e Power Director, ArcSoft MediaConverter 4, SimHD, Total Media Theatre, Roxio Creator 2010, Adobe Photoshop CS4, entre outros.

Uma outra aplicação bastante difundida que se beneficia do GPGPU das placas 3D é o Folding@home. Trata-se de uma bela iniciativa que utiliza os recursos inativos (ou subutilizados) das GPUs e CPUs para ajudar cientistas e demais pesquisadores e solucionar algumas questões globais, como é o caso da cura de algumas doenças.

Eyefinity
Embora a tecnologia de uso simultâneo de múltiplos monitores seja algo para poucos, é inegável que o Eyefinity trouxe uma verdadeira revolução para o mercado ao permitir o uso de até seis telas por VGA, formando um gigantesco painel com resolução teórica máxima de 8192x8192. 

Conforme pode ser visto abaixo, as possibilidades para a tecnologia são inúmeras, permitindo o uso de imagens independentes, simultâneas ou um misto das duas. É possível, por exemplo, o uso de três monitores para formar uma única imagem panorâmica, com o quarto independente, quatro telas simultâneas formando um grande painel e mais duas independes da primeira e entre si. E por aí vai.

As novas Radeons facilitaram ainda mais o uso de múltiplos monitores, graças à presença de uma vasta quantidade de conexões, incluindo a nova versão do Displayport. Os modelos de referência contam com dois conectores mini Displayport (v1.2), um HDMI 1.4a e dois conectores DVI, sendo um do tipo link simples, e outra do tipo link duplo.

A revisão v1.2 dobrou a largura de banda dos atuais 10.8Gbps (8.64Gbps para vídeo) para 21.6Gbps (17.28Gbps para vídeo), possibilitando a conexão de até três monitores por saída mini Displayport, permitindo assim um total de seis LCDs com o uso da segunda conexão. Contudo, a utilização de seis monitores irá necessitar um equipamento extra, chamado pela AMD de MST HUB (Multi Stream Transport).

Para quem não se convenceu do poder do Eyefinity, a ATi demonstrou, durante o lançamento da tecnologia, uma configuração composta por quatro placas Radeons de nova geração, em que estavam conectados 24 monitores de LCD!

Os benefícios da tecnologia não serão apenas no campo dos jogos. Profissionais de artes gráficas, designers, arquitetos, analistas financeiros, dentre uma imensa gama de áreas poderão tirar proveito do Eyefinity como forma de aumentar a sua produtividade no trabalho.

Crossfire 

O CrossFire (também chamado de CrossFireX) está para a ATI assim como o SLI está para NVIDIA, ou seja, trata-se da tecnologia que permite um maior poder de processamento computacional (seja ele gráfico ou não), através do uso simultâneo de mais de uma VGA.

Se a NVIDIA foi buscar “inspiração” no passado para desenvolver o atual Scalable Link Interface, com a ATI não foi diferente. A companhia fez seu primeiro ensaio do uso compartilhado de GPUs em 1999, quando apresentou ao mundo a Rage Fury MAXX, VGA que possuía dois chips Rage 128 no mesmo PCB. Nascia ali o “pai” das atuais Radeons X2. Na época, a placa utilizou a técnica AFR (já descrita no tópico do SLI) para equilibrar a carga do sistema. Apesar do feito, a Rage Fury MAXX não foi capaz de superar a GeForce 256.

A placa dual GPU da ATI não durou muito tempo no mercado. Parte do fracasso deu-se pela ausência de bons drivers para a época (que ficaram restritos apenas ao Windows 98), bem como pela limitação da interface AGP, que limitava o “poder de fogo” da placa.

O CrossFire utiliza algumas técnicas para a renderização das imagens, como pode ser visto abaixo:

• Scissor: Similar ao modo SFR (Split Frame Rendering) presente no SLI, com o diferencial de possuir um modo de balanceamento de carga dinâmica de renderização. Isso é importante principalmente para o uso de placas com diferentes tipos de chips, pois impede que a placa mais rápida fique esperando pela finalização do processamento da GPU mais lenta, livrando-a do gargalo. Dessa forma, a VGA mais poderosa ficará com uma carga de trabalho maior do que a placa com menor “poder de fogo”.

• SuperTile: Neste método, a tela é dividida em vários quadrados pequenos, cada um medindo 32x32 pixels, e as VGAs ficam responsáveis pela renderização de parte dos quadrados disponíveis. O balanceamento de carga dinâmica está também disponível, novamente para eliminar eventuais gargalos. Assim,  a GPU mais poderosa receberá uma maior quantidade dos “quadrados” em relação à mais fraca. 

• AFR: Este modo é idêntico ao utilizado no SLI, ou seja, enquanto uma VGA está renderizando o frame atual, outra está processando o frame seguinte.

• Super AA: Assim como ocorre com as GeForces, nas Radeons o modo Super AA serve para aumentar a qualidade das imagens, reduzindo o chamado efeito serrilhado. Isso é possível graças à utilização de um maior patamar do filtro antialiasing.

Atualmente, a tecnologia encontra-se na sua terceira geração. A primeira, chamada apenas de CrossFire, tinha uma séria limitação que impediu a sua massificação: a necessidade de se adquirir uma placa especial, chamada CrossFire Edition. Esta funcionava como placa “mestre”, normalmente mais cara que o modelo convencional, principalmente por apresentar um chip extra (compositing engine), que servia para unir as imagens renderizadas pela placa “escrava” com as imagens processadas pela “mestre”, jogando o resultado para a tela.

Com a chegada da segunda geração, a CrossFire Native, a figura da placa “pai” deixou de existir, uma vez que toda Radeon vinha de fábrica equipada com o tal chip compositing engine embutido no die da GPU. Outra novidade presente na nova geração foi a troca do uso dos cabos especiais de ligação entre as duas VGA pelas pontes de comunicação aos moldes do SLI.

Por fim, a terceira e atual geração. Chamada CrossFireX, a tecnologia basicamente é a mesma da passada, com a possibilidade de se conectar mais de duas VGAs (na verdade até quatro) e uma pequena alteração no modo como as pontes de comunicação são conectadas.

Assim como ocorre com o SLI, é necessário o uso de uma placa-mãe especialmente desenhada para o CrossFireX com pelo menos dois conectores PCI Express X16.

 

Tecnologias padrões do mercado

DirectX 10/10.1
Apesar de a grande vedete do mercado ser o DirectX 11, a grande maioria das placas modernas (e jogos) atuais estão limitadas ao DirectX 10 e sua atualização 10.1, como é o caso, respectivamente, das GeForces série 200, 9000 e 8000 e das Radeons da série 4000.

Como o futuro (ou se preferirem, já o presente) pertence ao DirectX 11, não iremos abordar aqui com tanta ênfase e detalhes sobre esta geração da API gráfica da Microsoft.

Mas afinal, o que é o famoso DirectX ?! Trata-se de uma API multimídia (Application Programming Interface ou Interface de Programação de Aplicativos - conjunto de rotinas e padrões estabelecidos por um software para a utilização das suas funcionalidades) que oferece uma interface padrão para interagir com elementos gráficos, placas de som e dispositivos de entrada, entre outros. Sem esse conjunto padrão de APIs, o programador precisaria escrever um código diferente para cada combinação de elementos gráficos e placas de som, e para cada tipo de teclado, mouse e joystick. A primeira versão do DirectX, chamado na época de GameSDK, foi lançada pela Microsoft em 1995.

O DirectX 10.1 manteve, de forma geral, a mesma estrutura base e o modo de programação da versão 10, muito embora tenha introduzido várias melhorias. É o caso das instruções dos shaders para vértices, geometria e pixels (vertex, geometry e pixel shaders), graças à atualização para o Shader Model 4.1, bem como o uso de operações com pontos flutuantes de 32 bits (ao invés de 16 bits) e a obrigatoriedade ao filtro de antialiasing FSAA em 4x.

De um modo geral, as novidades do  DirectX 10.1 podem ser divididas em quatro categorias:
• novas capacidades para sombreamento e texturização dos gráficos;
• aprimoramento do filtro anti-aliasing;
• acesso aos dados de forma mais flexível;
• rigor no cumprimento das especificações para uma melhor compatibilidade nas aplicações.

Esses quatro pontos possibilitaram a criação de novas técnicas para o aprimoramento da qualidade das imagens, como a Iluminação Global em Tempo Real (real-time global illumination), por exemplo, que definiu a direção futura da interatividade dos gráficos 3D.

De forma simples, a Iluminação Global é a técnica de renderização que combina os benefícios do mapeamento de luz / sombra com iluminação indireta, com suporte praticamente a ilimitadas fontes de luzes dinâmicas, reflexões realistas e sombras suaves. Com o DirectX 10.1, os desenvolvedores podem usar matrizes de mapas de cubos indexados e shaders de geometria para aplicar a iluminação global eficientemente em tempo real, mesmo com milhares de objetos fisicamente modelados em um cenário complexo e interativo.

Confiram, abaixo, as diferenças das imagens com e sem a técnica:

Renderização sem Iluminação Global

As áreas que estão fora da área da lâmpada do teto sofrem de falta direta de luz, havendo uma “penumbra” uniforme, mesmo em objetos semi-transparentes.

Renderização com Iluminação Global

A luz é refletida pelas superfícies, onde as luzes coloridas são transferidas de uma superfície para outra. Observe como a cor da parede vermelha e verde (não visível) reflete sobre outras áreas na cena. Outro ponto interessante é a cáustica projetada na parede vermelha da luz que atravessa a esfera de vidro.

DirectX 11
O DirectX 11 promete facilitar e agilizar o processo de desenvolvimento dos jogos, além de trazer novas tecnologias ou mesmo melhorias nas atuais, aprimorando assim ainda mais a qualidade nos gráficos.

As novidades presentes no DX11 são:

• DirectCompute 11
• Hardware Tessellation
• High Definition Ambient Occlusion
• Shader Model 5.0
• Depth of Field
• Renderização Multi-threaded (Multi-threading)

DirectCompute 11

O DirectCompute é um dos grandes trunfos do DX11, pois possibilita que os desenvolvedores utilizem a GPU para o processamento de outras tarefas alheias à renderização 3D. Trata-se do conceito por trás do termo GPGPU (que transforma a placa de vídeo em um processador).


Order Independent Transparency - OIT

Os benefícios não ficam restritos às aplicações gerais. Nos games, por exemplo, é possível programar para que a GPU cuide de tarefas como o processamento e filtro das imagens (conceito de post processing); Order Independent Transparency - OIT (técnica de sobreposição de objetos, aperfeiçoando o efeito de semitransparência – como, por exemplo, na criação de efeito de fogo, fumaça, cabelo, vidro); renderização de sombras, da física e da inteligência artificial.

Abaixo há uma imagem na qual é possível comprovar a eficiência da técnica OIT. À esquerda está a foto com a técnica, em contraste com a direita, que mostra o processo Simple Alpha Blending (SAB) presente no DX10. Além da diferença de qualidade, há ganho de performance com o uso do DirectCompute 11. Enquanto o SAB necessita de 64 passagens para a renderização, com o OIT, é preciso uma única leitura.

Hardware Tessellation
Trata-se de um dos benefícios mais aguardados pela indústria dos jogos eletrônicos.

Embora a ATI tenha implementado a tecnologia Tessellation já nas Radeons HD série 2000, somente agora tal funcionalidade será utilizada em sua plenitude, em virtude da adição de dois tipos de shaders (Hull e Domain) ao Shader Model 5.0.

De forma simplista, trata-se da tecnologia que adiciona em tempo real mais detalhes aos objetos 3D. Para tanto, subdivide-se um objeto/supefície em pedaços menores, acrescentando polígonos mais simples (de fácil execução).

Em outras palavras, ao invés da GPU gastar um grande tempo para o processamento de um objeto único (ou parte de um grande objeto) e complexo de uma única vez, o Tessellation “quebra” o mesmo em partes menores de forma a tornar a tarefa mais simples e rápida.

Assim, os desenvolvedores estão “impedidos” de acrescentar mais objetos e detalhes aos games. Com o Tessellation, o processamento dos terrenos/solos, será muito mais simples e rápido, sem contar que permitirá que os programadores criem texturas e maiores detalhes aos mesmos (como a deformação dinâmica), resultando em um maior realismo ao jogo.

Nas fotos abaixo é possível perceber com nitidez a diferença na qualidade da imagem quando a tecnologia é utilizada.

(imagens à esquerda sem a técnica; e à direita com a técnica)

High Definition Ambient Occlusion
Trata-se de outra técnica de efeito de pós-processamento de imagem que melhora as sombras e luzes, além de aumentar a sensação de profundidade dos objetos (3D).

Para isso, a Microsoft disponibilizou dois novos métodos de compressão de texturas: os filtros BC6 e BC7. O primeiro oferece uma taxa de compressão de 6:1 com 16 bits por canal e sem perdas, sendo uma texturização eficiente e de alta qualidade para a iluminação HDR. Já a BC7 oferece compressões de 3:1 com o padrão de cores RGB ou ou 4:1 para Alpha.

Shader Model 5.0
O DX11 introduz a versão 5.0 do Shader Model para a linguagem de programação HLSL, na qual adiciona precisão dupla para o processo, permitindo o uso específico dos shaders com polimorfismo, objetos e interfaces.

Na verdade, diferentemente das versões anteriores, o SM 5.0 não traz grandes avanços em termos de capacidades, mas promete facilitar o trabalho dos desenvolvedores ao introduzir certos conceitos de programação orientada a objetos.

Depth of Field
O método adiciona efeitos bem interessantes envolvendo o foco da imagem (primeiro plano) e o plano de fundo para dar um aspecto cinemático às imagens.


O Depth of Field utiliza um filtro de núcleo nos pixels da imagem processada como um efeito de pós-processamento. Este utiliza os dados dos pixels adjacentes para criar efeitos como borrado de movimentos, mapeamento de tom, detecção de bordas, suavização e nitidez.

Renderização Multi-threaded
É a técnica pela qual as GPUs processam os dados de forma simultânea, e não mais em sequência como em uma fila. O ganho, claro, está na eficiência no processamento, resultando em uma melhor performance.

OpenCL

O OpenCL (Open Computing Language ou Linguagem de Computação Aberta) é a primeira linguagem de programação multiplataforma livre do mercado.

Voltada para a programação paralela de sistemas heterogêneos, o OpenCL pode ser utilizado em uma ampla gama de dispositivos, tais como em computadores pessoais, servidores, consoles, dispositivos portáteis, dentre outros, sejam em CPUs ou GPUs. Um de seus grandes trunfos está na otimização na velocidade e capacidade de resposta para um amplo espectro de aplicações em diversas categorias do mercado, como em jogos e entretenimento, softwares científicos e médicos.

A linguagem foi inicialmente desenvolvida pela Apple, que detém os direitos sobre a marca e que produziu uma proposta inicial em colaboração com a AMD/ATi, Intel e NVIDIA. Quem regula o padrão OpenCL é o Khronos Compute Working Group, formado pelas fabricantes de CPU, GPU, processadores incorporados e software houses, como é o caso de empresas como 3DLABS, Activision Blizzard, AMD, Apple, ARM, Broadcom, Electronic Arts, Ericsson, Freescale, Fujitsu, GE, IBM, Intel, Imagination Technologies, Motorola, Nokia, NVIDIA, Qualcomm, Samsung, S3, ST Microelectronics, Texas Instruments e Toshiba, só para citar algumas.

No caso específico das placas de vídeo, o OpenCL trouxe um grande avanço para o segmento, uma vez que conseguiu tirar proveito do alto poder da computação paralela presente nas centenas/milhares unidades de processamento de uma GPU. Outra vantagem é que não se faz mais necessário que os programadores dominem linguagens de programação específicas para cada tipo de plataforma e/ou hardware, uma vez que a linguagem tornou-se padrão no meio.

Também chamado de linguagem GPGPU, o OpenCL é a alma por trás das tecnologias CUDA da NVIDIA e Stream da ATi.

OpenGL

O OpenGL é a API gráfica mais amplamente adotada para a geração de gráficos 2D e 3D da indústria, trazendo milhares de aplicativos para uma ampla variedade de plataformas de computador. Assim, permite que os desenvolvedores de software para PC, estações de trabalho e hardware criem aplicações gráficas atraentes com alto desempenho em mercados como o CAD, criação de conteúdo, energia, entretenimento, desenvolvimento de jogos, produção, assistência médica e realidade virtual.

Atualmente administrada pela Khronos Compute Working Group, o OGL foi desenvolvido inicialmente pela Silicon Graphics Inc. e possui 250 comandos e funções, que fornecem acesso a praticamente todos os recursos do hardware de vídeo. A API dá suporte a iluminação, colorização, mapeamento de textura, transparência, animação, entre muitos outros efeitos especiais.

Apesar de todos os recursos, a cada nova geração (atualmente na versão 3.2), o OpenGL (também conhecido como OGL) vem sendo menos utilizado na indústria dos jogos eletrônicos. Sem querer entrar nos méritos (que daria uma tese de Doutorado), o fato é que grande parte do declínio no uso da API em games esteja relacionada ao avanço de sua maior rival: o Direct3D da Microsoft, presente no DirectX e amplamente usado atualmente nos jogos.

 

As Placas

Fizemos testes de praticamente todos os principais modelos do mercado para dar uma boa noção a quem está em dúvida sobre um ou outro modelo no que diz respeito às tecnologias e desempenho, incluindo testes com alguns dos principais aplicativos de benchmarks e em games, tanto em DirectX 10 como em DirectX 11.

Abaixo temos a lista de placas separadas por empresa, junto com um link da tela principal do aplicativo GPU-Z, mostrando as principais características de cada modelo.

Nvidia (DirectX 11)

  • Nvidia GeForce GTX 580
  • Nvidia GeForce GTX 570
  • Nvidia GeForce GTX 480 SLI
  • POV GeForce GTX 480
  • Galaxy GeForce GTX 470
  • Nvidia GeForce GTX 460
  • Nvidia GeForce GTX 460 SLI
  • Nvidia GeForce GTX 460
  • Nvidia GeForce GTS 450
  • Nvidia GeForce GTS 450 SLI

Nvidia (DirectX 10)

  • Asus GeForce GTX 295
  • Asus GeForce GTX 260
  • ECS GeForce GTS 250

AMD / ATI (DirectX 11)

  • XFX Radeon HD 6870
  • XFX Radeon HD 6850
  • HiS Radeon HD 5970
  • XFX Radeon HD 5870 Dual Cross
  • XFX Radeon HD 5870
  • XFX Radeon HD 5850
  • ATI Radeon HD 5830
  • XFX Radeon HD 5770
  • XFX Radeon HD 5770 Dual Cross
  • XFX Radeon HD 5770 Triple Cross

AMD / ATI (DirectX 10)

  • PowerColor Radeon HD 4870x2
  • PowerColor Radeon HD 4890
  • PowerColor Radeon HD 4850

 

Máquina/Softwares utilizados

Utilizamos uma máquina TOP de linha, com a mainboard Gigabyte GA-X58A-UD9 e processador Intel Core i7 980X overclockado para 4.2GHz, evitando qualquer dúvida sobre gargalo do processador.

A seguir, os detalhes da máquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

Máquina utilizada nos testes:
- Mainboard Gigabyte GA-X58A-UD9
- Processador Intel Core i7 980X @ 4.2GHz
- Memórias 4 GB DDR3-1600MHz G.Skill Trident
- HD 1TB Sata2 Wester Digital Black
- Fonte XFX 850W Black Edition
- Cooler Thermalright Venomous X

Sistema Operacional e Drivers:
- Windows 7 64 Bits
- Intel INF 9.1.1.1025
- NVIDIA ForceWare 263.09: GTX 570
- NVIDIA ForceWare 262.99: GTX 580
- NVIDIA ForceWare 260.99 WHQL: Demais placas Nvidia
- ATI Catalyst 10.10d/10.12 WHQL: Placas ATI

Configurações de Drivers:
3DMark
- Anisotropic filtering: OFF
- Antialiasing - mode: OFF
- Vertical sync: OFF
- Demais opções em Default

Games:
- Anisotropic filtering: Variado através do game testado
- Antialiasing – mode: Variado através do game testado
- Texture filtering: High-Quality
- Vertical sync: OFF
- Demais opções em Default

* Todos os filtros foram aplicados via game testado. Apenas o Starcraft II, que não possui configuração interna de filtros, nos obrigou a configurar via drivers.

Aplicativos/Games:
- 3DMark Vantage build 1.0.2 (DX10)
- 3DMark 11 build 1.0.0 (DX11)
- Unigine HEAVEN Benchmark 2.1 (DX11)

- Aliens vs Predator (DX11)
- Crysis Warhead (DX10)
- DiRT 2 (DX11)
- F1 2010 (DX11)
- Just Cause 2 (DX10/10.1)
- Mafia II (DX9)
- Metro 2033 (DX11)
- StarCraft II (DX10)
- Mafia II : PhysX High (placas Nvidia)

Temperatura
Iniciaremos nossa bateria de benchmarks com um dos testes mais solicitados e importantes de uma VGA de alto desempenho: a temperatura.

Abaixo vemos que três placas da Nvidia lideram quando o sistema está em modo ocioso: são os modelos GTX 460 e GTS 450, placas que, entre suas características positivas, demonstram excelente dissipação de calor. Reparem que, entre as dez placas que geram menor calor em modo ocioso, temos sete da Nvidia, com destaque para as recém-lançadas GTX 570 e 580. Se pensarmos que elas são derivações da GTX 470 e 480, é um feito e tanto deixá-las entre os modelos com menor temperatura, pelo menos em modo ocioso.

Um ponto curioso também é o quanto os modelos da geração 4000 da linha Radeon esquentavam se comparados aos atuais. Podemos ver que as três placas que utilizamos são justamente as três da ATI que mais geram calor.


CONFIGURAÇÃO PARA O TESTE:

HIGH, AA 0x AF 0x, 1280x720

OBS.:

  • Game baseado em DirectX 10
  • Resultados em FPS médio depois de rodar 2 vezes a resolução
  • Quanto maior, melhor

[ FAR CRY 2 (DX10) | ]

AMD A10-5800K
52.70
AMD A8-3870K
43.80
AMD A8-3850
41.45
Intel Core i7 3770K
33.46
Intel Core i5 2500K
18.16
Intel Core i3-3220
16.39


Já nos testes com o sistema em uso, temos mudanças. Agora, entre as dez placas que geram menor calor, temos um empate, cinco de cada lado. No entanto, os modelos da Nvidia ocupam as primeiras colocações, com a 5850 infiltrada em terceiro lugar.

Vemos também que a GTX 570 e 580, mesmo com melhora  sobre suas "irmãs" antigas, ainda ficam para o final da tabela, estando entre os modelos que mais geram calor. Da última geração, a 6970 é a perdedora, sendo a placa que mais esquenta. Novamente, reparem como os modelos da geração 4000 da ATI esquentavam se comparados às placas atuais.

CONFIGURAÇÃO PARA O TESTE:

LOW, AA OFF AF 1, 1366x768

OBS.:

  • Game baseado em DirectX 9
  • Resultados em FPS médio
  • Quanto maior, melhor

[ MAFIA II | ]

Avell FullRange G1730 D1HJ
104.0
ASUS G75VW
96.4
Avell Diamond P110 F1HA
55.0
ASUS Automobili Lamborghini VX7
54.2
HP Envy 3D 17-2190br
47.2
Samsung RF511-SD3
42.4
HP Pavilion dv6-6170br
38.7

 

3DMark Vantage

3DMark Vantage
Começamos os testes de desempenho com o 3DMark Vantage, onde além dos scores das placas trabalhando sozinhas, também colocamos os resultados de algumas combinações que conseguimos fazer.

Abaixo vemos que os dois melhores resultados alcançados são de combinações. Em primeiro lugar e com uma margem bastante grande sobre a segunda colocação, o SLI de GTX 480, fazendo quase 40k. Em segundo lugar, a 18.5% atrás, temos o Crossfire de 5870 com 32.401 pontos.

A terceira colocada é a GTX 580, mostrando toda a força da revisão da Fermi, seguida pela 5970, placa dual chip da geração passada da ATI. Em seguida, temos um empate técnico entre o Crossfire triplo de 5770 e o SLI de GTX 460 1GB.

Dando continuidade, a GTX 570 coloca pouco mais de 11% de vantagem sobre a GTX 480 e a 6970, placas que se se diferenciam por apenas 2 pontos. Logo atrás, temos a GTX 295, última placa dual chip top que a Nvidia lançou.

Em seguida temos a 5870 ficando 4% na frente do Crossfire duplo de 5770 que, por sua vez, bate o SLI de GTS 450. Logo após, temos uma briga boa entre GTX 470, 4870x2 e 6870, principalmente entre as duas placas da ATI, já que a diferença ficou em exatos 100 pontos.

Outra disputa boa foi entre 5830, 6850 e GTX 460 de 768Mb. Vemos também que uma placa de entrada do segmento high da geração 200 da Nvidia ainda ficou pouco à frente de um modelo de entrada do segmento low da geração 400, esta superando a placa 5750 da ATI. Por fim, 4850 e GTS 250 brigam pela parte final da tabela.

CONFIGURAÇÃO PARA O TESTE:

HIGH, AA 0x AF 0x, 1680x1050

OBS.:

  • Game baseado em DirectX 10
  • Resultados em FPS médio depois de rodar 2 vezes a resolução
  • Quanto maior, melhor

[ FAR CRY 2 (DX10) | ]

AMD A10-5800K
37.16
AMD A8-3870K
30.95
AMD A8-3850
29.29
Intel Core i7 3770K
23.24
Intel Core i5 2500K
11.79
Intel Core i3-3220
10.72

 

3DMark 11

3DMark 11
Agora é a vez de analisar o comportamento das placas em cima do recém lançado 3DMark 11, benchmark que traz o que existe de melhor em tecnologias gráficas e de física. Vale destacar que, diferente do 3DMark Vantage, só rodam a nova versão as placas com suporte a DirectX 11, limitando o teste aos modelos geração 5000 e 6000 da AMD, e 400 e 500 da Nvidia.

Outro ponto a ser destacado é que, por algum motivo, os testes com Crossfire e SLI ficaram totalmente instáveis em algumas combinações. Na verdade, apenas o SLI de GTS 450 e o Crossfire duplo de 5870 e 5770 surtiram algum efeito, nos demais o score foi inferior a uma placa sozinha, como pode ser conferido a seguir.

Podemos destacar o resultado da 5970, mais de 10% superior à GTX 580. Temos também uma briga muito boa entre GTX 570 e 6970, empatadas tecnicamente. Nas placas intermediárias, temos como destaque a GTX 460 de 1GB batendo de frente com a 6850.

CONFIGURAÇÃO PARA O TESTE:

ULTRA, AA FXAA AF 16X, 1920x1080

OBS.:

  • Game baseado em DirectX 9
  • Resultados em FPS médio
  • Quanto MAIOR, melhor

[ BORDERLANDS 2 | ]

NVIDIA GeForce GTX 660 2GB
109.8
XFX Radeon HD 7850 BE OC DD 2GB
88.4
ZOTAC GeForce GTX 560 1GB
78.8
NVIDIA GeForce GTX 650 Ti 2GB
70.3
MSI GeForce GTX 650 PE OC 1GB
55.4
XFX Radeon HD 7770 BE OC DD 1GB
54.6
ASUS GeForce GTX 550 Ti DirectCU 1GB
51.4
XFX Radeon HD 7750 CORE EDITION 1GB
41.3

 

Unigine Heaven 2.1

Unigine HEAVEN 2.1 - DirectX 11
Trata-se de um dos testes sintéticos mais “descolados” do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API gráfica DirectX 11, como é o caso do Tessellation.

O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation, ambas a 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

No primeiro cenário (sem Tessellation), o SLI de GTX 480 ficou bem à frente do Crossfire de 5870, diferença superior a 26%. Na segunda colocação temos o Crossfire de 5870 pouco superior ao SLI de GTX 460, diferença de 63 pontos, que representam pouco mais de 4%. Na quarta posição também temos uma combinação, agora do Crossfire triplo de 5770, que alcançou 1.473 pontos.

A melhor colocação alcançada por uma placa sozinha aconteceu com a GTX 580, que ficou 22 pontos na frente da 5970, placa dual chip da ATI. Em seguida, temos a 6970 pouco menos de 4% superior a GTX 570, seguida de perto pela GTX 480.

Em um patamar inferior, temos o SLI de GTS 450 pouco à frente da GTX 470 que, por sua vez, bate o Crossfire duplo de 5770 e a 5870, esta colocando 73 pontos sobre a GTX 460 de 1GB. Mais atrás temos quatro placas da AMD, 6870, 5850, 6850 e 5830. Brigando pela parte baixa da tabela, estão a GTX 460 de 768Mb, 5770, GTS 450 e por último a 5750.

CONFIGURAÇÃO PARA O TESTE:

HIGH, AA 0x AF 0x, 1920x1080

OBS.:

  • Game baseado em DirectX 10
  • Resultados em FPS médio depois de rodar 2 vezes a resolução
  • Quanto maior, melhor

[ FAR CRY 2 (DX10) | ]

AMD A10-5800K
33.58
AMD A8-3870K
27.45
AMD A8-3850
25.84
Intel Core i7 3770K
20.43
Intel Core i5 2500K
10.39
Intel Core i3-3220
9.49

Com tessellation ativado em modo normal temos algumas mudanças, todas com vantagem para as placas da Nvidia. Novamente na liderança, ficou o SLI de GTX 480, que se mostrou muito eficiente. Assumindo a segunda colocação vem o SLI de GTX 460, que passou o Crossfire de 5870, seguido de perto pelo Crossfire triplo de 5770.

Com melhor colocação quando o assunto é a placa sozinha, está a GTX 580, seguida novamente pela 5970 como aconteceu no teste com tessellation desativado. A diferença é que a 6970 perdeu duas colocações, sendo ultrapassada pela GTX 570 e pela GTX 480.

Logo após, temos a GTX 470 batendo por pouco o SLI de GTS 450 que, por sua vez, supera o Crossfire de 5770. Depois, temos 5870 batendo a GTX 460 de 1GB, que ultrapassa a 6870. 5850 e 6850 ficam empatadas tecnicamente, com leve vantagem para a placa da série 5000.

No final da tabela, há um empate técnico entre GTX 460 de 768Mb, 5770 e GTS 450, com a 5750 um pouco atrás.

CONFIGURAÇÃO PARA O TESTE:

ULTRA, AA Quincunx 2X, 1280x1024

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ CRYSIS 2 | ]

NVIDIA GeForce GTX 660 2GB
77.4
XFX Radeon HD 7850 BE OC DD 2GB
72.9
ZOTAC GeForce GTX 560 1GB
53.1
NVIDIA GeForce GTX 650 Ti 2GB
50.8
XFX Radeon HD 7770 BE OC DD 1GB
47.4
MSI GeForce GTX 650 PE OC 1GB
37.6
XFX Radeon HD 7750 CORE EDITION 1GB
35.2
ASUS GeForce GTX 550 Ti DirectCU 1GB
34.8


 

Aliens vs Predator

Após os testes sintéticos, chegamos finalmente ao ponto alto do artigo, testes em jogos.

Começamos com o Aliens vs Predator, game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica.

Na resolução mais baixa testada, temos como destaque a 5970, mostrando a força de seus dois chips trabalhando em conjunto, superando a GTX 580. Da terceira à quinta posição, existe uma boa briga entre as placas 6970, GTX 480 e GTX 570. Logo depois, vem a 5870 batendo a GTX 480 por pouco mais de 2FPS.

Dando sequência, há um empate técnico entre 6870 e 5850. Quatro placas ficam muito próximas, GTX 460 1GB, 6850, GTX 460 768Mb e 5830, sendo que a diferença da primeira para a última é inferior a 5FPS.

No final, a 5770 fica pouco à frente da GTS 450 que, por sua vez, fica empatada tecnicamente com a 5750.

CONFIGURAÇÃO PARA O TESTE:

Sistema ocioso (idle)

OBS.:

  • Temperatura ambiente em 25ºC
  • Medida em graus Celsius
  • Quanto MENOR, melhor

[ TEMPERATURA (CPU) | ]

AMD A8-3850
27
AMD A8-3870K
27
AMD A10-5800K
29
Intel Core i3-3220
29

Nenhuma mudança de posição na tabela. As mesmas colocações da resolução 1280x1024 foram mantidas em 1680x1050, com a ATI nas duas extremidades da tabela com 5970 e 5750 respectivamente.

CONFIGURAÇÃO PARA O TESTE:

Rodando 3DMark 11

OBS.:

  • Temperatura ambiente em 25ºC
  • Medida em graus Celsius
  • Quanto MENOR, melhor

[ TEMPERATURA (CPU) | ]

AMD A8-3850
43
Intel Core i3-3220
43
AMD A8-3870K
44
AMD A10-5800K
46

Na resolução mais alta que testamos, 1920x1080, também não houve nenhuma mudança na tabela.

CONFIGURAÇÃO PARA O TESTE:

Rodando wPrime

OBS.:

  • Temperatura ambiente em 25ºC
  • Medida em graus Celsius
  • Quanto MENOR, melhor

[ TEMPERATURA (CPU) | ]

AMD A8-3850
47
AMD A10-5800K
49
Intel Core i3-3220
50
AMD A8-3870K
51

 

Crysis Warhead

Rodando o Crysis Warhead, FPS futurístico da Crytek, a 5970 novamente mostra a força de seus dois chips trabalhando em conjunto, ficando com a primeira colocação na resolução de 1280x1024. Da segunda até a quarta posição temos placas da Nvidia, em ordem, os modelos GTX 580, GTX 570 e GTX 480, mostrando que a empresa se sai muito bem em cima do game. Na quinta posição, temos a 6970 seguida pela já antiga GTX 295, última placa dual chip, se é que podemos chamar assim, da Nvidia. Logo depois, outra placa dual chip antiga, a 4870x2 da ATI, seguida de muito perto pela 5870.

Na nona posição, disputam a GTX 470 e 6870, e um pouco atrás a 6850, outra placa lançada recentemente pela AMD. A diferença entre as placas da série GTX 460 fica abaixo de 3 FPS, representando menos de 10%. Da décima quinta à décima sétima posição, só temos placas ATI, sendo que a GTX 260 vem na décima oitava colocação, pouco atrás da 5770, mostrando que uma placa top de duas gerações atrás ainda tem força, mesmo que agora esteja competindo com modelos mais modestos.

Brigando na rabeira da tabela, temos a GTS 450 pouco à frente da 5750, e a GTS 250 pouco à frente da 4850, última colocada.

CONFIGURAÇÃO PARA O TESTE:

CS6: Filtro Adaptive Wide Angle (GPU)

OBS.:

  • Resultado em tempo decorrido para aplicar o filtro
  • Size: 10 pixels, Depth: 20, Random
  • Imagem de teste com resolução 5182x9754
  • Tempo medido em segundos
  • Quanto MENOR, melhor

[ ADOBE PHOTOSHOP | ]

Intel Core i3-3220
89.7
AMD A10-5800K
112.0
AMD A8-3870K
120.1
AMD A8-3850
121.2

Em 1680x1050 temos pequenas mudanças na tabela. A 6970 pula da quinta para a quarta posição, passando a GTX 480. A 4870x2 também mudou de posição, mas para baixo, caindo da sétima para a nona posição. As demais placas mantêm a posição alcançada com a resolução anterior.

CONFIGURAÇÃO PARA O TESTE:

Teste COM uso do GPU, 1920x1080

OBS.:

  • Conversão de vídeo em formato .M2TS para .MP4 H264 - FULL HD
  • Teste com o tempo necessário para finalizar a conversão do vídeo (em segundos)
  • Quanto MENOR, melhor

[ CYBERLINK MEDIAESPRESSO | ]

Intel Core i3-3220
23
AMD A10-5800K
100
AMD A8-3870K
130
AMD A8-3850
133

Na resolução de 1920x1080, adicionamos os resultados das combinações de Crossfire e SLI, com o SLI de GTX 480 mostrando ser imbatível, ficando muito à frente dos demais resultados, mesmo do SLI de GTX 460 de 1GB que conquistou a segunda colocação.

Quanto às placas single, o destaque ficou com a GTX 580, que superou a 5970, mostrando que mesmo sendo uma placa que utiliza apenas um chip, pode fazer frente à placa mais poderosa da AMD na atualidade, pelo menos até esse ano.

Sem grandes destaques nas demais posições, o SLI de GTS 450 bateu o Crossfire dual de 5770, ambos ultrapassando a 6870, como já esperado.

CONFIGURAÇÃO PARA O TESTE:

ENTRY, 1024x600

OBS.:

  • Aplicativo baseado em DirectX 11
  • Resultados em pontos calculados pelo aplicativo
  • Quanto MAIOR, melhor

[ 3DMARK 11 | ]

AMD A10-5800K Dual Graphics (6670)
3803
XFX Radeon HD 6670 1GB
2793
AMD A10-5800K
2520
AMD A8-3870K
1961
AMD A8-3850
1809
Intel Core i3-3220
721

 

DiRT 2

Em DiRT2 , um dos primeiros games lançados com suporte ao DirectX 11, temos resultados, em média, favoráveis às placas da Nvidia, com todos os modelos ganhando de suas concorrentes diretas da AMD.

Na resolução de 1280x1024, já vemos logo de início o que deve acontecer em todas as resoluções testadas: a GTX 580 assume a ponta, no caso dessa resolução, e a 5970 fica empatada tecnicamente com GTX 570 e GTX 480.

Depois, temos como destaque a GTX 460 de 1GB, que fica a menos de 6 FPS da 6970, atual placa top single chip da AMD, que custa o dobro da placa da Nvidia. Mais abaixo da tabela, outro destaque: agora a GTX 460, empatada tecnicamente com 5850 e 6850. Por fim, uma briga muito boa entre as duas placas mais modestas do comparativo, GTS 450 e 5750.

CONFIGURAÇÃO PARA O TESTE:

LOW, AA 0x AF 0x, 1280x720

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | ]

AMD A10-5800K Dual Graphics (6670)
102.1
XFX Radeon HD 6670 1GB
69.5
AMD A10-5800K
40.3
AMD A8-3870K
36.8
AMD A8-3850
35.8
Intel Core i3-3220
12.4

Nenhuma grande mudança na resolução de 1680x1050. No topo da tabela, a 5970 se distancia um pouco das placas da Nvidia na briga pela segunda colocação e a GTX 470 perde uma posição, agora ficando atrás da 6970. A GTX 460 de 1GB também perdeu uma posição, sendo ultrapassada pela 6870.

CONFIGURAÇÃO PARA O TESTE:

LOW, AA 0x AF 0x, 1680x1050

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | ]

AMD A10-5800K Dual Graphics (6670)
59.7
XFX Radeon HD 6670 1GB
40.2
AMD A10-5800K
22.6
AMD A8-3870K
21.1
AMD A8-3850
20.4
Intel Core i3-3220
6.7

Na resolução mais alta, nenhuma alteração sobre as posições alcançadas na resolução anterior, isso quando se trata de placas sozinhas. Vemos que as placas em Crossfire e SLI alcançam excelentes resultados e, como já esperado, o SLI de GTX 480 se destaca. Em seguida, temos o Crossfire triplo de 5770 e, logo depois, o SLI de 450, que surpreendeu.

O Crossfire de 5870 ficou atrás da GTX 580, mas o pior resultado ficou com o SLI de GTX 460, provavelmente algum problema relacionado a driver ou ao próprio game, algo normal nesse tipo de tecnologia.

CONFIGURAÇÃO PARA O TESTE:

LOW, AA 0x AF 0x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | ]

AMD A10-5800K Dual Graphics (6670)
52.7
XFX Radeon HD 6670 1GB
35.6
AMD A10-5800K
19.6
AMD A8-3870K
17.9
AMD A8-3850
17.5
Intel Core i3-3220
5.9

 

F1 2010

Diferente do DiRT2, jogo no qual as placas da Nvidia conseguem melhores resultados do que as placas da AMD, em F1 2010 a história muda e a vantagem passa a ser da AMD, mesmo ambos os games sendo baseados na EGO 1.5 da Codemasters.

Na resolução mais baixa, a GTX 580 ainda se mostra superior às placas da AMD, ficando com uma margem boa à frente da 5970 que, por sua vez, fica empatada tecnicamente com as placas 6970, GTX 480 e 5870.

Reparem que a 6870 empata tecnicamente com a GTX 570, mostrando o bom resultado da AMD no game. As placas da linha GTX 460 não conseguem os mesmos resultados de outros games, competindo de igual para igual com a 5770. Por fim, aparece a 5750 colocando mais de 25% de vantagem sobre a GTS 450.

CONFIGURAÇÃO PARA O TESTE:

High, AA 0x AF 0x, 1280x720

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ CRYSIS 2 | ]

AMD A10-5800K Dual Graphics (6670)
65.8
XFX Radeon HD 6670 1GB
64.7
AMD A10-5800K
36.7
AMD A8-3870K
32.3
AMD A8-3850
31.6
Intel Core i3-3220
17.2

Em 1680x1050 temos algumas mudanças. Primeiro que a vantagem da GTX 580 sobre a 5970 deixou de existir, as placas ficaram empatadas tecnicamente. Temos uma mudança de posição no topo da tabela, a GTX 480 perde uma posição, sendo ultrapassada pela 5870. No final do ranking, temos a 5750 empatada tecnicamente com a GTX 460 de 768 Mb, excelente resultado da placa da ATI.

CONFIGURAÇÃO PARA O TESTE:

High, AA 0x AF 0x, 1680x1050

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ CRYSIS 2 | ]

AMD A10-5800K Dual Graphics (6670)
40.5
XFX Radeon HD 6670 1GB
39.9
AMD A10-5800K
20.4
AMD A8-3870K
18.8
AMD A8-3850
18.5
Intel Core i3-3220
9.4

Para finalizar os testes com o F1 2010, a resolução FULL HD, 1920x1080, teste no qual os Crossfire assumem a ponta. Como já era de se esperar, nem o SLI de GTX 480 foi páreo para o Crossfire triplo de 5770 e para o Crossfire duplo de 5870. A 5970 finalmente ultrapassou a GTX 580. Por pouco, mas passou.

E novamente mostrando a força das placas da AMD nesse game, o Crossfire duplo de 5770 conseguiu score empatado tecnicamente com o SLI de GTX 460 de 1GB.

No final da tabela, a 5750 assumiu a antepenúltima posição, ultrapassando a GTX 460 de 768Mb.

CONFIGURAÇÃO PARA O TESTE:

High, AA 0x AF 0x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ CRYSIS 2 | ]

AMD A10-5800K Dual Graphics (6670)
35.2
XFX Radeon HD 6670 1GB
35.0
AMD A10-5800K
18.3
AMD A8-3870K
16.2
AMD A8-3850
15.8
Intel Core i5 2500K
* Não suporta DirectX 11

 

Just Cause 2

Se tem um game no qual as Radeons se dão muito bem é em Just Cause 2, curiosamente apoiado pela NVIDIA.

As placas da ATi batem todas as suas concorrentes em praticamente quase todas as situações mostradas abaixo. Destaques para a Radeon 5970 reinando absoluta e para a 6970, que finalmente mostra para o que veio, deixando para trás a poderosa GTX 580. Contudo, à medida que se aumenta a resolução do teste, a margem de vantagem das Radeons para as GeForces cai.

CONFIGURAÇÃO PARA O TESTE:

HIGH, AA 0x AF 0x, 1280x720

OBS.:

  • Game baseado em DirectX 10
  • Resultados em FPS médio depois de rodar 2 vezes a resolução
  • Quanto maior, melhor

[ FAR CRY 2 (DX10) | ]

AMD A10-5800K Dual Graphics (6670)
85.36
XFX Radeon HD 6670 1GB
70.93
AMD A10-5800K
52.70
AMD A8-3870K
43.80
AMD A8-3850
41.45
Intel Core i3-3220
16.39

CONFIGURAÇÃO PARA O TESTE:

HIGH, AA 0x AF 0x, 1680x1050

OBS.:

  • Game baseado em DirectX 10
  • Resultados em FPS médio depois de rodar 2 vezes a resolução
  • Quanto maior, melhor

[ FAR CRY 2 (DX10) | ]

AMD A10-5800K Dual Graphics (6670)
73.21
XFX Radeon HD 6670 1GB
51.25
AMD A10-5800K
37.16
AMD A8-3870K
30.95
AMD A8-3850
29.29
Intel Core i3-3220
10.72

Ao se adicionar as soluções multi-GPUs de ambas as companhias, podemos notar a excelente escalabilidade de algumas placas, como é o caso da Radeon 5770 e da GTX 460, placas com preços convidativos e que se mostram uma boa opção de compra frente a alguns modelos “medalhões”.

CONFIGURAÇÃO PARA O TESTE:

HIGH, AA 0x AF 0x, 1920x1080

OBS.:

  • Game baseado em DirectX 10
  • Resultados em FPS médio depois de rodar 2 vezes a resolução
  • Quanto maior, melhor

[ FAR CRY 2 (DX10) | ]

AMD A10-5800K Dual Graphics (6670)
66.86
XFX Radeon HD 6670 1GB
45.75
AMD A10-5800K
33.58
AMD A8-3870K
27.45
AMD A8-3850
25.84
Intel Core i3-3220
9.49

 

Mafia II

Em Mafia II, game que trouxe a continuação do aclamado game de ação em terceira pessoa ambientado no obscuro mundo da máfia italiana dos anos 40 e 50 nos EUA, a “ordem” se estabelece, ou seja, as placas obtêm resultados considerados dentro do esperado.

É necessário destacar a intensa briga pelo topo da lista entre Radeon 5970 e GTX 580, com uma vantagem mínima para a GeForce, além da acirrada disputa entre GTX 480, 470 e Radeon 6970 pela terceira posição das single-VGA, ora alternando a GF100 top, ora a Cayman.

CONFIGURAÇÃO PARA O TESTE:

Sistema ocioso (idle)

OBS.:

  • Temperatura ambiente em 25ºC
  • Medida em graus Celsius
  • Quanto MENOR, melhor

[ TEMPERATURA (GPU) | ]

NVIDIA GeForce GTX 650 Ti 2GB
30
XFX Radeon HD 7770 BE OC DD 1GB
30
MSI GeForce GTX 650 PE OC 1GB
31
NVIDIA GeForce GTX 660 2GB
31
XFX Radeon HD 7850 BE OC DD 2GB
31
ZOTAC GeForce GTX 560 1GB
31
ASUS GeForce GTX 550 Ti DirectCU 1GB
32
XFX Radeon HD 7750 CORE EDITION 1GB
34

CONFIGURAÇÃO PARA O TESTE:

Rodando 3DMark 11

OBS.:

  • Temperatura ambiente em 25ºC
  • Medida em graus Celsius
  • Quanto MENOR, melhor

[ TEMPERATURA (GPU) | ]

MSI GeForce GTX 650 PE OC 1GB
50
NVIDIA GeForce GTX 650 Ti 2GB
57
XFX Radeon HD 7850 BE OC DD 2GB
59
XFX Radeon HD 7770 BE OC DD 1GB
60
ASUS GeForce GTX 550 Ti DirectCU 1GB
61
XFX Radeon HD 7750 CORE EDITION 1GB
65
NVIDIA GeForce GTX 660 2GB
70
ZOTAC GeForce GTX 560 1GB
80

Em 1920x1080, com a adição de algumas configurações em SLI e CrossFire, a GTX 480 vai para o topo do teste, seguida da 5870. No entanto, o grande destaque vai para o SLI da GeForce GTS 450, que alcançou um ganho de 89% sobre a versão single VGA.

CONFIGURAÇÃO PARA O TESTE:

Sistema ocioso (idle)

OBS.:

  • Consumo do sistema inteiro
  • Resultados em Watts
  • Quanto MENOR, melhor

[ CONSUMO DE ENERGIA | ]

NVIDIA GeForce GTX 660 2GB
151
XFX Radeon HD 7850 BE OC DD 2GB
170
XFX Radeon HD 7750 CORE EDITION 1GB
171
XFX Radeon HD 7770 BE OC DD 1GB
172
MSI GeForce GTX 650 PE OC 1GB
173
NVIDIA GeForce GTX 650 Ti 2GB
173
ASUS GeForce GTX 550 Ti DirectCU 1GB
178
ZOTAC GeForce GTX 560 1GB
182

 

Metro 2033

Trata-se de um FPS da 4A Games baseado em um romance homônimo russo, que conta a saga dos sobreviventes de uma guerra nuclear ocorrida em 2013 que se refugiam nas estações de metrô. O game, que faz uso intensivo da técnica de Tessellation e demais recursos do DirectX 11, desbancou de Crysis o título de jogo mais pesado. Sendo assim, nada melhor do que observar como se comportam as VGAs sob este intenso teste.

Metro 2033 é outro game no qual as placas da NVIDIA conseguem resultados melhores, provavelmente, em parte, pelo intenso uso do Tess, uma vez que as GeForces contam com mais unidades especializadas para lidar com esse novo recurso do DirectX 11.

Dessa forma, não é nenhuma surpresa o fato de a GTX 580 ficar na primeira posição, seguida da GTX 480 em segundo lugar e logo atrás a Radeon 5970 no teste em 1280x1024. Na verdade, excetuando-se a primeira colocação da GF110, há uma boa briga entre GTX 480, Radeon 5970, GTX 570 e Radeon 6970. Aliás, esta última comprovou que a linha Cayman passou por uma extraordinária evolução técnica em termos de processamento do tessellation, principalmente pela adição de uma segunda unidade especializada em lidar com a feature. Para se ter ideia do que estamos falando, a placa ficou apenas a 2,5FPS atrás da poderosa Radeon 5970.

CONFIGURAÇÃO PARA O TESTE:

Rodando 3DMark 11

OBS.:

  • Consumo do sistema inteiro
  • Resultados em Watts
  • Quanto MENOR, melhor

[ CONSUMO DE ENERGIA | ]

NVIDIA GeForce GTX 650 Ti 2GB
311
XFX Radeon HD 7750 CORE EDITION 1GB
316
MSI GeForce GTX 650 PE OC 1GB
320
XFX Radeon HD 7770 BE OC DD 1GB
320
XFX Radeon HD 7850 BE OC DD 2GB
322
NVIDIA GeForce GTX 660 2GB
323
ASUS GeForce GTX 550 Ti DirectCU 1GB
362
ZOTAC GeForce GTX 560 1GB
378

Para quem ainda tem dúvidas do poderio da Cayman em relação ao tessellation, a placa saiu da quinta posição para a terceira no teste em 1680x1050, a apenas 3 FPS atrás da 5970 e não muito distante da primeira colocada GTX 580 (diferença de 7,5 FPS). Destacamos ainda os ótimos resultados das GTX 480 e GTX 570.

CONFIGURAÇÃO PARA O TESTE:

PERFORMANCE, 1280x720

OBS.:

  • Aplicativo baseado em DirectX 11
  • Resultados em pontos calculados pelo aplicativo
  • Quanto MAIOR, melhor

[ 3DMARK 11 | ]

NVIDIA GeForce GTX 660 2GB
6792
XFX Radeon HD 7850 BE OC DD 2GB
6302
NVIDIA GeForce GTX 650 Ti 2GB
4795
ZOTAC GeForce GTX 560 1GB
4302
XFX Radeon HD 7770 BE OC DD 1GB
3917
MSI GeForce GTX 650 PE OC 1GB
3224
ASUS GeForce GTX 550 Ti DirectCU 1GB
2803
XFX Radeon HD 7750 CORE EDITION 1GB
2765

Finalmente em 1920x1080, o SLI da GTX 480 voou alto frente aos seus competidores, com ampla vantagem de 44% sobre a segunda colocada, a Radeon 5870 em CrossFire. Aliás os donos da GTX 460 devem ficar contentes e pensar seriamente na aquisição de uma segunda VGA como “upgrade”, uma vez que o SLI da placa conseguiu bater a GTX 580.

Mais uma vez a Radeon 6970 mostrou força em suas unidades de tessellation, alcançando a sexta posição geral, mas sendo a terceira no quesito single VGA.

Fechando este teste, o SLI de GTS 450 apresentou um ganho de 75% sobre a versão single, assim como a Radeon 5770 teve ganho de 74% em modo CrossFire e de 126% em Triple CrossFire.

CONFIGURAÇÃO PARA O TESTE:

Shaders: HIGH / Tessellation: DISABLED, AA 8x AF 16x, 1920x1080

OBS.:

  • Teste baseado em DirectX 11
  • Resultados em pontos calculados pelo aplicativo
  • Quanto maior, melhor

[ UNIGINE HEAVEN BENCHMARK 3.0 | ]

XFX Radeon HD 7850 BE OC DD 2GB
1369
NVIDIA GeForce GTX 660 2GB
1278
ZOTAC GeForce GTX 560 1GB
929
XFX Radeon HD 7770 BE OC DD 1GB
845
NVIDIA GeForce GTX 650 Ti 2GB
820
MSI GeForce GTX 650 PE OC 1GB
643
XFX Radeon HD 7750 CORE EDITION 1GB
599
ASUS GeForce GTX 550 Ti DirectCU 1GB
582

 

StarCraft II

Em nosso último teste, utilizamos o game de estratégia StarCraft II, que, quando lançado, gerou bastante polêmica pelo fato de os drivers da ATI não suportarem filtros corretamente, problema já resolvido e que agora nos permite uma comparação justa entre as duas empresas. Dessa forma, rodamos o jogo com 8xAA e 16xAF, configurações setadas via drivers, diferentemente de todos os demais testes, afinal StarCraft II não possui esse tipo de configuração interna.

A boa notícia aqui é que, de um modo geral, todas as placas apresentaram um bom desempenho no game (à exceção da Radeon 4850, que se comportou de forma bastante atípica), principalmente em 1280x1024, resolução em que as VGAs ficaram acima dos 30 FPS.

CONFIGURAÇÃO PARA O TESTE:

Shaders: HIGH / Tessellation: EXTREME, AA 8x AF 16x, 1920x1080

OBS.:

  • Teste baseado em DirectX 11
  • Resultados em pontos calculados pelo aplicativo
  • Quanto maior, melhor

[ UNIGINE HEAVEN BENCHMARK 3.0 | ]

XFX Radeon HD 7850 BE OC DD 2GB
842
NVIDIA GeForce GTX 660 2GB
810
ZOTAC GeForce GTX 560 1GB
543
XFX Radeon HD 7770 BE OC DD 1GB
536
NVIDIA GeForce GTX 650 Ti 2GB
528
MSI GeForce GTX 650 PE OC 1GB
397
XFX Radeon HD 7750 CORE EDITION 1GB
374
ASUS GeForce GTX 550 Ti DirectCU 1GB
334

CONFIGURAÇÃO PARA O TESTE:

HIGH / ULTRA HIGH, AA 4x AF 16x, 1280x1024

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | ]

XFX Radeon HD 7850 BE OC DD 2GB
59.3
NVIDIA GeForce GTX 660 2GB
59.1
ZOTAC GeForce GTX 560 1GB
42.1
NVIDIA GeForce GTX 650 Ti 2GB
37.5
XFX Radeon HD 7770 BE OC DD 1GB
37.3
MSI GeForce GTX 650 PE OC 1GB
30.5
ASUS GeForce GTX 550 Ti DirectCU 1GB
28.6
XFX Radeon HD 7750 CORE EDITION 1GB
25.0

O fato a ser destacado foi o aumento de performance ao se adicionar uma segunda GeForce GTS 450 ao sistema, trazendo assim um ganho de 88% sobre o modo single VGA. Já o comportamento do CrossFire em SC2 foi bastante estranho, talvez por haver algum problema de suporte no driver. Em alguns casos, ao invés de haver ganho para o conjunto, houve uma degradação no desempenho, como foi o caso dos CrossFires das Radeons 5870 e 5770.

CONFIGURAÇÃO PARA O TESTE:

HIGH / ULTRA HIGH, AA 4x AF 16x, 1680x1050

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | ]

XFX Radeon HD 7850 BE OC DD 2GB
48.2
NVIDIA GeForce GTX 660 2GB
47.5
ZOTAC GeForce GTX 560 1GB
34.2
NVIDIA GeForce GTX 650 Ti 2GB
30.0
XFX Radeon HD 7770 BE OC DD 1GB
29.7
MSI GeForce GTX 650 PE OC 1GB
24.5
ASUS GeForce GTX 550 Ti DirectCU 1GB
23.1
XFX Radeon HD 7750 CORE EDITION 1GB
19.9

 

PhysX

Por se tratar de uma tecnologia inerente das placas de vídeo da NVIDIA, não havia por que incluir VGAs da AMD. Para se testar o “poder de fogo” das GeForces com o PhysX, nada mais justo que se utilizar de Mafia II, um dos games mais recentes a explorar bastante essa tecnologia.

O que podemos perceber logo de início é a voracidade que o PhysX requer da placa de vídeo. Ao se comparar o desempenho das placas sem o recurso, a degradação na performance fica na casa dos 50%. Ainda assim, trata-se de uma tecnologia que vale a pena ser utilizada, ainda mais para aqueles mais exigentes em matéria de qualidade e entretenimento.

É possível ainda constatar uma clara divisão entre três pelotões neste teste. No primeiro grupo estão GeForces GTX 580, 570 e 480 – com a GTX 580 em primeiro e 570 e 480 se alternando na segunda e terceira posição. No segundo, tem-se as GTX 470, 460 (1GB e 768MB) e GTX 295; e finalmente o último grupo com GTS 450, GTX 260 e GTS 250.

CONFIGURAÇÃO PARA O TESTE:

HIGH / ULTRA HIGH, AA 4x AF 16x, 1920x1080

OBS.:

  • Game baseado em DirectX 11
  • Resultados em FPS médio
  • Quanto maior, melhor

[ ALIENS VS PREDATOR | ]

XFX Radeon HD 7850 BE OC DD 2GB
42.9
NVIDIA GeForce GTX 660 2GB
42.2
ZOTAC GeForce GTX 560 1GB
30.6
NVIDIA GeForce GTX 650 Ti 2GB
26.9
XFX Radeon HD 7770 BE OC DD 1GB
26.4
MSI GeForce GTX 650 PE OC 1GB
21.9
ASUS GeForce GTX 550 Ti DirectCU 1GB
20.7
XFX Radeon HD 7750 CORE EDITION 1GB
17.6

CONFIGURAÇÃO PARA O TESTE:

ULTRA, AA FXAA AF 16x, 1280x1024

OBS.:

  • Game baseado em DirectX 9
  • Resultados em FPS médio
  • Quanto MAIOR, melhor

[ BORDERLANDS 2 | ]

NVIDIA GeForce GTX 660 2GB
166.4
XFX Radeon HD 7850 BE OC DD 2GB
129.9
ZOTAC GeForce GTX 560 1GB
120.0
NVIDIA GeForce GTX 650 Ti 2GB
107.8
MSI GeForce GTX 650 PE OC 1GB
84.3
XFX Radeon HD 7770 BE OC DD 1GB
81.3
ASUS GeForce GTX 550 Ti DirectCU 1GB
79.0
XFX Radeon HD 7750 CORE EDITION 1GB
61.8

À exceção do SLI da GTS 450 (que mais uma vez mostrou um ganho bastante significativo), as demais configurações multi GPU não trouxeram uma melhora expressiva ao conjunto.

CONFIGURAÇÃO PARA O TESTE:

ULTRA, AA FXAA AF 16x, 1680x1050

OBS.:

  • Game baseado em DirectX 9
  • Resultados em FPS médio
  • Quanto MAIOR, melhor

[ BORDERLANDS 2 | ]

NVIDIA GeForce GTX 660 2GB
125.4
XFX Radeon HD 7850 BE OC DD 2GB
101.1
ZOTAC GeForce GTX 560 1GB
89.5
NVIDIA GeForce GTX 650 Ti 2GB
79.7
MSI GeForce GTX 650 PE OC 1GB
62.9
XFX Radeon HD 7770 BE OC DD 1GB
61.9
ASUS GeForce GTX 550 Ti DirectCU 1GB
58.6
XFX Radeon HD 7750 CORE EDITION 1GB
47.1

 

Conclusão

Inicialmente gostaríamos de agradecer em especial a duas empresas: NVIDIA e XFX. Sem elas não conseguiríamos desenvolver esse artigo da forma tão ampla e completa, com todas as principais placas de vídeo atuais do mercado.

É importante destacar que as duas companhias vêm investindo pesado em nosso país, estando sempre de portas abertas para a comunidade, atendendo sempre que possível todos os nossos pleitos, e o mais importante de tudo, disponibilizando em primeira mão aos nossos leitores, os lançamentos mais quentes da indústria.

Como o leitor pôde perceber, atualmente há uma briga bastante intensa pelo posto da Rainha das Placas 3D entre Radeon HD 5970 e a GeForce GTX 580. Contudo, a coisa deverá mudar de figura no início de 2011 com a previsão de chegada da novas dual-GPUs da AMD e NVIDIA. Por falar nisso, a não ser que a AMD tenha escondido um “coelho na cartola”, a NVIDIA deverá se sair melhor, levando-se em conta, é claro, o desempenho entre Radeon 6970 e GeForce GTX 580.

O fato é que 2011 promete ser um grande ano para o mercado. O consumidor possui atualmente uma farta opção de ótimas VGAs, atendendo a todos os gostos e bolsos. Pelo que ficou evidenciado em nossa bateria de testes, para quem quer o máximo de desempenho, Radeon 5970 e GTX 580 são as opções do momento, com uma pequena vantagem para a placa da NVIDIA se forem levados em conta alguns pequenos diferenciais, como o PhysX, consumo e temperatura.

Já o mercado intermediário (de alto desempenho ou não) possui pelo menos meia dúzia de excelentes opções, como GTX 570, Radeon 6970, GTX 460, Radeon 6870, GTS 450, Radeon 5770, só para citar algumas. Contudo, atualmente a Radeon HD 6950 talvez seja a melhor opção, uma vez que promete ter uma das melhores relações de custo x benefício de toda a história recente do mundo 3D. É que recentemente descobriu-se que é possível transformá-la em uma legítima 6970. E o que é melhor: tudo de forma simples e fácil, através de BIOS mod.

A idéia do “VGA Chart” é poder dar ao mercado brasileiro uma visão mais precisa e ampla sobre o comportamento das principais placas do momento. Dessa forma, caberá ao usuário analisar em detalhes as opções apresentadas e encontrar aquela opção que melhor atenda as suas necessidades.

Apesar de todo o apoio das companhias citadas acima, infelizmente percebemos que ainda existe alguma resistência por parte de uma e outra empresa na disponibilização de placas 3D. Provavelmente seja alguma conjuntura do momento, com a crise que se abateu no resto do mundo no ano passado e que se arrastou em 2010. Assim, esperamos que o “VGA Chart de 2011” traga ainda mais novidades e opções para os consumidores brasileiros.