ANÁLISE: Asus GeForce GTX 465

ANÁLISE: Asus GeForce GTX 465
Após os lançamentos das GeForces GTX 480 e GTX 470, ambas pertencentes à geração Fermi (DirectX 11 e 40nm), as atenções do público e do mercado voltaram-se para os modelos mais acessíveis.

Eis que surge então a GeForce GTX 465, placa voltada para o segmento intermediÁrio, tendo como curiosidade o fato de ser baseada no mesmo chip de suas irmãs maiores - o GF100 -, ao invés de um novo especialmente desenhado para tal segmento.

O modelo utilizado neste review foi gentilmente cedido pela Asus, que vem se destacando entre as empresas com os melhores modelos de placas de vídeo do mercado.


Modelo de referência da NVIDIA

A mensagem da NVIDIA com o lançamento da geração Fermi foi bastante clara: "roubar", a qualquer custo, o título da ATi de "Rainha das Placas 3D" colocando, ainda de quebra, bastante pressão na prestigiada linha Evergreen (Radeons série 5000). No decorrer deste review os leitores poderão conferir se realmente os objetivos foram atingidos.

O chip GF100 estÁ nitidamente sustentado em duas pilastras: alto poder de processamento e suporte a novas tecnologias, como é o caso do DirectX 11, NVIDIA 3D Vision, CUDA e o novo modo de filtro 32xCSAA (Coverage Sampling Antialiasing), sendo 8 do tipo "multisamples" e 24 "coverage samples".

Além disso, a nova geração foi construída com a litografia em 40nm pela TSMC que, em teoria, traz proporcionalmente um menor consumo de energia e ganhos de escala. AliÁs, para quem não se recorda, tal fato gerou um certo "desgaste" entre ambas as companhias, em virtude do atraso na produção das GPUs.

Um ponto positivo, este especialmente interessante para os consumidores, é que com a chegada (e ampliação) da linha Fermi, o valor das GeForces série 200 e das Radeons HD 5000 deverão cair rapidamente.

Em conjunto com a tecnologia CUDA, a GF100 pode ainda ser utilizada para acelerar a execução de diversas tarefas comumente realizadas no dia-a-dia dos usuÁrios, tais como:

  • Melhoria na captura de vídeo ou de fotos tiradas de celulares com baixa luminosidade através do uso do software vReveal da MotionDSP;
  • Conversão de vídeos HD para dispositivos portÁteis utilizando programas como o BadaBoom, Cyberlink Media Show Expresso, Nero Move It e TMPGEnc;
  • Edição de filmes em HD e aplicação de filtros via Cyberlink Power Director 7 e Loiloscope Venus;
  • Edição de fotos e aplicação de filtros no Adobe Photoshop CS4 (via OpenGL);
  • Organização de fotos utilizando a aceleração GPU para o reconhecimento facial através da solução Cyberlink MediaShow 5; dentre outras.

Compatível com a nova versão do Badaboom, software da NVIDIA que permite ao usuÁrio converter vídeos para formatos portÁteis através da própria GPU (processo chamado de GPGPU/CUDA), a nova geração de GPUs da NVIDIA traz ainda ganhos expressivos na performance de certas aplicações de uso geral, tais como com o Nero Move It e o vReveal.

Assim como as G 210, GT 220 e GeForce GT 240, a nova geração de GPUs Fermi estÁ entre as primeiras placas 3D da NVIDIA a incluir suporte nativo a especificação HDMI 1.3a, que inclui Áudio sem compressão de 7.1 canais, também conhecido como Áudio de Blu-Ray.

Por fim, mas não menos importante, a GF100 é compatível com uma das grandes tecnologias dos últimos tempos: a NVIDIA 3D Vision Surround, tecnologia que vai além do 3D Vision "tradicional", onde o usuÁrio, com a ajuda de um kit composto por óculos especiais e três monitores especiais de 120Hz, é capaz de ter seus conceitos de interatividade e diversão completamente inovados, graças à "realidade" 3D estereoscópica.

{break::Arquitetura da GF100}A GF100 é, sem dúvida, para a NVIDIA o passo à frente mais significativo em termos de avanço na macro-arquitetura das GPUs, desde o lançamento da primeira G80, inaugurando o que se conhece muito bem hoje como o conceito de grÁficos unificados e computação paralela. JÁ a geração GT200 trouxe uma ampliação no desempenho e nas funcionalidades da G80.

Com a Fermi, os engenheiros da NVIDIA empregaram todo o seu conhecimento adquirido ao longo das duas últimas gerações, bem como todos os aplicativos e desenvolveram uma abordagem totalmente nova de design para criar a primeira GPU computacional do mundo.


Abaixo alguns pontos-chaves da nova arquitetura.

• Otimização na Performance de Precisão Dupla: Enquanto a performance de ponto flutuante de precisão única foi da ordem de dez vezes o desempenho dos processadores, algumas aplicações de computação por GPU necessitam de mais desempenho de precisão dupla;

• Suporte à ECC: O chamado ECC (Error-Correcting Code memory em tradução livre, código de correção de erro de memória) se encarrega de fazer os devidos testes e correções de erros de forma automÁtica, muitas vezes de forma transparente e imperceptível ao sistema operacional. Assim, abre-se espaço para a utilização de forma segura, de uma grande quantidade de GPUs em Datacenters, garantindo uma maior confiabilidade em sistemas críticos, tais como aplicações médicas, financeiras e militares;

• Hierarquia de Memória Cache Real: Alguns algoritmos paralelos eram incapazes de usar a memória compartilhada da GPU, de forma que os usuÁrios solicitaram uma arquitetura real para ajudÁ-los nos desenvolvimentos das tarefas e programas;

• Mais Memória Compartilhada: Muitos programadores do ambiente CUDA solicitaram mais de 16 KB de memória compartilhada para os Streaming Multiprocessors como forma de acelerar as aplicações;

• Alternância de Contexto Mais RÁpida: Muitos usuÁrios desejavam uma alternância de contexto mais veloz entre aplicações e interoperações de computação e grÁficos;

• Operações Atômicas mais Velozes: Os programadores necessitavam de operações atômicas de leitura-modificação-escrita mais velozes para se adequarem aos algoritmos paralelos.

Como resultado dos preceitos acima, a equipe de desenvolvimento da Fermi projetou um chip com imenso "poder de fogo", trazendo ainda muitas inovações tecnológicas e que oferece um alto grau de programação e eficiência computacional.

De acordo com os especialistas, a Fermi possui die com Área de aproximadamente 530mm2, um pouco menor do que a G80. Contudo, estamos falando aqui de um chip com litografia em 40nm e não em 65nm, como a da boa e velha GeForce 8800 Ultra. Para ter idéia do que representa a Área do die, um waffer de 300mm2 é capaz de produzir teoricamente apenas 130 chips, na hipótese utópica de uma taxa de 100% de aproveitamento. Ou seja, é um verdadeiro "monstro", no melhor sentido da palavra. E não é para menos. Afinal, trata-se de uma GPU com 3 bilhões de transistores e estrutura para abrigar até 512 CUDA Cores (também chamado de shader processors) em uma estrutura de computação conjugada MIMD (Múltiplas Instruções, Múltiplos Dados).


(Arquitetura da GF100)

Conforme pode ser visto acima na estrutura de processamento "host interface", hÁ um grande bloco chamado pela NVIDIA de "Gigathread Engine" composto de 4 GPCs (Graphics Processing Clusters), 6 controladores de memória, partições ROPs e cache L2 com 768KB. Vale ressaltar que cada GPC, que são na realidade grandes unidades de processamento e se comportam como mini GPUs independentes, possui 4 unidades de Streaming Multiprocessor (SMs), que por sua vez são compostas por 32 CUDA Cores. Desta forma, em tese, a GF100 suporta até 512 Shaders Processors (4 GPCs x 4 SMs x 32 CUDA Cores).

Contudo, por alguma razão desconhecida, a NVIDIA desativou um conjunto de Streaming Multiprocessor na GTX 480. Ou seja, ao invés de 16 SMs, a placa possui 15, resultando desta forma em 480 Stream Processors (15 SMs x 32 CUDA Cores). Especula-se que tal fato estaria relacionado ou a alguma dificuldade em se conseguir ativar todos os 512 CUDA Cores, ou então seria uma espécie de jogada de marketing, para que em um futuro próximo, fosse lançada uma GTX 485 com todos os 512 CUDA Cores ativos. JÁ a GTX 470 possui 448 Stream Processors, devido à desativação de um segundo conjunto de SM (14 SMs x 32 CUDA Cores).


(Arquiteturas GTX 480 à esquerda e GTX 470 à direita)

A GeForce GTX 465 possui "apenas" 352 CUDA Cores, uma vez que a NVIDIA estranhamente desativou não um mas sim 3 conjuntos de Streaming Multiprocessor (11 SMs x 32 CUDA Cores) em relação a sua irmã ligeiramente maior, a GTX 470. Diferentemente do que ocorreu com a GTX 470 em relação a GTX 480, estranhamente a NVIDIA desabilitou não 1, mas sim 3 conjuntos de Streaming Multiprocessor na GeForce GTX 465 em comparação a sua irmã maior, a GTX 470. Como resultado, a placa possui 352 CUDA Cores (11 SMs x 32 CUDA Cores) e não 384, caso tivesse 12 SMs. AliÁs, esta redução no total de SMs afetarÁ a performance de geometeria da placa em se tratando das capacidades de "shading", "texturing" e "tessellation", uma vez que a GPU passa a contar com apenas 11 PolyMorph engines.


(Arquitetura GTX 465 - reparem nas unidades sombreadas/desativadas)

Em se tratando Texture Memory Units, são ao todo 44 (contra 56 da GTX 470, 60 da GTX 480 e 64 do total suportado pela arquitetura). Esta redução deu-se novamente em virtude da redução na quantidade de unidades de Stream Processors de 16 para 11 (11 SMs x 4 TMUs).

Embora a quantidade de unidades de rasterização (ROPs) não seja dependente do número de GPCs da GPU (uma vez que estas unidades estão arranjadas de um bloco funcional em separado dos Stream Processors), a NVIDIA resolveu reduzir o número de ROPs da VGA, ao inativar 2 das 6 partições de unidades de rasterização. Desta forma, a GTX 465 conta com um total de 32 ROPs (4 partições x 8 ROPs).

Em contrapartida aos Combinadores de Registros, Unidades de Shaders e Shaders Cores presentes nas gerações passadas, os novos CUDA Cores são o que existem de "última palavra" em termos de tecnologia. Tratam-se de unidades autônomas capazes de processar múltiplas instruções e múltiplos dados (arquitetura MIMD), em oposição ao SIMD (instrução única, múltiplos dados). Assim, os 352 CUDA Cores consistem de unidades de despachos, coletores de operações, 2 unidades de processamento (inteiros e pontos flutuantes) e registradores de filas de resultados.



Para ser sincero, o cluster de Streaming Multiprocessor é a grande razão pela qual a arquitetura da Fermi pode desde jÁ ser vista como a mais eficiente em se tratando de unidade de processamento grÁfico. Olhando para a imagem acima, podemos ver que os 32 CUDA Cores foram "empacotados" juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Esta comutação dinâmica irÁ ajudar os desenvolvedores de jogos a otimizar a performance de seus games, em virtude da arquitetura ser bastante flexível.

Além disso, hÁ ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (32.768 entradas de 32-bit – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc). O cluster SM possui ainda 4 TMUs, cache de textura e o mais importante de tudo: Polymorph Engine.

A Polymorph Engine foi introduzida na Fermi para lidar com uma enorme carga de trabalho que as novas funções necessitam. Uma delas é a técnica conhecida como Tessellation (que é um dos grandes trunfos do DirectX 11), onde o número de triângulos em uma cena pode aumentar de forma exponencial. Desta forma, a NVIDIA teve de escolher entre construir uma gigantesca unidade dedicada ao Tessellation, ou dividir a carga de trabalho em diversas partes menores por shader cluster e partir para a eficiência. Como pode ser notado, a NVIDIA escolheu a primeira opção.

As unidades ROPs receberam uma atenção especial por parte da equipe de desenvolvimento. O resultado é que em alguns casos, o ganho de performance pode ser 3 vezes superior em relação a GeForce GTX 285 com o filtro de Anti-aliasing ligado!

Por falar nisso, a Fermi suporta o modo 32x CSAA (8+24x), com 33 níveis de transparência, com expressivo ganho de desempenho sobre a GT200. O melhor de tudo é que segundo a NVIDIA, a degradação da performance serÁ muito pouco em relação ao modo tradicional em 8X, variando entre 8-15%. Para quem critica e acha que a utilização de filtro de AA acima de 8x não traz ganho visível, segue abaixo uma imagem, seguindo o dito de que uma imagem vale mais que mil palavras.



Em relação às memórias caches, enquanto que a GT200 estava limitada ao compartilhamento de nível L2, a Fermi conta ainda com o nível L1, auxiliando sobremaneira o trabalho dos Shaders Processors. São ao todo 1MB de cache L1 e 768KB de L2. Trata-se de números interessantes. Enquanto a NVIDIA foi em uma direção (colocando mais memória L1 do que L2), a ATi foi justamente em direção oposta, equipando a linha Evergreen com mais cache L2 do que L1.

De acordo com Henry Moreton, engenheiro da NVIDIA, o cache L1 da Fermi pode ultrapassar a impressionante marca de 1,5TB/s de largura de banda. Valor muito semelhante do que chega a L2.

Ainda dentro do assunto memória, a arquitetura da Fermi é composta de 6 partições/controladoras de 64 bits, resultando assim em um total de 384 bits de interface de memória! Aliado à capacidade de suportar até 6GB de GDDR5 e a melhoria nos ROPs, a NVIDIA tem em mãos - pelo menos em tese - um verdadeiro trunfo frente à sua rival Radeon HD 5870/5970, principalmente em jogos pesados em altas resoluções e filtros de Anisotropic e Anti-Aliasing ligados em força total.

Vale esclarecer que a GeForce GTX 465 conta com um total de 4 controladoras de memória de 64 bits, resultando assim em um bus de 256 bits, assim como a GTX 470 possui 5 controladoras, totalizando um bus de 320 bits.



{break::Os recursos da GTX 465}Os destaques da GeForce GTX 465 são:


• 3 bilhões de transistores;
• Litografia em 40 nm;
• Área do die (estimado): 530mm2
• Frequência de operação das texturas e ROPs (GPU): 607Mhz;
• 352 shader processors/CUDA cores;
• Frequência de operação dos shaders processors/CUDA cores: 1215MHz;
• Frequência de operação das memórias: 3.2GHz (GDDR5);
• Quantidade de memória: 1GB;
• Interface de memória: 256bits;
• Consumo de energia/TDP: mÁximo de 200 watts;
• Limiar térmico da GPU em 105° C;
• Suporte às tecnologias: CUDA, DirectX 11/Shader Model 5.0, GeForce 3D Vision, NVIDIA 3D Vision Surround, NVIDIA PhysX, PureVideo HD Technology, Badaboom, HDMI 1.3a, OpenGL 3.2, OpenCL, DirectCompute, Windows 7.

E ainda:

• Terceira Geração do Streaming Multiprocessor (SM)

• Segunda Geração de Execução de Thread Paralelo ISA
- Espaço de Enderçamento Unificado com suporte completo a C++;
- Otimização para OpenCL e DirectCompute;
- Precisão completa para IEEE 754-2008 32-bit e 64-bit;
- Caminho completo para inteiros de 32-bit e extensões de 64-bit;
- Instruções de acesso a memória para suportar a transição no endereçamento de 64-bit;
- Melhora na performance através da técnica de Predicação.

• Subsistema de Memória Otimizada
- Utilização da hierarquia NVIDIA Parallel DataCacheTM com L1 ajustÁvel e L2 unificada;
- Primeira GPU com suporte a memórias ECC;
- Otimização no desempenho das operações atômicas de memória.

• NVIDIA GigaThreadTM Engine
- 10x mais rÁpido nas aplicações de alternância de contexto;
- Execução simultânea de Kernel;
- Execução de blocos de theads fora de ordem;
- Engine de transferência de memória com dupla sobreposição.


Conforme antecipado na introdução deste review, um dos pontos chaves da geração Fermi estÁ na litografia (que é o processo utilizado na fabricação do chip), pois é uma das primeiras GPUs da NVIDIA a utilizar o padrão de 40nm da TSMC, fato decisivo para poder acomodar um chip de tamanha robustez.

Apesar de alguns percalços no caminho, o fato é que se trata de um importante marco para a companhia, uma vez que resultarÁ em redução de custos na fabricação de tais chips grÁficos, apesar de estar longe de poder ser considerada uma GPU barata. Além disso, a nova litografia permitiu com que a placa mantivesse um patamar de consumo de energia (TDP) em níveis aceitÁveis, chegando ao mÁximo de 200W. A título de informação, a GTX 285 tem TDP em 204W e a GTX 480 em 250W.

Sendo assim, para suprir tal demanda de energia, a VGA possui 2 conectores de alimentação extra de 6 pinos (75W). Aliado aos 75W do slot PCIe, a GTX 465 conta com uma margem extra de 25W, podendo ser utilizado para overclock. De acordo com a NVIDIA, é recomendado o uso de uma fonte real de 550W.

Ao se deparar com as especificações da GeForce GTX 465, o usuÁrio deverÁ estar bastante atento aos números, especialmente se resolver comparar com as GPUs da geração passada. É que o chip possui uma nova arquitetura, baseada na estrutura de computação conjugada MIMD (Múltiplas Instruções, Múltiplos Dados). Além disso, a Fermi conta agora com a força das memórias ultra rÁpidas GDDR5, que dobram a vazão dos dados em relação às antigas GDDR3.

Em relação aos clocks, a GTX 465 as mesmas freqüências de operações no core e shaders, respectivamente em 607Mhz e 1215Mhz, indicando serem provavelmente os menores valores da geração Fermi, mesmo em se tratando de VGAs de categorias inferiores, que deverão ter clocks iguais e maiores à esta, mas (obviamente) com menos CUDA Cores, ROPs e TMUs. Quanto às memórias, os valores são ligeiramente inferiores à 470, trabalhando a 3.20Ghz contra 3.35Ghz.

Talvez a NVIDIA não tenha "ousado" no quesito clock, como forma de manter o consumo de energia dentro de padrões minimamente aceitÁveis para a sua categoria (intermediÁria). O fato é que o conjunto "clocks" mais quantidade de CUDA Cores/ROPs/TMUs são fatores decisivos para o patamar alcançado pela a placa. Novamente entrando no campo dos rumores, especula-se pelos bastidores que a decisão em "capar" as especificações (GPCs) da placa estaria relacionada a questões econômicas e estratégicas por parte da NVIDIA. Ou seja, teria sido a forma encontrada pela companhia para "desovar" os chips que não atingiram a condição mínima de serem utilizados nas GTX 480 e 470.



{break::Enfim o DirectX 11}Como foi dito no início deste review, um dos grandes trunfos da geração Fermi é o suporte à nova API grÁfica da Microsoft, o DirectX 11, que promete facilitar e agilizar o processo de desenvolvimento dos jogos, além de trazer novas tecnologias ou mesmo melhorias nas atuais, aprimorando ainda mais a qualidade nos grÁficos. Apesar de estar 6 meses atrÁs de sua rival Evergreen, a NVIDIA finalmente entrou em uma nova era em termos grÁficos.

As novidades presentes no DX11 são:

- DirectCompute 11
- Hardware Tessellation
- High Definition Ambient Occlusion
- Shader Model 5.0
- Depth of Field
- Renderização Multi-threaded (Multi-threading)



DirectCompute 11
O DirectCompute é um dos grandes trunfos do DX11, pois possibilita que os desenvolvedores utilizem a GPU para o processamento de outras tarefas alheias à renderização 3D. Trata-se do conceito por trÁs do termo GPGPU, que "transforma" a placa de vídeo em um processador.

Os benefícios não ficam restritos às aplicações gerais. Nos games, por exemplo, é possível programar para que a GPU cuide de tarefas como o processamento e filtro das imagens (conceito de post processing). Ela também pode ficar responsÁvel por outros aspectos, como o Order Independent Transparency - OIT (técnica de sobreposição de objetos que aperfeiçoa o efeito de semi-transparência – como, por exemplo, na criação de efeito de fogo, fumaça, cabelo, vidro), a renderização de sombras, a física e a inteligência artificial, além de prevenir erros no processamento da priorização da formação das imagens.

Não é apenas o quesito qualidade que foi beneficiado com o OIT. Enquanto que o método Simple Alpha Blending (SAB) presente no DX10 necessita de 64 passagens para a renderização, o OIT requer uma única leitura, ou seja, hÁ também uma expressiva otimização do processo.

Hardware Tessellation
Trata-se de um dos benefícios mais aguardados pela indústria dos jogos eletrônicos.

De forma simplista, trata-se da tecnologia que adiciona, em tempo real, mais detalhes aos objetos 3D. Para tanto, subdivide-se um objeto/superfície em pedaços menores, acrescentando polígonos mais simples (de fÁcil execução).

Em outras palavras, ao invés de a GPU gastar um grande tempo para o processamento de um objeto único (ou parte de um grande objeto) e complexo de uma única vez, o Tessellation "quebra" o mesmo em partes menores de forma a tornar a tarefa mais simples e rÁpida.

Assim, os desenvolvedores estão "impedidos" de acrescentar mais objetos e detalhes aos games. Com o Tessellation, o processamento dos terrenos/solos serÁ muito mais simples e rÁpido, sem contar que permitirÁ que os programadores criem texturas e maiores detalhes - como a deformação dinâmica - resultando em um maior realismo ao jogo.

Nas fotos abaixo, é possível perceber com nitidez a diferença na qualidade da imagem quando a tecnologia é utilizada.




(imagens à esquerda sem a técnica; e à direita com a técnica)

High Definition Ambient Occlusion
Trata-se de outra técnica de efeito de pós-processamento de imagem, que melhora as sombras e luzes, além de aumentar a sensação de profundidade dos objetos (3D).

Para isso, a Microsoft disponibilizou dois novos métodos de compressão de texturas: os filtros BC6 e BC7. O primeiro oferece uma taxa de compressão de 6:1 com 16 bits por canal e sem perdas, mostrando-se uma texturização eficiente e de alta qualidade para a iluminação HDR. JÁ o BC7 oferece compressões de 3:1 com o padrão de cores RGB ou 4:1 para Alpha.


Shader Model 5.0
O DX11 introduz a versão 5.0 do Shader Model para a linguagem de programação HLSL, na qual adiciona precisão dupla para o processo, permitindo o uso específico dos shaders com polimorfismo, objetos e interfaces.

Na verdade, diferentemente das versões anteriores, o SM 5.0 não traz grandes avanços em termos de capacidades, mas promete facilitar o trabalho dos desenvolvedores ao introduzir certos conceitos de programação orientada a objetos.

Depth of Field
O método adiciona efeitos bem interessantes envolvendo o foco da imagem (primeiro plano) e o plano de fundo, para dar um aspecto cinemÁtico às imagens.

O Depth of Field utiliza um filtro de núcleo nos pixels da imagem processada como um efeito de pós-processamento. Este utiliza os dados dos pixels adjacentes para criar efeitos como borrado de movimentos, mapeamento de tom, detecção de bordas, suavização e nitidez.

Renderização Multi-threaded
É a técnica pela qual as GPUs processam os dados de forma simultânea, e não mais em sequência como em uma fila. O ganho, claro, estÁ na eficiência no processamento, resultando em uma melhor performance.

Embora existam pouquíssimos jogos prontos ou em desenvolvimento sob o DirectX 11, é justo dizer que a sua adoção estÁ sendo feita de forma mais acelerada em relação à versão 10. Por enquanto, eis a lista de games que apresentam compatibilidade com a nova API grÁfica da Microsoft:

- "BattleForge" (lançado)
- "S.T.A.L.K.E.R. Call of Pripyat" (lançado)
- "DiRT 2" (lançado)
- "Battlefield: Bad Company 2" (lançado)
- "Aliens vs. Predator" (lançado)
- "The Lord of the Rings Online: Siege of Mirkwood" (Primeiro trimestre de 2010)
- "Dungeons and Dragons Online: Eberron Unlimited" (2010)
- "Genghis Khan MMO" (2010)
- Além das engines grÁficas Frostbite 2 e Unigine e Vision Engine

Confiram abaixo o vídeo Unigine Heaven DX11 benchmark com tecnologia 3D Vision Surround em uma GTX 480.

{break::Outras tecnologias}CUDA

Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units).

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip grÁfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estÁgios programÁveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não grÁficos.

Apresentada inicialmente em 2007, a tecnologia CUDA estÁ presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x.

De acordo com vÁrios experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano estÁ na arquitetura por trÁs do chip grÁfico, massivamente focado na computação paralela, graças à imensa quantidade de "cores"/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Desta forma, aplicações voltadas para a biologia, física, simulações, criptografia, dentre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA.

No campo dos games, a renderização dos grÁficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como é o caso, por exemplo, dos cÁlculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...)

Atualmente, é o processo de GPGPU mais difundido no mercado, contando com mais de 100 milhões de placas compatíveis.

PhysX

Embora seja uma das grandes "vedetes" dos games modernos, a tecnologia de processamento da física é uma tecnologia que jÁ vem de alguns anos.

Lançado inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU(Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trÁs da tecnologia.

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Desta forma, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs.

Mas o que vem a ser exatamente tal cÁlculo da física presente no PhysX? Trata-se da técnica na qual o chip grÁfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador, ao adicionar ambientes físicos vibrantes, de imersão total.

A física é o próximo passo na evolução dos jogos. Trata-se da forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma jÁ programada. Para os praticantes, os jogos são bons, mas falta o realismo necessÁrio para produzir a verdadeira sensação de imersão.

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessÁria para produzir a física avançada e realista nos jogos de próxima geração, deixando para trÁs os efeitos de animação pré-fabricados.

É através do cÁlculo da física que, por exemplo, uma explosão parece mais real para o usuÁrio, uma vez que se pode gerar um verdadeiro "efeito dominó" por trÁs deste evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo em si e a fumaça.

O PhysX é responsÁvel, dentre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços;
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas;
• Novos e incríveis efeitos em disparos de armas;
• Tecidos que se enrugam e rasgam naturalmente;
• Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)

Ironias à parte, atualmente é possível utilizar, por exemplo, uma GeForce mais simples como uma PPU (exclusivo para o processamento da física), deixando uma segunda placa da NVIDIA de classe superior responsÁvel para o processamento principal. Infelizmente, a companhia bloqueou em seus drivers a utilização de uma GeForce em conjunto com uma Radeon.

Na teoria, uma placa da ATI até pode realizar os cÁlculos da parte física sem possuir o PhysX, mas, na prÁtica, o resultado é desastroso, derrubando os FPS para níveis que podem, em certos casos, inviabilizar a prÁtica do jogo.

3D Vision (óculos 3D)

Lançado no início do ano de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas por experiências nada bem sucedidas de outras empresas no passado.

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho humano).

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação seqüencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.

Trata-se, na verdade, de uma ação extremamente ambiciosa e ousada da NVIDIA, uma vez que tem que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa "The Way It's Meant To Be Played", em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.

Vale ressaltar que a tecnologia não estÁ limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:

• Óculos Sem Fio 3D Estereoscópico Ativo
Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plÁstico.

• Emissor Infravermelho de alta potência (porta USB)
Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real.

• Monitores Ultra-Flexíveis
Projetado para os monitores LCD de 120Hz ViewSonic e Samsung, HDTVs Mitsubishi DLP 1080p, e projetores DepthQ HD 3D, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos.

• Softwares de Compatibilidade
Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI, PhysX, e o Microsoft DirectX 10.

• Visualizador 3D
Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


Não bastasse tudo isso, recentemente a NVIDIA ampliou a tecnologia, com o lançamento do 3D VISION SURROUND (imagem acima), que nada mais é do que ampliar a capacidade para até 3 monitores simultaneamente, formando assim uma ampla Área de visualização em 3 dimensões.

Para saber mais detalhes sobre a tecnologia, leia nossa review completa do 3D Vision aqui.

SLI

Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving)!, que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os grÁficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.

Sendo assim, a tecnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é a mesma: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação grÁfica, destinada a aumentar o poder de processamento disponível nas placas 3D.

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a "engavetada" até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trÁs do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)
Trata-se do método em que se analisa a imagem processada, a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em vÁrias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Este é o modo padrão usado pela configuração SLI usando duas placas de vídeo.

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)
Aqui, cada GPU renderiza frames/quadros inteiros em seqüência - uma trabalhando com os frames ímpares e outra ficando responsÁvel pelos pares, um após o outro. Quando a placa escrava/secundÁria finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.

• AFR de SFR
Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Desta forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessÁrio, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.

• SLI Antialiasing
Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado, pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não hÁ grandes problemas em utilizar o PCI Express na configuração x8.

Atualmente, não hÁ restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que as mesmas possuam o mesmo chip grÁfico. No início, a tecnologia restringia o uso de VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado.

PureVideo

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Desta forma, o usuÁrio poderÁ ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web.

O PureVideo possui os seguintes recursos:

• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU;

• Aceleração WMV de Alta Definição por hardware: Suporte programÁvel ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD;

• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;

• Desentrelaçamento temporal/espacial adaptÁvel: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos;

• 3:2 Correção Pull-down e Correção Bad Edit: Restaura o filme ao seu formato original de 24 fps, evitando o aparecimento de"fantasmas" e "trepidações" durante a reprodução;

• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a Área da tela de reprodução;

• Display Gamma Correction: Detecção automÁtica de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela;

Badaboom

Trata-se da tecnologia utilizada para a conversão de diferentes formatos de streaming multimídia para utilização em outros meios. A grande diferença do Badaboom para a grande maioria dos outros programas existentes no mercado é que, enquanto seus concorrentes utilizam o processador para executar a tarefa, a solução da NVIDIA faz uso de outra tecnologia, a CUDA, ou seja, da GPU. Desta forma, o processo é realizado de forma muito mais rÁpida e eficiente.

Outro benefício é que ao deixar a CPU livre, o usuÁrio poderÁ realizar outras atividades, como por exemplo, navegar pela a web. Na conversão tradicional via processador, a mÁquina fica praticamente inoperante para outras tarefas.

Na versão 1.2.1, o Badaboom Media Converter é vendido por US$30 e possui como um dos grandes destaques a facilidade na interface. O usuÁrio necessitarÁ apenas escolher a origem, ajustar as configurações e definir o destino.

Embora seja focado para os produtos da Apple, como iPhone, iPod e Apple TV, o usuÁrio poderÁ definir ainda uma série de opções de saída, como Xbox 360, PS3, PSP e HTPCs.

{break::Fotos}Abaixo algumas fotos da placa Asus GeForce GTX 465.

{break::MÁquina/Softwares utilizados}Nessa review comparamos a GTX 465 com outros modelos que brigam pela mesma fatia de mercado, além de uma placa de mesmo segmento da geração passada. Os modelos que utilizamos nos benchmarks são: GeForce GTX 465 e GTX 260, Radeon HD 5850 e 5830.

Abaixo, detalhes da mÁquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

MÁquina utilizada nos testes:
- Mainboard ECS X58B-A
- Processador Intel Core i7 920 @ 3.8GHz
- Memórias 6 GB DDR3-1600MHz G.Skill Trident
- HD 1TB Sata2 Wester Digital Black
- Fonte XFX 850W Black Edition

Sistema Operacional e Drivers:
- Windows Seven 64 Bits
- Intel INF 9.1.1.1025
- Nvidia ForceWare 257.21 WHQL: Placas Nvidia
- ATI Catalyst 10.5 WHQL: Placas ATI

Configurações de Drivers:
3DMark
- Anisotropic filtering: OFF
- Antialiasing – mode: OFF
- Texture filtering: High-Quality
- Vertical sync: Always OFF / Force OFF
- Demais opções em Default

Games:
- Anisotropic filtering: 16x
- Antialiasing – mode: 8x
- Texture filtering: High-Quality
- Vertical sync: Always OFF / Force OFF
- Demais opções em Default

Aplicativos/Games:
- 3DMark Vantage 1.0.2 (DX10)
- Unigine HEAVEN Benchmark 2.1 (DX11)
- "FarCry 2" v1.01 (Dunia Engine – DX10)
- "Tom Clancys H.A.W.X" 1.01 (Engine própria – 10.1)
- "World in Conflict" v1.0.1.1 (Masstech Game Engine – DX10)
- "BattleForge" 1.02 (Engine própria - DX11)
- "DiRT 2" (Engine própria - DX11)
- "Just Cause 2" (Engine própria - DX10.1)
- "Aliens vs Predator" (Engine própria - DX11)
- "Batman: Arkham Asylum" (Unreal Engine 3 – DX10)

{break::GPU-Z, Temperatura}Abaixo temos a tela principal do GPU-Z, que mostra algumas das principais características técnicas do modelo.

Temperatura
Em seguida temos os testes de temperatura, mostrando que a GTX 465 (assim como suas irmãs "maiores", GTX 470 e 480), gera bastante calor quando o chip em uso. Apesar de jÁ informado oficialmente pela Nvidia que mesmo com essas temperaturas altas, as placas não serão comprometidas a longo prazo, jÁ que foram desenvolvidas para trabalharem dessa forma.

{benchmark::691}

{break::3DMark Vantage, Unigine Heaven 2.1}Começamos os testes com o 3DMark Vantage, em que vemos uma briga boa entre a GTX 465 e a 5830, com a 5850 na frente com mais de dois mil pontos de diferença, representando cerca de 15%.

{benchmark::692}

Unigine HEAVEN 2.1 - DirectX 11
Com os testes do HEAVEN 2.1 temos uma pequena mudança. A GTX 465 fica entre a 5830 e a 5850, quando a tecnologia tessellation estÁ desativada e, quando ativamos o tessellation em modo normal, a placa da Nvidia encosta na 5850, mostrando que pode estar melhor preparada para essa tecnologia do que a 5830 - pelo menos nesse teste.

{benchmark::693}

{break::Far Cry 2}Como de costume, começamos os testes em games com o Far Cry 2 e, jÁ de início, temos uma boa impressão da GTX 465, que consegue superar a 5850 em mais de 10% na resolução mais baixa.

{benchmark::694}

{benchmark::695}

{benchmark::696}

{break::Tom Clancy´s H.A.W.X}Com o H.A.W.X os resultados da GTX 465 são ainda melhores. A placa supera em mais de 20 FPS na resolução de 1280x1024. Na medida em que as resoluções aumentam, a diferença cai como jÁ era de se esperar. Mesmo assim, a placa da Nvidia ainda se mantém na frente por uma boa margem.

Outro destaque é a melhora de desempenho da GTX 465 sobre a GTX 260.

{benchmark::697}

{benchmark::698}

{benchmark::699}

{break::World in Conflict}Depois de alguns testes em que a placa da Nvidia se saiu melhor, finalmente a 5850 consegue melhores resultados. Mas, diferente dos testes em que a GTX 465 sobressaia, no WiC a diferença a favor da 5850 é bem pequena, não ultrapassando 10%.

{benchmark::700}

{benchmark::701}

{benchmark::702}

{break::BattleForge}Rodando o BattleForge em DirectX 11, a GTX 465 consegue novamente ultrapassar a 5850, mesmo que por uma diferença bem pequena. Na comparação com a 5830, a GTX 465 leva uma vantagem bem grande como podemos ver abaixo.

{benchmark::703}

{benchmark::704}

{benchmark::705}

{break::DiRT 2}Assim como aconteceu com o WiC, com o DiRT2 novamente a 5850 toma a dianteira, agora com um pouco mais de distância. Reparem que no teste de 1680x1050 a GTX 465 faz um resultado inferior a 1920x1080. Realizamos esse teste três vezes para ter certeza que não tinha acontecido nenhum outro problema. Tudo indica que seja algo relacionado aos drivers.

{benchmark::706}

{benchmark::707}

{benchmark::708}

{break::Just Cause 2}Com o Just Cause 2 finalmente temos um teste onde a 5830 consegue superar a GTX 465, mesmo que por muito pouco.

Se compararmos a GTX 465 com a 5850 a diferença é ainda maior, com média superior a 30% de vantagem para a placa da ATI.

{benchmark::709}

{benchmark::710}

{benchmark::711}

{break::Aliens vs Predator}Com o novo teste de benchmark do Aliens vs Predator em DirectX 11, a placa da Nvidia consegue superar ambos os modelos da ATI, colocando margem de 20% sobre a 5850 que, por sua vez, coloca algo parecido sobre a 5830.

{benchmark::714}

{benchmark::715}

{benchmark::716}

{break::Batman: Arkham Asylum - PhysX}Como não poderia deixar de ser, fizemos testes com o Batman rodando com a tecnologia de física PhysX ativada e desativada. O resultado, como jÁ era de se esperar, dÁ vantagem para as placas da Nvidia em ambos os casos, mas com diferença mais acentuada quando utilizada a tecnologia PhysX ativada. Afinal, as placas da ATI não possuem suporte via hardware, diferente das placas da Nvidia.

{benchmark::712}

{benchmark::713}

{break::Custo x benefício}Para finalizar, fizemos um comparativo de custo x benefício para ver qual VGA é a melhor solução quando analisamos desempenho por preço cobrado.

O calculo funciona da seguinte forma, somamos o número total dos testes em games (exceto o Batman, devido à ausência de suporte ao PhysX nas Radeons), pela quantidade de testes feitos, chegando assim ao desempenho médio de cada placa. Em seguida dividimos o desempenho médio pelo preço da placa (média dos preços atuais em dólares: GTX 465 - US$279, 5850 US$ 299 e 5830 US$ 239). Com isso chegamos aos números abaixo, sendo que quanto maior for o resultado, melhor a placa em se tratando de custo x benefício.

Como podemos ver a 5830 é a pior opção dos modelos testados, ficando a 5850 em segundo lugar, e a GTX 465 em primeiro lugar.

{benchmark::717}

{break::Overclock}Um grande diferencial da GTX 465 é seu poder de overclock. A placa consegue aumento de 20% nos clocks sem grandes problemas e, dessa forma, seu desempenho aumenta junto.

Utilizamos um software específico para overclock (Afterburnner), jÁ que o software da Asus possui limitações de segurança e que, no caso específico desse modelo, não tira grande proveito do poder de overclock da placa. Como podemos ver abaixo na tela do GPU-Z, colocamos o core a 800MHz, os shaders a 1600MHz e as memórias a 3600MHz (1800x2). Vale ressaltar que, para isso, tivemos que desbloquear o vcore e aumentÁ-lo para 1050MHz. Outro ponto a ser destacado é que a temperatura da placa, quando em modo FULL, aumentou em 10 graus.

3DMark Vantage
Como podemos ver no grÁfico abaixo, a placa tem um ganho de desempenho impressionante quando overclockada - algo visto em poucos modelos. Afinal, o aumento é superior a 25%.

{benchmark::718}

Aliens vs Predator
Além do testes com o 3DMark Vantage, fizemos testes com a placa overclockada em cima do game "Aliens vs Predator". Dessa forma, podemos ver como ela se comporta em cima de um teste real.

O ganho de desempenho também é excelente. Na casa de 20% - muito bom, em se tratando de overclock.

{benchmark::719}

Asus GeForce GTX 465 para 470
A Asus liberou um patch que transforma suas GeForce GTX 465 em 470. Mas, na verdade, nada mais é do que um "aplicativo" que libera o que foi "capado" na placa.

Infelizmente, quando fomos rodar o aplicativo, ele apresentou um erro, quando fala que o modelo não é suportado. A Asus fez um sistema em que apenas as placas da empresa podem rodar esse aplicativo, sendo que o mesmo faz uma consulta na BIOS que, pelo jeito, não estÁ funcionando como deveria. JÁ que nosso modelo é da empresa - diga-se de passagem - é o único modelo, por enquanto, utilizando esse chip.

Abaixo uma screen do erro sobreposto a tela do GPU-Z.


JÁ é possível encontrar na internet guias que ensinam a transformar algumas GTX 465 em GTX 470. Como jÁ destacamos, a GTX 465 é uma GTX 470 "capada", em que alguns modelos tem as mesmas características físicas. Basta atualizar a BIOS que as características "bloqueadas" da placa ficam disponíveis. Dessa forma, o desempenho também aumentarÁ, ou seja, paga por uma GTX 465 (U$ 279) e leva uma GTX 470 (U$349). Bom, não?

Agora, cuidado! esse tipo de mudança remove a garantia da placa. Então, faça a seu próprio risco. O ideal é procurar os modelos que possuem as mesmas características da GTX 470, jÁ que algumas GTX 465 não suportam esse "UPGRADE" para GTX 470.

- Guia do site Romeno LAB501 (traduzido para o inglês com o Google Translate)

{break::Conclusão}Com todo o sucesso que a nova geração de placas da ATI tem feito, a Nvidia precisa muito que seus novos lançamentos alcancem resultados bons na prÁtica. E isso quer dizer que, acima de tudo, precisa de produtos com bom custo/benefício. A GeForce GTX 465 é a primeira placa da arquitetura Fermi a ser destinada ao segmento intermediÁrio de alto desempenho, entrando no mercado para brigar com os modelos Radeon HD 5850 e 5830 - especialmente com a 5850.

Apesar da demora, finalmente a Nvidia tem uma placa para representÁ-la nesse segmento, mesmo com alguns pontos contras, também encontrados nas placas GTX 470 e 480 frente a nova geração da ATI, como o consumo de energia e temperatura. A GeForce GTX 465 se comportou muito bem, conseguindo resultados bem interessantes em vÁrias situações, batendo a 5850 e mostrando, também, que houve uma melhora em cima da versão final dos drivers 257.21 sobre as versões 197.75 beta e 257.15 beta utilizado pelas reviews internacionais.

A favor da Nvidia ainda temos o suporte a algumas tecnologias cada vez mais presentes em games, como PhysX e 3D Vision, ambas tecnologias não disponíveis em placas da ATI. Outro detalhe é que agora a tecnologia 3D da Nvidia suporta três monitores - algo semelhante ao Eyefinity da ATI, mas com o diferencial do 3D.

Mais um destaque desse modelo é que ela pode ser overclockada facilmente com clocks bem acima do padrão. Dessa forma, alcança resultados bem acima dos clocks padrões como vimos nos testes - uma excelente opção para quem deseja dar um UP no desempenho da placa sem gastar mais por isso. Isso se dÁ devido a placa ser uma versão "capada" da 470.

O ponto contra fica sobre o que jÁ foi destacado nas duas placas anteriores da arquitetura Fermi: consumo e temperatura consideravelmente acima da nova geração da ATI. Mas, como jÁ anunciado oficialmente pela Nvidia, não afetarão a vida útil da placa, jÁ que foi desenvolvida para suportar essas situações.

PRÓS
CONTRAS
Assuntos
Tags
  • Redator: Redação

    Redação

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.