GPU: Como funciona? - Parte 1
top of page
Foto do escritorDrano Rauteon

GPU: Como funciona? - Parte 1

Atualizado: 29 de out. de 2023

As GPUs são responsáveis pelo processamento gráfico, ou melhor dizendo, geração de imagens na tela de um dispositivo eletrônico. Estes chips são compostos por milhões ou até mesmo bilhões de componentes em seus circuitos. Diferente de uma CPU, que independente da marca, possui alguns núcleos de processamento, memória cache, e suporta conjuntos de instruções de 32 ou 64 bits, uma GPU é composta por vários circuitos e cada um deles é responsável por uma parte do processamento de imagem. O barramento com a memória pode ir de 16 bits a 512 bits (raramente um fabricante extrapola este valor devido aos altos custos e complexidade do projeto), dependendo do projeto da placa e do modelo de GPU utilizada.

Imagem 1 - O cache de uma GPU é chamado de buffer e a memória RAM pode não ser a mesma utilizada em um módulo de memória compatível com uma placa-mãe.

Neste texto irei explicar várias partes de uma GPU e de uma placa de vídeo e as principais tecnologias que elas incorporam.

GPU é a sigla para Graphics Processing Unit, que na língua portuguesa significa Unidade de Processamento Gráfico, também popularmente chamado de “vídeo off-board”. No decorrer da história da tecnologia foram criadas algumas variações, como você verá no texto abaixo. Estas variações recebem o nome de:


-> iGP (ou iGPU) que significa “integrated Graphisc Processor” - Unidade de Processamento Gráfico Integrado, chamado popularmente de “vídeo on-board”;

-> VPU que significa “Vídeo Processor Unit” - Unidade de Processamento de Vídeo - uma sigla que equivale a GPU;

-> APU, que significa “Accelerated Processing Unit” - Unidade de Processamento Acelerado.


Com isso, vamos a uma breve história dos processadores gráficos.


História das GPUs

Desde os primórdios dos computadores pessoais as placas de vídeo eram necessárias, apesar de que no começo todo o trabalho pesado era feito pela CPU. Não existiam imagens 3D (três dimensões) e os sistemas de cores possuíam poucas cores e tons de cores. A criação de imagens era feita pela CPU e a placa de vídeo tinha o papel de pegar os dados da imagem que eram repassados para o frame buffer de vídeo, monta-los e mandar para o monitor CRT atualizar a tela. Estas placas eram chamadas de dispositivos burros por dependerem quase 100% do restante do sistema, se comunicando com a placa-mãe através da interface ISA, que foi projetada de acordo com as necessidades da época, e, portanto, tinha um barramento paralelo com clocks e taxa de transferência muito baixa.

Imagem 2 - Placa de vídeo Trident TGUI 9400 CXI - Interface ISA e VLB


Na sequência, surgiram as imagens 2D (duas dimensões) e as placas já utilizavam interface PCI, que tinha clock e taxa de transferência mais alta. Estas placas já possuíam circuitos mais completos e complexos para processar imagens e dependiam menos da CPU. Entre os recursos que estas placas integravam estava a interface gráfica dos sistemas operacionais mais trabalhada com desenho das janelas, renderização de textos e até mesmo decodificação de alguns formatos de imagem e vídeo.

Tempos depois vieram as imagens 3D, que eram muito mais complexas e precisavam de uma GPU mais parruda juntamente de uma interface com taxa de transferência bem mais alta que a dos ultrapassados slots PCI. Surgiu então a interface AGP, que era muito superior a seus antecessores. A interface AGP tinha várias versões e por muito tempo foi exclusivo para placas de vídeo.


CURIOSIDADE: Alguns jogos antigos eram em 3D e a CPU tinha capacidade de renderizar formas geométricas mesmo não tendo uma GPU apropriada instalada no computador. A renderização era feita via software e isso sobrecarregava muito o processador gerando um desempenho muito ruim em jogos.


Com a evolução da qualidade das imagens, dos jogos e dos softwares, a interface AGP se tornou lenta e obsoleta. A solução era eliminar barramentos paralelos e introduzir uma conexão ponto-a-aponto com clocks e taxas de transferência muito altas: eis o PCI Express. Atualmente (em 2020) está em sua revisão 4.0. O PCI Express se tornou rapidamente uma padrão da indústria e todas as placas de vídeo atuais possuem esta interface, que também é utilizada para vários outros tipos de placas de expansão.


Por volta dos anos 2000, muitas placas-mãe começaram a surgir com “vídeo on-board”, que eram circuitos simples, e apesar de suportarem aplicações em 3D, não tinham condições de rodar jogos e aplicações mais pesadas com qualidade. Estes adaptadores gráficos são integrados ao chipset e são chamados de on-board ou iGP (integrated Graphics Processor) por virem junto da placa-mãe. Sem dúvidas, os piores chips on-board (em termos de desempenho) eram os das marcas SiS e VIA.

A alguns anos surgiram no mercado as APUs, que foram criadas pela AMD. Estes chips consistiam em uma CPU com uma GPU integrada, o que trazia um bom desempenho (mas que não dispensava uma placa de vídeo de alto desempenho para jogar com qualidade). Com toda a certeza, são melhores que as iGPs.

Todas as placas com socket FM1, FM2 e AM4 (este último lançado recentemente) suportam APUs. A Intel, quando lançou os processadores Core i3, Core i5 e Core i7 também incluiu um adaptador gráfico nos chips, mas que está mais para uma iGP do que para uma GPU integrada, pois o desempenho, dependendo do processador, é bastante ruim. De qualquer forma, para aplicações que não sejam de escritório, convém conectar uma placa de vídeo ao slot PCI Express e, independente do modelo, o desempenho será sempre superior aos modelos de vídeo integrado que foram lançados nas mesmas épocas dos modelos off-board.

Vamos começar pelas informações básicas sobre memória RAM e as principais partes de um chip gráfico: os Shaders, ROPs, TMUs, controladores de RAM, interface com a placa-mãe e o clock.


O desempenho depende do que?


Quando se trata de um processador gráfico, devemos analisar vários fatores para podermos saber o desempenho do produto. A largura do barramento que liga a memória ao chip gráfico, o padrão de memória utilizado, a quantidade de TMUs, ROPs, Shaders, a arquitetura, o clock, entre outros fatores. Vou Explicar cada um deles nesta sequência de artigos. Veja a tela de aplicativo abaixo:

Imagem 3 - 1050 Ti em detalhes no App GPU-Z


Com base nas informações mostradas no CPU-Z, vamos explicar os termos destacados entre as linhas VERMELHAS desenhadas na tela deste aplicativo. Os demais termos não destacados serão explicados em artigos posteriores.


Clock


Sem dúvidas, o clock num chip deste porte é essencial, pois é ele que vai definir o ritmo de processamento e o sincronismo entre os circuitos. É válido lembrar que, uma placa de vídeo possui um cristal de clock que gera uma frequência de alguns Mhz (MegaHertz). Este sinal vai para dentro do chip, num circuito chamado PLL. No PLL, este sinal de alguns Mhz é utilizado para gerar a frequência de cada parte do circuito (controlador de memória, shaders, ROPs, TMUs, várias outras unidades de processamento específicas, núcleos de processamento e o controlador PCI Express - ou outra interface obsoleta, caso seja uma placa de vídeo off-board). Portanto, cada parte do circuito trabalha com um "ritmo" diferente.

Abaixo, um arquivo ODT com uma explicação complementar sobre clock.

Complementando esta parte sobre Clock, as GPUs atuais possuem avançados sistemas de gerenciamento de energia, portanto não se assuste caso sua GPU esteja operando na faixa dos míseros 100 Mhz, pois ela está apenas poupando energia em um momento de ociosidade. Também há o modo "Boost" (veja no GPU-Z - Imagem 3), que eleva o clock para um valor acima do usual para a placa quando há uma demanda de processamento muito grande em jogos, por exemplo.

Caso queira saber mais detalhes sobre Clock, CLIQUE AQUI!

 

Shaders


CURIOSIDADE: Traduzido para o português, Shader significa "sombreador".


São códigos que foram incluídos em jogos do final dos anos 1990 pra cá e servem para gerar efeitos diversos na imagem. Placas anteriores a criação desta tecnologia não rodam jogos que empregam estes códigos. A vantagem dos shaders é a flexibilização no projeto do jogo. Estes shaders são processados por circuitos específicos.

A alguns anos atrás existiam dois tipos de unidades de processamento num chip gráfico, as Vertex Shader Units, responsáveis pelo "sombreamento de vértices" e as Pixel Shader Units, responsáveis pelo "sombreamento de pixels". Abaixo, a explicação dos dois tipos de código:


-->> Vertex Shader: É utilizado em jogos e outras aplicações gráficas quando é necessário mover muitos polígonos, mudar a forma de objetos, aplicar muitos detalhes, coisas que não ficariam excelentes utilizando apenas texturas ou que seriam complexas demais para serem trabalhadas individualmente. O Vertex Shader trabalha recebendo primitivas gráficas da CPU e montando-as para formar o cenário. Exemplos de aplicação do Vertex Shader são os cabelos de personagens e movimentação de folhas de árvores, mato e grama de acordo com o vento.

É válido lembrar que, Vertex significa “vértice”, que é o ponto de encontro das arestas. Um polígono é feito de várias vértices.

-->> Pixel Shader: É utilizado na etapa de renderização de imagens. O cenário "cru" criado nas Vertex Shaders, retrabalhado na Setup Engine (você verá mais sobre isso lá pelo capítulo 3 desta série), e repleto de polígonos, segue para uma fragmentação, que serve para distribuir o quadro a ser processado em todas as unidades Pixel Shaders. Não é atoa que os Pixel Shaders também eram conhecidos com "Fragment Shaders". O papel das unidades de processamento Pixel Shaders é analisar a estrutura de objetos, as fontes de luz, cores, entre outros fatores para criar sombras, efeitos de luz, reflexos, realçar as cores, entre outros efeitos realistas. O Pixel Shader é a parte que mais exige desempenho de um chip gráfico, pois é o circuito que define a qualidade das imagens que vão ser enviadas para o monitor.


No início desta tecnologia os chips gráficos possuíam uma determinada quantidade de Pixel Shader Units e uma determinada quantidade de Vertex Shader Units. A quantidade de Pixel Shader Units era sempre maior pois, como eu disse anteriormente, é o circuito mais sobrecarregado e é o que define a qualidade das imagens, todavia nem sempre acontecia isso, pois essa sobrecarga também depende muito dos efeitos que foram aplicados no cenário e de acordo com a situação que está sendo executada dentro do game, podendo deixar as unidades de Vertex sobrecarregadas e as unidades de Pixel ociosas ou vice-versa, fazendo com que nem sempre o desempenho do chip gráfico seja ideal.

Pensando nisso, os engenheiros resolveram criar circuitos que processam tanto os 'sombreadores de vértices', quanto os 'sombreadores de pixels'. Estas unidades podem ser programadas pelo jogo ou software em execução de acordo com a necessidade de utilização de cada um dos dois tipos de shader. Os shaders passaram a ser unificados, ou seja, são pequenos processadores programáveis de cálculos de ponto flutuante. Essa unificação veio junto do lançamento da API DirectX 10, e apesar de não serem relacionadas diretamente, as duas tecnologias se encaixaram perfeitamente.

--> Geometry Shader: É um outro tipo de conjunto de instruções de shader voltado para a criação de grupos de vértices que também são processadas pelas Shader Units unificadas, fazendo com que o desenvolvedor possa criar um cenário com muitos objetos diferentes sem sobrecarregar a CPU, pois é nela que são geradas as primitivas gráficas que serão utilizadas para montar o cenário "cru" nas Vertex Shaders. As Geometry Shaders deram a possibilidade de criar, por exemplo, florestas sem repetir a fisionomia das arvores e plantas e sem dificultar tanto o projeto.

Fazer diversificação de objetos é possível via software, mas isso sobrecarrega a CPU e gera um gargalo em todo o hardware. Com as instruções Geometry Shaders implementados no DirectX 10, tudo o que o desenvolvedor precisa fazer é criar vários códigos Geometry Shader para gerar vários objetos diferentes, e adicionar um parâmetro para as Shader Units executarem estes códigos numa ordem específica.


Com a criação dos shaders unificados vieram os CUDA Cores da nVidia, e os Stream Processors da AMD. Estas duas tecnologias são as arquiteturas de shaders unificados utilizadas atualmente, mas cada uma com suas peculiaridades e funções.

Na Imagem 3, vemos que a 1050Ti possui 768 Shaders unificados. Nos artigos seguintes, veremos as explicações sobre CUDA Cores e SMs.

 

TMU


É a sigla para “Texture Mapping Unit”, que em Português significa "Unidade de Processamento de Texturas". As TMUs trabalham em conjunto com as Shader Units e são responsáveis por carregar e aplicar texturas nas imagens. A pesar das TMUs serem circuitos bem mais simples que os Shader Units, elas podem limitar o desempenho caso filtros de textura, como o Anisotropic Filtering, sejam ativados. Esta limitação se agrava caso a comunicação com a memória seja estreita (ocasionando baixa taxa de transferência).

Na Imagem 3, vemos o termo "Texture Fill Rate", que é justamente a capacidade de processamento de textura. Para isso temos o "Texel".

Um texel é um elemento de textura ou um pixel de textura, sendo a unidade fundamental de um Mapa de Textura. As texturas são representadas por matrizes de texels que formam o espaço de textura.

Na imagem 3, vemos que a 1050Ti possui 48 unidades TMU e 64,4 GigaTexels por segundo de capacidade.

 

ROP


É a sigla para “Raster Operation Units” ou "Raster Operation Pipelines", que em português significa "Unidade de Operação Raster". Ao final do processamento de imagens, elas vão para as unidades ROPs que se encarregam de aplicar outros filtros, cálculos de profundidade (Z-buffering) e o algoritmo de anti-aliasing, que será explicado mais adiante.

Chips gráficos mais antigos, tipo o chip NV40 (arquitetura Curie da nVidia) possuíam uma arquitetura balanceada, isto é, o circuito é construído com a mesma quantidade de TMUs, ROPs e Shaders. As arquiteturas atuais possuem quantidades diferentes de cada circuito para distribuir mais o uso de recursos internos. Processadores gráficos que são construídos com poucas unidades ROPs perdem desempenho ao ativar filtros de anti-aliasing, portanto, é melhor desativar estes filtros neste caso.

Na imagem 3, vemos o termo "Pixel Fill Rate", que, de certa forma, é a capacidade de processamento raster. Para isso, temos o famoso "Pixel". O pixel é a menor parte de uma imagem, portanto são matrizes destes pequenos pontos que formam a imagem no display dos aparelhos eletrônicos. Quando é aplicado um filtro AA, por exemplo, as ROPs tem o trabalho de aplicar um degrade de cores mais uniforme nos pixels para reduzir ou extinguir os serrilhados formados na imagem.


CURIOSIDADE: ROP também pode significar "Raster Output Unit" ou "Render Output Pipelines", que significa "Unidade de Saída de Rasterização". Os dois significados estão certos, pois as ROPs "finalizam o processamento 3D". Junto das ROPs é possível encontrar o Z-Buffer e o RGB Buffer.

O Z-Buffer consiste num pequeno bloco de memória responsável por gerir as coordenadas de profundidade de imagens e gráficos em 3 dimensões. Tanto o Z-Buffer quanto o RGB Buffer, você verá mais informações se ler os próximos artigos desta série.


CURIOSIDADE: Buffer, na informática, pode ser descrito como um pequeno bloco de memória física feito para armazenar de forma temporária informações que estão sendo transferidas.


Na Imagem 3, vemos que a 1050Ti possui 32 unidades ROP e 42,9 GigaPixels por segundo de capacidade.


Clique e abra o PDF abaixo para ver mais informações sobre o Fillrate das GPUs:


 

Memória RAM


Placas de vídeo com interface PCI chegaram a utilizar memórias SDR (Single Data Rate), que tinham a metade de taxa de transferência do padrão DDR (Double Data Rate). Em pouco tempo o padrão DDR se tornou popular e então vieram as variações:


SDR

--> Taxa de transferência: 800 MB/s a 1.333 MB/s

--> Clock: de 100 a 166 Mhz.

--> Lançamento: 1993.


DDR

--> Taxa de transferência: 1.600 MB/s a 3.200 MB/s

--> Clock: de 100 a 200 Mhz

--> Lançamento: 2000.


DDR2

--> Taxa de transferência: 3.200 MB/s a 6.400 MB/s

--> Clock: de 200 a 533 Mhz

--> Lançamento: 2004.


DDR3

--> Taxa de transferência: 6.400 MB/s a 17.067 MB/s

--> Clock: de 400 a 1066 Mhz

--> Lançamento: 2007.


GDDR1

--> Taxa de transferência: 1.600 MB/s a 6.400 MB/s

--> Clock: 100 a 400 Mhz

--> Lançamento: 2002.


GDDR2

--> Taxa de transferência: 6.400 MB/s a 9.600 MB/s

--> Clock: 400 a 600 Mhz

--> Lançamento: 2003.


GDDR3

--> Taxa de transferência: 9.600 MB/s a 17.600 MB/s

--> Clock: 600 a 1100 Mhz

--> Lançamento: 2003.


GDDR4

--> Taxa de transferência: Não disponível

--> Clock: Não disponível

--> Lançamento: 2005.


GDDR5

--> Taxa de transferência: a partir de 25.600 MB/s

--> Clock: a partir de 800 Mhz

--> Lançamento: 2008.


GDDR5X

--> Taxa de transferência: 80.000 MB/s a 96.000 MB/s

--> Clock: 2500 Mhz a 3000 Mhz

--> Lançamento: 2016.


HBM

--> Taxa de transferência: 8.000 MB/s

--> Clock: 500 Mhz

--> Lançamento: 2013.


HBM 2

--> Taxa de transferência: 16.000 MB/s

--> Clock: 1000 Mhz

--> Lançamento: 2016.


Quando vemos na Imagem 3 o termo "Bandwidth", é justamente a capacidade de transferência entre memória e controlador do chip gráfico, que no caso da 1050Ti é 112,1 GB/s, sendo 4 GB de memória RAM do tipo GDDR5.

 

Controlador de memória RAM


Este circuito serve para fazer o controle de informações enviadas e recebidas da memória RAM. Ele fica ao redor dos GCPs (que será explicado mais lá na frente), ou seja, nas bordas do chip gráfico. Dentro dele há os circuitos que enviam comandos de leitura, escrita, acesso a colunas e linhas das matrizes de memória, aplicação de endereços, seleção de banco e de chip e as trilhas para transferência de dados, além de, sinal de sincronismo e outros sistemas de controle.

Os chips de memória RAM para placas de vídeo possuem um barramento que vai de 8 bits (no caso de chips muito antigos - para o padrão SDR e alguns DDR), 16 bits e 32 bits.


Um mesmo modelo de chip gráfico pode ser aplicado em circuitos completamente diferentes. Por exemplo, uma nVidia GT730 ligada a chips de memória DDR3 por um barramento de 64 bits com clock de 900 Mhz (1800 Mhz DDR) será extremamente mais lenta do que a mesma GT730 ligada a chips de memória GDDR5 por um barramento de 128 bits com clock de 1250 Mhz (5000 Mhz QDR).


Diferente de uma CPU que possui 1, 2, 3, ou até 4 controladores de memória RAM DDRx, totalizando 64, 128, 192 ou 256 bits de barramento, uma GPU pode ter até 12 controladores de memória RAM com 32 bits cada, como é o caso da arquitetura Pascal, da nVidia, lançada em 2016, onde o chip mais avançado possui 384 bits de barramento.


No caso da 1050Ti detalhada no App CPU-Z (Imagem 3), são 4 controladores de 32 bits cada, totalizando um barramento de 128 bits.


Placas de vídeo on-board (iGPs) possuem apenas um controlador de 32 bits devido a limitação de espaço gerada pelos outros componentes e trilhas da placa-mãe. Já nas APUs e processadores com vídeo integrado, este valor pode subir, mas para apenas 64 ou 128 bits. Lembrando que, a memória RAM nestes casos é compartilhada com a CPU e o padrão de memória (DDR, DDR2, DDR3 ou DDR4) pode variar de modelo para modelo de processador e placa-mãe.


CURIOSIDADE: Na primeira década deste século a AsRock investiu em SidePort de memória RAM para alguns modleos de placas-mãe. Para além da memória RAM compartilhada com a CPU (que variava entre 256 MB e 512 MB, a depender do modelo), a PCB contava com um chip extra, comumente com 128 MB DDR2 667 Mhz ou DDR3 1333 Mhz.

Imagem 4 - Placa-mãe AsRock A780GXH/128M (DDR2). Perceba o chip de RAM ao lado da ponte intermediária AMD 785G


Imagem 5 - As especificações de gráficos


Agora, uma versão DDR3:

Imagem 6 - AsRock M3A780GXH/128M . Perceba que o chip de RAM está coberto pelo dissipador do chipset



Imagem 7 - As especificações de gráficos


Como fazia uso do mesmo barramento, era possível deixar a iGP com apenas os 128 MB integrados ou então recorrer aos pentes de memória instalados, subtraindo até 512 MB da CPU para uso do adaptador gráfico. A real utilidade deste sistema é questionáevel, tanto que foram poucas placas a porta-lo.

 

Interface com a placa-mãe


Agora vamos pra interface de comunicação com a placa-mãe.

Lá na introdução, vimos que as primeiras placas gráficas possuíam uma interface ISA, seguida pela VLB. Ambas eram limitadas. Na sequencia foi utilizado a interface PCI, que também não vingou por limitações na taxa de transferência.

Com o aumento do poder de processamento, foi necessário a criação de interface com maior largura de banda e eficiência, sendo então criada a interface AGP e a PCI Express na sequência. Não me aprofundarei em nenhuma delas neste artigo, e isto se deve ao Hardware Central já ter artigos dedicados para cada uma destas interfaces. Clique nos links abaixo e divirta-se!


Neste tópico trazemos algumas outras informações relevantes sobre as placas de vídeo!


Um pouco de história sobre padrões de memórias RAM


O padrão SDR foi bastante utilizado antes da chegada das memórias DDR, e só após o lançamento delas é que surgiu a versão para placas de vídeo, denominada GDDR (Graphics Double Data Rate – Dupla Taxa de Transferência de Dados Gráficos).

Os chips de memória GDDR2 eram, na verdade, os mesmos chips DDR2 utilizados em placas-mãe, a única diferença era um overclock e um overvolt de fábrica. Os valores de tensão subiram de 1,8 V para 2,5 V, o que gerava mais calor e consumo de energia, e tudo isso só para aumentar um pouquinho a taxa de transferência. Em pouco tempo, o uso de memória DDR2 começou a se popularizar, deixando os chips GDDR2 obsoletos. A única fabricante a utilizar chips GDDR2 foi a nVidia, com as placas GeForce FX 5700 e 5800, lançadas em 2003.

O padrão GDDR3 não foi baseado no padrão DDR3 de placas-mãe, mas sim no fracassado GDDR2. Quem desenvolveu o padrão GDDR3 foi a ATI Graphics em parceria com o órgão regulamentador JEDEC, que define as características de cada padrão. A primeira empresa a dar suporte a estas memórias nos chips gráficos foi a nVidia, com a FX 5700 Ultra. Apesar do lançamento do padrão GDDR4, o GDDR3 permaneceu no mercado por uns 5 anos até a chegada do GDDR5, em 2008.

O fracasso do padrão GDDR4 foi dado pela falta de novas tecnologias, se comparado com seu antecessor. Dificuldades técnicas com a sinalização e interferência eletromagnética fizeram os chips de memória GDDR4 serem limitados aos 500 / 600 Mhz, e mesmo transferindo 4 bits por ciclo (QDR), o padrão GDDR3 já estava estabelecido no mercado e tinha taxas de transferência parecidas, porém transmitindo 2 bits por ciclo de clock. As únicas placas que usaram este padrão foram as ATI Radeon X1950 XTX e 2900 XT.

Memórias GDDR5, apesar da sigla DDR (dupla Taxa de Transferência), também vieram com tecnologia QDR (Quadrupla taxa de Transferência) e tinham clock parecido dos módulos GDDR3.


Até o padrão GDDR3, todos as trilhas de dados que ligam os chips de memória RAM ao controlador do chip gráfico devem ter o mesmo comprimento para que não haja atrasos no recebimento de todos os sinais, fazendo com que os engenheiros tivessem que projetar muitas trilhas em zigue-zaque para que todas tenham o mesmo tamanho. Isso aumentava os custos e o também o Crosstalk.


CURIOSIDADE: O Crosstalk foi eliminado com a tecnologia Clock Data Recovery do padrão GDDR5, que faz com que o controlador de memória do chip gráfico detecte as diferenças de sincronismo geradas pela diferença de comprimento das trilhas e consiga lidar com esses atrasos.


Outra tecnologia incorporada ao padrão GDDR5 foi a de correção de erros, chamada também de ECC (Error-Correcting Code) e muito utilizada em placas-mãe. A primeira arquitetura a suportar ECC foi a Fermi, da nVidia. Quanto mais alto o clock da memória mais erros podem acontecer, e através do ECC, esses erros podem ser corrigidos.

O padrão GDDR5 herdou de seu antecessor fracassado, o GDDR4, duas tecnologias: o DBI (Data Bus Inversion) e o Multi-Preamble, que permitem reduzir os tempos de espera de carregamento, busca e leitura dos dados dos chips.


CURIOSIDADE: Chips de memória DDR3 ainda são utilizados em placas de baixo custo, como por exemplo as placas da linha GT da nVidia.


Ainda do lado da nVidia, os chips gráficos intermediários (GTX1050 e 1060, por exemplo) tem suporte as memórias GDDR5, e nas placas topo de linha (GTX 1080, por exemplo), o suporte é para a GDDR5X. Nas placas de arquitetura Turing (GeForce GTX2080, por exemplo), o suporte é exclusivo pra memórias GDDR6. No lado AMD, as Radeon topo de linha suportam memórias HBM e HBM2, e as intermediárias suportam GDDR5X.

Este foi o primeiro artigo da série, e certamente é apenas o começo. Centenas de tecnologias envolvem as GPUs, e estuda-las é fascinante!


Para mandar sugestões, reclamações, relatar erros de gramática ou no conteúdo, entre em contato via hardwarecentrallr@gmail.com.

 

FONTES e CRÉDITOS


Texto: Leonardo Ritter

Imagens: Leonardo Ritter; Google Imagens

Fontes: Hardware.com; AsRock; Wikipedia (somente artigos com fontes verificadas!)


Ultima atualização: 29 de Outubro de 2023.

O Hardware Central abandonou de vez o Facebook. Não temos mais fanpage e a caixa de comentários que aqui habitava foi chutada pra longe! Não somos Mainstream! Redes socias não combinam com nós! Somos a galera dos livros!

Como também repassamos conteúdo de terceiros, não é justo restringir a cópia! O uso do conteúdo do HC e de toda a internet deve ser livre!

Para relatar erros, incongruências ou sugerir conteúdo, nos chame pelo hardwarecentrallr@gmail.com! Não somos perfeitos, mas sempre é possível melhorar!

© 2024 Hardware Central Tecnologia Entretenimento e Comunicação do Brasil Ltda. Todos os direitos reservados.

Wix Editor / Revisão da web page: 3.2/2022 (20/03/22)

bottom of page