Timeline
Chat
Prospettiva

GeForce 3

serie di chip grafici del Nvidia Da Wikipedia, l'enciclopedia libera

GeForce 3
Remove ads

La serie GeForce 3 è la terza generazione della linea GeForce di unità di elaborazione grafica (GPU) di NVIDIA. Introdotta nel febbraio 2001, [1] ha fatto progredire l'architettura GeForce aggiungendo pixel e vertex shader programmabili, anti-aliasing multicampione e migliorando l'efficienza complessiva del processo di rendering.

Dati rapidi GeForce 3 Graphics processing unit, Debutto ...

La GeForce 3 fu presentata durante il Macworld Conference & Expo/Tokyo 2001 del 2001 presso il Makuhari Messe e realizzò le demo in tempo reale di Junior Lamp della Pixar e di Doom 3 della id Software. In seguito Apple avrebbe annunciato i diritti di lancio per la sua nuova linea di computer.

La famiglia GeForce 3 comprende 3 modelli consumer: GeForce 3, GeForce 3 Ti200 e GeForce 3 Ti500 . Una versione professionale separata, con un set di funzionalità specifiche per la progettazione assistita da computer, è stata venduta come Quadro DCC . Un derivato della GeForce 3, noto come NV2A, è utilizzato nella console di gioco Microsoft Xbox.

Remove ads

Architettura

Riepilogo
Prospettiva
Thumb
Scheda GeForce3 Ti 500

La GeForce 3 fu introdotta tre mesi dopo che Nvidia acquisì le risorse di 3dfx. Venne commercializzata come nFinite FX Engine e fu la prima scheda 3D compatibile con Microsoft Direct3D 8.0. La sua architettura shader programmabile consentiva alle applicazioni di eseguire programmi di effetti visivi personalizzati in linguaggio Microsoft Shader 1.1. Si ritiene che l'hardware trasformazione e illuminazione (T&L) a funzione fissa della GeForce 2 fosse ancora incluso nel chip per l'uso con le applicazioni Direct3D 7.0, poiché il singolo vertex shader non era ancora abbastanza veloce da emularlo.[2] Per quanto riguarda il throughput puro di pixel e texel, la GeForce 3 ha quattro pipeline di pixel, ciascuna delle quali può campionare due texture per clock. Questa è la stessa configurazione della GeForce 2, escludendo la linea GeForce 2 MX più lenta.

Per sfruttare al meglio le prestazioni della memoria disponibile, la GeForce 3 è dotata di un sottosistema di memoria denominato Lightspeed Memory Architecture (LMA). Questo è composto da diversi sistemi che riducono l'overdraw, preservano la larghezza di banda della memoria comprimendo lo z-buffer (buffer di profondità) e gestiscono meglio l'interazione con la DRAM.

La GeForce 3 introduce diverse modifiche architetturali, tra cui il supporto all’EMBM[3][4] (una tecnica introdotta per la prima volta da Matrox nel 1999) e miglioramenti alle tecniche di anti-aliasing. Mentre le precedenti GPU GeForce supportavano esclusivamente l’anti-aliasing tramite supercampionamento (SSAA), la GeForce 3 aggiunge il multi-sampling anti-aliasing (MSAA) e il metodo Quinconce, entrambi più efficienti del supercampionamento, sebbene con una qualità inferiore. Con il multi-sampling, le unità di output di rendering supercampionano solo i buffer Z e gli stencil buffer, ottenendo le informazioni geometriche necessarie a stabilire se un pixel copre più oggetti poligonali, evitando così che lo shader di pixel debba generare frammenti multipli quando lo stesso oggetto occupa tutti i sub-pixel. Questo metodo non funziona correttamente con mappe texture a trasparenza variabile, come quelle che rappresentano una rete metallica. L’anti-aliasing Quincunx applica invece un filtro di sfocatura che sposta l’immagine renderizzata di mezzo pixel verso l’alto e di mezzo pixel verso sinistra, generando sub-pixel che vengono poi mediati in uno schema a croce diagonale, attenuando i bordi frastagliati ma riducendo anche alcuni dettagli dell’immagine. Infine, le unità di campionamento delle texture sono state aggiornate per supportare il filtro anisotropico a 8 tap, rispetto al precedente limite di 2 tap della GeForce 2, consentendo una maggiore nitidezza delle texture distanti.

Un derivato della GeForce 3, noto come NV2A, è utilizzato nella console di gioco Microsoft Xbox . Ha lo stesso clock della GeForce 3 originale ma presenta un vertex shader aggiuntivo.[5][6][7][8]

Remove ads

Prestazioni

La GPU GeForce 3 (NV20) ha lo stesso throughput teorico di pixel e texel per clock della GeForce 2 (NV15). La GeForce 2 Ultra ha un clock più veloce del 25% rispetto alla GeForce 3 originale e del 43% rispetto alla Ti200; questo significa che in alcuni casi, come i benchmark Direct3D 7 T&L, la GeForce 2 Ultra e talvolta persino la GTS possono superare le prestazioni della GeForce 3 e della Ti200, perché le GPU più recenti utilizzano la stessa unità T&L a funzione fissa, ma hanno un clock inferiore.[9] La GeForce 2 Ultra ha anche una considerevole larghezza di banda di memoria grezza a disposizione, eguagliata solo dalla GeForce 3 Ti500.

Tuttavia, confrontando le prestazioni con anti-aliasing, la GeForce 3 è chiaramente superiore grazie al supporto MSAA e all'efficienza della gestione della larghezza di banda/fillrate della memoria.

Confrontando le capacità di ombreggiatura con la Radeon 8500, i revisori hanno notato una precisione superiore con la scheda ATi.[10]

Remove ads

Note

Altri progetti

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads