|
Tanto
tempo fa ...
Ricordate
nVidia Riva 128? Fu il primo acceleratore 2D/3D ad avvicinarsi all'allora
irraggiungibile Voodoo (1) di 3dfx, anche se con qualche astuzia ricavata
a scapito della qualita' grafica. Finalmente ripresa dall'immeritato
fiasco dell' NV1 (Diamond Edge) nVidia annuncio' con grande anticipo
il suo roadmap, e in particolar modo focalizzo' l'attenzione dell'opinione
pubblica su due prodotti: l' NV4 che divenne il Riva TNT e su di un
fantomatico NV10, un processore di nuovissima generazione, in grado
da solo di svolgere tutte le funzioni necessarie al disegno di scene
tridimensionali in tempo reale.
La storia la conosciamo tutti, le specifiche del TNT furono ridimensionate,
il passaggio dalla tecnologia 0.35 micron a quella 0.25 porto' un prodotto
intermedio (il TNT2), ed ora, assai in ritardo ma sempre in anticipo
rispetto ai concorrenti arriva l'NV10, con il nome di GeForce 256!
Rivoluzionaria
davvero?
Cosa
diavolo significa quel punto interrogativo? Come si puo' avere dubbi
sulla rivoluzione-nvidia? Beh, a parte il fatto non trascurabile che
avere dubbi e' lo scopo principale di questo sito e' certo che la nuova
piattaforma grafica GeForce 256 abbia portato una (lungamente annunciata)
ventata di aria nuova nel mondo del personal computing e non solo in
quello degli acceleratori video. Tuttavia, leggendo la documentazione
messa a disposizione dal produttore e guardando le immagini proposte
sul sito ufficiale ho avuto la sensazione che ancora una volta (come
se TNT2 e Voodoo 3 non avessero insegnato niente) la "rivoluzione"
sia solo relativa alla forza bruta del processore e non alle funzioni
implementate per l'aumento del realismo. Comunque, non avendo ancora
a disposizione una scheda in prova e' troppo presto per trarre conclusioni
sotto questo punto di vista. In fondo le Direct X 7.0 non sono ancora
pronte in forma definitiva e i primi giochi che potranno sfruttarle
arriveranno, se tutto va bene, solo a Natale.
Vediamo quali sono le caratteristiche del GeForce 256 e perche' il suo
avvento e' cosi' sconvolgente.
Processori
disoccupati
Se ancora
non lo avete fatto, leggete la sezione Evolution
di questo sito, in modo da conoscere la base minima indispensabile sulla
teoria della generazione delle immagini tridimensionali.
Fatto?
Ok, andiamo pure avanti... allora, come sapete la generazione di scene
tridimensionali su di un piano bidimensionale (il monitor) mediante
un personal computer passa per questo fasi ben distinte:
- La fase fisica
- La fase geometrica
- Il setup dei
triangoli
- Il rendering
Le prime due fasi
necessitano calcoli in virgola mobile, le seconde di calcoli sugli interi.
La prima generazione di acceleratori grafici svolgeva solo il rendering
ed in alcuni casi "aiutava" il processore ad organizzare i
triangoli, la seconda (G200&400, TNT 1 & 2, Voodoo 2 & 3
ecc.) introdusse il completo setup dei triangoli sulla scheda video.
GeForce 256 e' il primo esemplare di acceleratore grafico tridimensionale
di terza generazione (tra breve arrivera' anche il Savage2000 di S3)
e svolge in hardware anche la fase geometrica (nota anche come transform
and lighting).
Liberando il microprocessore da uno stadio della generazione dell'immagine
rimmarra' piu' potenza per la gestione delle routines del gioco, per
un'intelligenza artificiale piu' avanzata e per un modello fisico dell'ambiente
piu' approfondito.
Il grafico a lato mostra l'occupazione della CPU con e senza accelerazione
della fase geometrica. Come vedete con GeForce e' richiesto un minore
impegno al microprocessore che percio' ha piu' tempo per dedicarsi a
fare altro.
Inoltre, le capacita' grafiche diventano meno dipendenti dalla potenza
della CPU, permettendo prestazioni impensabili anche su macchine meno
recenti.
Questo sviluppo fa a pugni con il percorso tracciato dai produttori
di CPU, che con l'inserimento di istruzioni SIMD (vedi Evolution)
hanno cercato di potenziare il motore a virgola mobile a singola precisione
dei processori, fino ad ora l'unico responsabile della fase geometrica.
Come hanno preso l'annuncio di GeForce AMD e Intel? Benissimo, dimostrando
di essere dei veri...
Bugiardi!
Immaginate
la vostra azienda impegnata per raggiungere un ben determinato risultato.
Ora immaginate che un'altra azienda se ne esca fuori con un prodotto
che annulla i vostri sforzi. Come vi sentireste? Vi girerebbero un po'?
Dopo alcuni goffi tentativi di screditare questa tecnologia affermando
che i giochi prodotti con l'Hardware Transform and Lighting avranno
tutti lo stesso aspetto ( cosa penso io sull'argomento lo potete leggere
sull'articolo su Direct
X 7.0) Intel e AMD hanno pensato di seguire l'inarrestabile corrente.
Intel dichiara
che "Intel ha lavorato con NVIDIA per modellare il futuro della
piattaforma PC e per fornire nuovi livelli di intelligenza e realismo
nelle simulazioni, nell'intrattenimento e nell'avanzamento della esperienza
Internet [ma sono proprio fissati! ndCarlo]. Il processore Pentium
III, affiancato con l'architettura della nuova generazione come il GPU
di NVIDIA, fornira' drammatici incrementi nel realismo della grafica
3D sulle piattaforme Intel".
AMD e' piu' obiettiva
"Con il nuovo NVIDIA GeForce 256 GPU, avviene un nuovo bilanciamento
nelle risorse di sistema che cambia radicalmente le capacita' dell'architettura
PC. Introducendo nuovo livelli di funzionalita' atti a scaricare il
processore, i progettisti del software potranno focalizzare la potenza
dell' AMD Athlon su altre aree come l'intelligenza artificiale o l'applicazione
di modelli fisici realistici"
La visione di AMD
e' senza dubbio corretta, ma comunque e' evidente che sara' proprio
questa azienda che tanto ha faticato per rimettersi al livello della
concorrenza (riuscendoci per altro benissimo) a soffrire maggiormente
per questa evoluzione. Intel, se non altro, e' ormai abituata (vedi
il caso MMX). Comunque una unita' FPU efficiente, indipendentemente
dalla grafica 3D, male non puo' fare! ;-)
Caratteristiche
tecniche
Ok, ok
ho finito di
girare intorno al punto focale dell'articolo... vediamo le caratteristiche
tecniche del GeForce 256:
- Transform
& Lighting, Setup e Rendering su un solo chip
- Transform
& Lighting completamente su hardware in modo da liberare l'unita'
a virgola mobile del microprocessore
- QuadEngine(TM):
quattro indipendenti pipeline per transformation, lighting, setup
e rendering rappresentano una architettura efficiente in grado di
sviluppare 15 Milioni di triangoli al secondo
- QuadPipe(TM)
256 Bit Rendering Engine: 4 pipeline per i pixel forniscono 4 pixel
per ciclo di clock e fino a 480 Milioni di pixel con filtro anisotropico
al secondo.
- Supporta
fino a 128 MB di memoria locale.
- AGP 4x con
Fast Writes: Oltre all'AGP 4x che verra' introdotto con il chipset
Intel 820 (1Gb/s di banda passante) GeForce dispone della modalita'
FastWrite che permette alla CPU di inviare i dati direttamente sul
bus grafico, senza doverli scrivere nella memoria centrale e farli
copiare poi dalla scheda video. Questa modalita' elimina un collo
di bottiglia e permette una maggiore efficienza nel flusso dei dati.
- Copatibilita'
con le specifiche della televisione ad alta definizione (HDTV).
- RamDac a
350Mhz per risoluzioni fino a 2048 x 1536 a 75Hz.
- Supporto
per memoria veloce: oltre alla normale SDRAM e SGRAM NVIDIA dichiara
il supporto per SDR/DDR ram, ossia la memoria sincrona ad alte prestazioni,
che e' stata candidata come antagonista della Rambus per le piattaforme
Pentium III e che viene ora riciclata per applicazioni grafiche. A
quanto mi risulta, di fatto ancora non esiste.
- Motore bidimensionale
a 256 bit
- Supporto
per tutti i tipi di compressione delle Texture previsti da DX7.0,
e se avete visto il demo di S3 realizzato con il motore di Unreal
con texture di 2048x2048 pixel via S3TC saprete che sarebbe davvero
interessante che questa tecnologia prendesse finalmente piede.
- Accelerazione
DVD con motion compensation a risoluzioni HDTV
- Pieno supporto
per Direct X 7.0 e Open GL ( e conoscendo l'esperienza di NVIDIA e'
presumibile che il driver ICD Open GL sara' qualcosa di spettacolare)
- Supporto
per il Cube environment mapping.
Cube Environment
Mapping
Questo
sistema,che d'ora in poi chiamero' CEM, e' una tecnica, svolta in hardware
da GeForce 256, per gestire in maniera realistica i riflessi presenti
sulla superficie degli oggetti tridimensionali. Il mappare l'ambiente
su un oggetto inizia sempre con la scelta della forma sulla quale l'ambiente
verra' riflesso. Solitamete questa forma e' una sfera (figura a sinistra)
che, in effetti, offre risultati molto buoni (figura centrale). Tuttavia,
oltre ad essere la sfera una forma complessa, questo tipo di approccio
funziona per una scena statica ben definita, ma lo spostamento dell'ambiente
o dell'oggetto introduce distorsioni (figura a destra).
Il
CEM modifica la forma della mappa da una sfera ad un semplice cubo a
sei facce introducendo cosi' un metodo rapido per ottenere riflessi
dinamici sugli oggetti, anche in movimento.
Come si puo' vedere
dalle immagini qui sotto i risultati sono piuttosto impressionanti,
specie considerando che questi effetti sono svolti in hardware e percio'
non compromettono le prestazioni.
Tutto
qui?
Allora
facciamo qualche conto. GeForce ha 4 pipeline per il rendering, contro
le 2 di G400, TNT2, Voodoo3; ha un'architettura a 256 bit contro i 128
di G400 (la struttura dualbus a 256bus non e' propriamente e completamente
a 256bit), TNT2 e Voodoo3. I numeri sulla scheda tecnica fanno impressione:
15 MTriangoli/s e 480MPixel/s valori di tutto rispetto. Come gia' accennato
all'inizio tutto in questo chip grafico fa pensare ad un grande sforzo
per realizzare prestazioni elevate e poco dipendenti dalla CPU, ma le
funzioni per il miglioramento della qualita' delle immagini sono proprio
poche, di fatto solo il CEM e la proiezione delle texture.
Dov'e' Environment Bump Mapping del G400 o il motion blur del T-Buffer?
Non ci sono! Gli unici tipi di Bump Mapping supportati sono il Software
Emboss e il Dot Product, che nonostante siano eseguiti in un singolo
passaggio forniscono una resa visiva ad anni-luce di distanza da quella
del G400, decisamente impressionante.
Questa mancanza di funzioni nuove puo' forse essere imputata al lungo
tempo di sviluppo del GeForce ed e' comunque compensata dall'alto numero
di poligoni generati, che potranno fornire un elevato dettaglio alle
scene 3D.
Chi
lo usera'?
NVIDIA
si aspetta circa 15 titoli per Natale '99 che sfrutteranno la potenza
del T&L ed in particolare The Whole Experience, Shadow Man, Halo,
Midnight GT, e Messiah.
Le software house che supporteranno le funzioni avanzate di GeForce
sono:
Chi
produrra' le schede?
Sul sito
di nVidia c'e' la lista dei produttori che realizzeranno schede basate
sul GeForce, riportata qui sotto con le informazioni presenti sui relativi
siti; cliccate sul collegamento per visualizzare l'annuncio ufficiale:
Un
occhio della testa
Il prezzo
di questo gioiello non sara' dei piu' abbordabili, anche se bisogna
considerare l'elevata quantita' di memoria a bordo (probabilmente sara'
disponibile da subito una versione a 64 Mb).
SharkyExtreme stima il prezzo in un intorno dei 300 dollari.
Concludendo
Nonostante
qualche piccolo difetto (ad essere proprio pignoli, ovviamente) questo
chip e' davvero rivoluzionario. Se i numeri verranno confermati dai
benchmark e se sara' vero che le prestazioni non decadono con le CPU
meno potenti, il GeForce avra' un successo straordinario. Come ho gia'
avuto modo di dire, sono assolutamente convinto che l'uso di hardware
altamente specializzato sia la strada giusta da seguire
11/9/99
Articoli
correlati
Microsoft
Direct X 7.0: ovvero come sbarazzarsi di SSE & 3D Now! e vivere
felici!
3dfx
annuncia "T-Buffering", la tecnologia per il 3D di nuova generazione
Speciale G400
Tutte
le immagini, tranne "Le quattro fasi del 3D" sono (C) NVIDIA
15/10/1999
I primi
BenchMark
Sono stati finalmente pubblicati i primi benchmark di Geforce. I risultanti
sono piuttosto uniformi e dimostrano soprattutto l'elevato grado di
immaturita' dei drivers.
La scheda e' senza dubbio la piu' veloce del mercato, ma non cosi' veloce
(con i drivers attuali) da rappresentare un vero e proprio salto generazionale.
La dipendenza della CPU, seppur minore da quella del TNT2 Ultra e' ancora
molto marcata, e questo era previsto in quanto non ci sono ancora giochi
che supportano il T&L in hardware. Con il Benchamark
Dagoth Moor Zoological Gardens, provato da Tom e predisposto per il
T&L il cpu scaling e' piu' evidente ma ancora non miracoloso.
Il mio "consiglio per l'acquisto" e', per ora di lasciare
perdere il GeForce, specie se siete in possesso di acceleratori grafici
dell'ultima generazione (TNT2, Voodoo3, G400, Rage 128 Pro), il "mostro"
di nVidia e' troppo caro e troppo poco supportato per essere un buon
acquisto.
Comunque sollazzatevi con i primi benchmark:
Tom's
Hardware Guide
GeForce256
and the First T&L-Title
Full
Review NVIDIA's new GeForce256 'GPU'
SharkyExtreme
NVIDIA
GeForce 256 DDR Guide
AnandTech
NVIDIA
GeForce 256 Part 1: To buy or not to buy
Fonti
www.nvidia.com
www.sharkyextreme.com
|