1. BENVENUTO SU CONSOLE TRIBE

    Benvenuto, stai navigando nella nostra community come ospite

    Avere un account su Console Tribe ti permetterà di creare e partecipare alle discussioni e al mercatino, organizzare tornei e partite online, iniziare conversazioni personali con gli altri giocatori del forum e di utilizzare tutte le funzioni di questo sito.

    Registra il tuo account in meno di 5 secondi, se vuoi puoi sfruttare i login social via Facebook, Google Plus o Twitter.

Tutto quello che non volevo sapere sulle VGA...

Discussione in 'Computer & Technology' iniziata da ConteZero, 20 Aprile 2005.

  1. ConteZero

    ConteZero Tribe Member

    Registrato:
    16 Marzo 2005
    Messaggi:
    7.682
    "Mi Piace" ricevuti:
    1
    Punteggio:
    36
    Intanto un link interessante:
    http://www20.graphics.tomshardware.com/graphic/20050208/index.html

    Perchè vi parlo proprio delle FX6200 ?
    Intanto per mettervi in guardia dalle FX6200 con TurboCache (dette TC), se ve le rifilassero rimandatele indietro!
    Queste MERAVIGLIOSE schede grafiche escono nei "tagli" da 128 e 256Mb di memoria ma la verità è che questa è solo una trovata commerciale!
    La vera RAM a disposizione in queste schedine varia da 16 (si, SEDICI) a 64 (per il modello "marcato" 256) megabyte... il resto della RAM è presa "in prestito" dalla RAM di sistema grazie ad un accrocchio nel driver che alloca la memoria quando serve...
    Ovvio che una cavolo di scheda grafica ha accesso, tramite bus esoterici altamente ottimizzati, a velocità di anche 9 o 10 Gbyte/sec per le schede di fascia bassa (!) il che rende la ram di sistema ESTREMAMENTE lenta al confronto.

    Veniamo alla seconda considerazione:
    Non comprate schede madri PCIe di Intel! come dice l'articolo linkato nVidia ha mostrato chiaramente che i chipset di Intel sono molto carenti come PCIe ed offrono velocità di trasferimento molto inferiori a quelle teoricamente raggiungibili dal bus PCIe per cui vi trovereste (sia con i barattoli di sopra che con le schede video High end che usano estensivamente il bus) limitati da un sistema non all'altezza.

    Terza considerazione:
    Vale la pena prendere una 6200, a patto che non sia TurboCache!
    Si riconoscono perchè hanno EFFETTIVAMENTE della RAM sulla scheda; la meraviglia è che queste schede sono basate sul chipset NV43 (quello delle TurboCache prende il nome di NV44); ebbene, l'NV43 è lo stesso chip delle FX6600!
    Il trucco è nel bios, le 6200 disabilitano le pipeline addizionali (staccano 4 pipeline su otto totali) e bloccano altre feature; per fortuna questo genere di trucchi oramai è noto da ANNI ed esiste un comodo tool per riabilitare quanto nVidia ci ha tolto; basta prendere programmini come RivaTuner per riabilitare le funzionalità "nascoste" nel chip ed ottenere la potenza di una vera FX6600 da una economica FX6200 (NON TurboCache).

    Queste sono le news di oggi!
  2. Ivan

    Ivan Administrator

    Registrato:
    9 Dicembre 2002
    Messaggi:
    17.494
    "Mi Piace" ricevuti:
    33
    Punteggio:
    1.007
    Località:
    H3||
    Io invece penso che nVidia è da un po' di tempo (diciamo quando fecero uscire la Geffo4MX spacciandola appunto per una Geffo4 quando andava meno di una geffo3...ma molto meno) che prende per il culo la gente. Da boicottare per quanto riguarda le schede video a mio avviso (l'ultima novità è stata riprendere lo SLI dalla defunta 3DFX..qualcuno ne sentiva bisogno??) al fine di offrire un sistema si molto performante..ma a che prezzo?
    Chipset nVidia in effetti sono molto ben fatti anche se tra un po' ATi si rifarà anche da quel punto di vista.
  3. ConteZero

    ConteZero Tribe Member

    Registrato:
    16 Marzo 2005
    Messaggi:
    7.682
    "Mi Piace" ricevuti:
    1
    Punteggio:
    36
    Una brutta notizia per tutti (specialmente per Biby :) ) è che anche ATi sta per tirare fuori l'equivalente del TurboCache, namely le ATi Radeon HyperMemory... quindi bene o male tutti e due si stanno buttando a capofitto sul gabbare gli utenti finali; l'unica differenza è che coi prezzi accessibilissimi delle ATi economiche (la X300SE costa veramente poco) queste versioni HM probabilmente saranno schede da 20 euro da mettere per usi "business" mentre le nVidia TC hanno dei prezzi che oscillano fra i 70 ed i 110 euro al pubblico.

    Detto questo segue link che mostra come si modifica una 6200 per farla diventare una 6600 con tanto di benchmark al seguto...

    http://unilimitpc.com/article/sp-6200oc/6600@Eng.htm
  4. ConteZero

    ConteZero Tribe Member

    Registrato:
    16 Marzo 2005
    Messaggi:
    7.682
    "Mi Piace" ricevuti:
    1
    Punteggio:
    36
    E continuiamo il nostro discorso sulle VGA, oggi discutiamo di processi costruttivi.

    Tutti noi sappiamo che oggi come oggi la potenza di una scheda video è data principalmente da due fattori fondamentali... il disegno sulla scatola e le dimensioni della scatola stessa!
    C'è così tanto hype dietro alle schede video (che sono diventate dei marketing tools veri e propri) che non si riesce a stargli più dietro...
    Quindi qui farò un piccolo riassunto per tutti voi, in modo da chiarire un attimino come stanno le cose.
    Le schede video ERANO un fattore marginale nello sviluppo dei PC, il gioco l'ha cambiato anni addietro Matrox con l'uscita della Mystique a cui S3 ha risposto con la Virge.
    Da allora di acqua sotto i ponti ne è passata anche troppa (e si vede) ed ora siamo a livelli impensabili (per fare un conticino un 6800 ha più transistor di un AMD64); l'hype prestazionale ed i soldi che migliaia di utenti hanno versato nelle casse di ATi e nVidia hanno portato ad uno sviluppo abnorme del settore.
    C'è però da dire che i chip grafici sono processori veri e propri, anche se molto specializzati, e questo li ha portati a scontrarsi con i problemi e le limitazioni che anche le CPU stesse stanno incontrando.
    Due o tre anni fa per nVidia o ATi implementare un nuovo chip grafico voleva dire semplicemente attingere al vastissimo know-how di Intel, IBM, AMD o Motorola in campo di miniaturizzazione per fare chip più piccoli e performanti, magari implementandoci qualche nuova tecnologia ispirata da Microsoft che, nel frattempo, costringeva il mercato a continui aggiornamenti sfornando una versione delle DirectX dopo l'altra.
    Oggi la cosa è finita, i chip grafici sono complessi quanto i microprocessori (anche di più visto che un processore è in buona parte cache di secondo livello, che manca ai chip grafici) e così c'è chi si attesta su un processo produttivo abbastanza economico per non far gravare troppo i prezzi di produzione (ATi) e chi invece usa le ultimissime tecnologie, affidando a terzi la produzione vera e propria dei chip (nVidia, che fa produrre ad IBM i chip grafici) con un ovvia conseguenza sui prezzi e sulle prestazioni.
    In questo s'inserisce un problema molto particolare, i Wafer!
    Un wafer è un cerchio di silicio stampato e trattato che contiene decine di "layer" messi uno affianco all'altro; i wafer vanno tagliati e di essi una certa percentuale è usabile, tale percentuale varia dal 30% per i primi "sample" in produzione fino al 70% di quando la tecnologia viene migliorata.
    Vuol dire che su 200 layer su wafer solo 60 diventeranno effettivamente processori mentre gli altri verranno riassorbiti e ritrattati...
    I produttori di CPU usavano alcuni espedienti per migliorare la resa; qualora un core fosse funzionante ma inadatto a girare ad una certa frequenza questo veniva venduto come processore a frequenza inferiore mentre i modelli di qualità superiore venivano venduti come adatti per frequenze superiori.
    La distribuzione statistica (wow, una buzzword!) della qualità è una gaussiana (una distribuzione a "campana") in cui la maggioranza dei core ha una qualità "media" e solo una piccola parte è "superiore" o "inferiore"; questo spiega perchè i modelli di punta sono così rari, per ogni "wafer" solo alcuni esemplari raggiungolo un tale livello qualitativo (e, per dirla facile, sono quelli che di solito stanno al centro nel wafer); Intel aveva la bellissima abitudine di vendere i processori ottenuti dalle zone centrali dei wafer come 'retail' (boxed) e quelli nelle zone laterali del wafer come 'oem'.
    Nel mondo delle schede video questo non è molto fattibile, la confusione è già altissima a causa di un accumularsi di modelli e versioni, aggiungere anche un altro livello di complessità (la velocità del core) rischierebbe di alienare del tutto il mercato, per questo questa pratica è limitata ad al massimo due modelli per stesso chip.
    Segue un piccolo esempio di stessi core con velocità diverse (dati presi da tomshardware.com):

    nVidia Core NV45:
    GeForce 6800 Ultra - velocità del chip 400 MHz - velocità della RAM 1100 MHz
    GeForce 6800 GT - velocità del chip 350 MHz - velocità della RAM 1000 MHz

    nVidia Core NV43:
    GeForce 6600 GT - velocità del chip 500 MHz - velocità della RAM 1000 MHz
    GeForce 6000 - velocità del chip 300 MHz - velocità della RAM 550 MHz

    nVidia Core NV35:
    GeForce FX 5900 Ultra - velocità del chip 450 MHz - velocità della RAM 850 MHz
    GeForce FX 5900 - velocità del chip 400 MHz - velocità della RAM 850 MHz
    GeForce FX 5900 XT - velocità del chip 400 MHz - velocità della RAM 700 MHz

    nVidia Core NV30:
    GeForce FX 5800 Ultra - velocità del chip 500 MHz - velocità della RAM 1000 MHz
    GeForce FX 5800 - velocità del chip 400 MHz - velocità della RAM 800 MHz

    nVidia Core NV36:
    GeForce FX 5700 Ultra - velocità del chip 475 MHz - velocità della RAM 900 MHz
    GeForce FX 5700 - velocità del chip 425 MHz - velocità della RAM 550 MHz

    nVidia core NV31:
    GeForce FX 5600 Ultra - velocità del chip 400 MHz - velocità della RAM 800 MHz
    GeForce FX 5600 - velocità del chip 325 MHz - velocità della RAM 550 MHz

    nVidia core NV34:
    GeForce FX 5200 Ultra - velocità del chip 325 MHz - velocità della RAM 650 MHz
    GeForce FX 5200 - velocità del chip 250 MHz - velocità della RAM 400 MHz

    ATi core R480:
    Radeon X850 XT PE - Velocità del chip 540 MHz - Velocità della RAM 1180 MHz
    Radeon X850 XT - Velocità del chip 520 MHz - Velocità della RAM 1080 MHz

    ATi core R423:
    Radeon X800 XT PE - Velocità del chip 520 MHz - Velocità della RAM 1120 MHz
    Radeon X800 XT - Velocità del chip 500 MHz - Velocità della RAM 1000 MHz

    ATi core RV410:
    Radeon X700 XT - Velocità del chip 475 MHz - Velocità della RAM 1050 MHz
    Radeon X700 Pro - Velocità del chip 425 MHz - Velocità della RAM 860 MHz

    ATi core R350:
    Radeon 9800 Pro 256 - velocità del chip 380 MHz - velocità della RAM 700 MHz
    Radeon 9800 Pro - velocità del chip 380 MHz - velocità della RAM 680 MHz
    Radeon 9800 - velocità del chip 325 MHz - velocità della RAM 580 MHz

    ATi core R300:
    Radeon 9700 Pro - velocità del chip 325 MHz - velocità della RAM 620 MHz
    Radeon 9700 - velocità del chip 275 MHz - velocità della RAM 540 MHz

    ATi core RV350:
    Radeon 9600 Pro - velocità del chip 400 MHz - velocità della RAM 600 MHz
    Radeon 9600 - velocità del chip 325 MHz - velocità della RAM 400 MHz

    In compenso, prendendo a prestito qualcosa dal mondo delle RAM, si è preferito usare un rimedio più drastico.
    Oggi un chip di RAM arriva tranquillamente a 256 miliardi di bit, tutti funzionanti alla stessa frequenza con costi di produzione estremamente ridotti ed un ottima percentuale di chip funzionanti per wafer... il trucco è nel layout!
    Quando viene costruito un chip di memoria vengono fatte più celle di memoria di quelle che servono veramente; appena "sfornate" un sistema automatizzato si limita a "provare" le memorie e disabilitare le celle non funzionanti "coprendole" con quelle in più, ogni singolo core di memoria ha un elettronica che viene "programmata" (blowing fuses ;-D ) in questa fase, il funzionamento è simile a quello degli hard disk, che hanno dei settori riservati da usare come sostitutivi.
    Il problema è che un chip grafico è già abbastanza grosso e complesso per poter risolvere in modo veloce il problema... come fare ?
    I chip sono fatti tutti insieme, infatti i core spesso sono identici anche fra schede diverse, la differenza sta nel firmware/bios.
    Cerchiamo innanzitutto di capire com'è fatta una scheda video; per farla semplice una scheda video è simile ad un motore d'automobile; le attuali schede video sono delle multijet!
    Questo vuol dire che i dati sono trattati parallelamente da diverse unità del tutto identiche ed indipendenti fra loro che poi buttano il risultato del loro 'computo' allo stadio successivo di elaborazione.
    Le varie unità di elaborazione sono estremamente complesse ed occupano una bella area del chip in sè, segue che se c'è un guasto in un area dedicata ad una pipeline grafica basta disabilitare quella pipeline per recuperare un core da vendere, magari, sottocosto, il che è estremamente vantaggioso in termini economici.
    Vediamo qualche esempio di core identici con pipeline disattivate:

    nVidia core NV40:
    GeForce 6800 GT - 16 pipeline - velocità del chip 350 MHz - velocità della RAM 1000 MHz
    GeForce 6800 - 12 pipeline - velocità del chip 325 MHz - velocità della RAM 700 MHz

    nVidia core NV43:
    GeForce 6600 - 8 pipeline - velocità del chip 300 MHz - velocità della RAM 550 MHz
    GeForce 6200 - 4 pipeline - velocità del chip 300 MHz - velocità della RAM 550 MHz

    ATi core R420:
    Radeon X800 XT PE - 16 pipeline - velocità del chip 520 MHz - velocità della RAM 1120 MHz
    Radeon X800 Pro - 12 pipeline - velocità del chip 475 MHz - velocità della RAM 900 MHz

    ATi core R350:
    Radeon 9800 - 8 pipeline - velocità del chip 325 MHz - velocità della RAM 580 MHz
    Radeon 9800 SE - 4 pipeline - velocità del chip 380 MHz - velocità della RAM 675 MHz (*)

    (*) Il core R350 ha anche una differenza nel datapath alla RAM, di cui parleremo in seguito.

    Nota a margine: sia ATi che nVidia per ragioni costruttive abbastanza facili da immaginare ma non documentate raggruppano le pipeline in blocchi da 4 per cui si possono disabilitare e riabilitare le pipeline solo a blocchi di 4 per volta.

    La cosa è abbastanza nota sulle nVidia 6800 che, a quanto pare, nella maggior volte parte in cui si và ad abilitare l'ultimo blocco di 4 pipeline si ottiene immondizia sullo schermo proprio perchè ad essere disattivate sono delle pipeline guaste.
    Non è sempre così, un caso è la Radeon 9500, un core con otto pipeline di cui solo quattro abilitate; il motivo di questa operazione era semplicemente offrire modelli performanti per il segmento value senza ammazzare il più redditizio mercato mainstream e premium; nelle Radeon 9500 era possibile tramite firmware upgrade riattivare le pipeline "dormienti"; la scheda diventava una Radeon 9500Pro o 9800 (a seconda del modello di core).
    A variazioni del numero di pipeline attivate in generale le case produttrici cambiano anche la velocità del chip e della memoria; in questo modo possono separare in modo netto i due prodotti finali; si discosta da questa tendenza il GeForce 6200 che è un 6600 in versione "limitata" del tutto identico al fratello maggiore, in quel caso particolare il 6200 (che è abbastanza raro a trovarsi) è semplicemente un processore "patch", immesso sul mercato per poter introdurre la generazione FX6 (i core NV4x) come una linea omnicomprensiva che spazia dai modelli low-end (la 6200 appunto) agli hardcore (6800 Ultra).
    Notare comunque che quando un produttore di schede video chiede un tot di chip grafici entro una certa data la casa produttrice deve fornirli, per cui spessissimo capita che, per necessità "economiche" alcuni chip di qualità superiore vengano "impostati" come inferiori e spediti alla casa produttrice di schede video come tali, la cosa capita spesso sui modelli di fascia medio-bassa.
    E passiamo quindi al terzo valore di paragone, la RAM.
    Le RAM sono il vero tallone d'achille dei chip grafici attuali; tanto si è fatto per migliorare i processori grafici che alla fine il nodo è venuto al pettine: i chip grafici sono ora abbastanza veloci da doversi fermare per aspettare la RAM.
    In effetti la cosa fa abbastanza impressione a vedersi, mentre su PC ancora combattiamo per le DDR2 a 566 MHz sulle schede video si vedono moduli da 1180 MHz (ovviamente non sono MHz reali in nessun caso, ma equivalgono a SDR a quella velocità) ed il lancio (di cui sopra) delle tecnologie TurboCache e HyperMemory testimonia proprio la sofferenza da parte dei produttori ed assemblatori nel dover spendere cifre sempre più cospique per chip sicuramente performanti ma neanche lontanamente paragonabili ai processori grafici.
    Intanto giustifichiamo il discorso fatto sopra: i chip grafici non hanno cache di secondo livello... semplicemente perchè non saprebbero che farsene!
    Mentre sui processori esiste una regola che è quella dell'80/20 (l'80% del tempo di esecuzione di un programma è localizzato nel 20% del codice del programma stesso) che fa sì che una cache di 512K/1Mb riesca a mantenere fino al 95% delle locazioni di memoria richieste da una CPU i chip grafici non hanno località del codice; un chip grafico usa estensivamente ed in modo molto scoordinato la memoria.
    Un esempio semplice (beh, quasi):
    Immaginate di giocare a Doom3 a 1600x1200 con una scheda video non eccelsa; ad un certo punto vi trovate davanti un muro che vi copre la visuale; mentre avete il muro davanti il frame rate aumenta tantissimo; il fatto è che esistono due tecniche (Z-buffering e S-buffering) che si occupano di eliminare dalla pila di rendering tutti i poligoni che sono nascosti da altri poligoni; se dietro al muro c'è un qualsiasi oggetto giga-mega-ultra complesso non verrà mai renderizzato perchè il vostro fido muro è messo fra voi ed esso e l'algoritmo di S-buffering eviterà che questo "oggettone" venga renderizzato (tanto sarebbe comunque nascosto dal muro).
    Algoritmi come S-buffering o Z-buffering sono discretamente "disordinati" negli accessi alla memoria e, comunque, tutti gli altri accessi a partire dalle textures sono abbastanza "scoordinati".
    Per questo le schede video hanno bisogno di accedere alla memoria in modo veloce!
    I mostriciattoli partoriti dalle menti di ATi e nVidia hanno quindi fatto il possibile per allargare, il più possibile, il bus di memoria, permettendo di spremere al massimo la RAM.
    Per farvi un esempio semplice le schede di fascia alta (X800+ e le varie 6800) hanno un datapath a 256 bit, un Athlon 64 939 ha due datapath da 64 bit... per di più mentre l'Athlon64 si deve "accontentare" di DDR400 qua si parla di DDR1000...
    Quando si vuole fare una scheda a prestazioni inferiori e non aggiornabile basta limitare il datapath sul chip; se il chip ha solo 128bit ovviamente non sarà possibile spremergli più di tanto con la memoria, è il caso del 6600 che ha un datapath a 128bit che lo rende inferiore ai vari 6800, rispetto al quale è superiore in ogni altro aspetto.
    Vediamo ora quali sono gli esempi di chip con datapath a 256 bit di cui solo 128 sono utilizzati (più che altro per sapere quali schede video evitare); sopra di esse metteremo l'equivalente con il datapath "completo":

    ATi core R350:
    Radeon 9800 - velocità del chip 325 MHz - velocità della RAM 580 MHz - datapath 256 bit
    Radeon 9800 SE - velocità del chip 380 MHz - velocità della RAM 675 MHz - datapath 128 bit

    ATi Core RV350:
    Radeon 9600 - Velocità del chip 325 MHz - Velocità della RAM 400 MHz - datapath 128 bit
    Radeon 9600 SE - Velocità del chip 325 MHz - Velocità della RAM 365 MHz - datapath 64 bit

    E quindi parliamo di quello per cui tutti voi ha letto questo interminabile papiro... il tweak!
    Non sono un esperto di tweaking delle schede video, RivaTuner ha dimostrato di essere molto comoda in certi casi (come per esempio 6200 -> 6600 per l'unlocking delle pipeline) e ci sono tool altrettanto validi per ATi ma bisogna tener conto del fatto che quando si cambia qualcosa si rischia SEMPRE.
    Se proprio volete provare queste cosine fate attenzione a raffreddare bene la scheda video.
    Altra nota và fatta per quel che riguarda ATi e la RAM; i driver ATi sono "famigerati" perchè resettano i timings della RAM ogni volta che un applicazione và in full screen... questo perchè ATi ha paura che qualche produttore di schede video possa mettere RAM ad alte prestazioni con un chip economico e tirare fuori prestazioni superiori ai modelli più blasonati; esistono ovviamente "contromisure" per disabilitare questo comportamento.
    A questo si aggiunge un nutrito numero di programmi che permettono di fare pressocchè di tutto, dai tweaker che prendono un BIOS di una scheda video e "clockano" i timings direttamente lì ad una serie smisurata di utility che regolano il modo in cui le schede video fanno il rendering.
    Come consiglio generale posso dire che è meglio investire in un chip grafico di fascia alta con un nutrito numero di megabytes di RAM e andare a clockare più la RAM che il chip grafico in sè (eccezion fatta per l'unlock delle pipeline ove possibile).
    A questo fine includo due link ai datasheet che permettono di calcolare qual'è la frequenza nominale delle RAM, se riuscite a leggere i numeretti stampigliati sui moduli di memoria e a capire chi li fabbrica dovreste essere in grado di capire che chip sono; quello che otterrete non è un valore assoluto, se una DDR è indicata come 600 MHz probabilmente arriverà a 650MHz, se invece è indicata come 550MHz allora 600 MHz sarà già tanto; diciamo che in questo modo potrete valutare meglio che schede video comprare e quali sono i limiti dell'overclock con vi scontrerete.
    Aumentando di un minimo i voltaggi potreste conquistare altri MHz (overvolt della RAM); fate però attenzione al fatto che la RAM riscalderà molto di più!

    Apparte qualche sparuta VGA tutte montano chip grafici di queste due società

    Hynix:
    http://www.hynix.com/eng/02_products/01_dram/down/GDDR.pdf

    Samsung:
    http://www.samsung.com/Products/Semiconductor/Support/Label_CodeInfo/Graphics_code.pdf


    Nota: Le velocità di clock sono quelle indicate "by reference" dal produttore del chip grafico, non è detto che corrispondano sempre a quelle che sono implementate sulla scheda video, molti produttori infatti offrono versioni già "overclockate" del chip grafico.
  5. ConteZero

    ConteZero Tribe Member

    Registrato:
    16 Marzo 2005
    Messaggi:
    7.682
    "Mi Piace" ricevuti:
    1
    Punteggio:
    36
    E termino questo enorme papiro con qualcosa che ancora non avevo trattato in precedenza... un paio di informazioni sulla qualità video...
    Innanzitutto diciamoci la verità, è bello giocare a 150 fps ma tutti ci accontenteremmo di molto meno (diciamo 30 o 40 fps) a patto di avere una qualità grafica effettivamente valida.
    Lì vince di misura ATi, il suo Temporal Anti Aliasing è una marcia in più, la qualità si vede e anche tanto.
    Se invece siete interessati a qualcosa di decisamente diverso (come la possibilità di vedere senza casino i film) allora nVidia è un vincitore sicuro.
    Parliamo di queste due tecnologie:
    Il temporal anti aliasing (che possiamo assimilare al filtro "Temporal softner" di VirtualDub) in pratica, oltre ad effettuare un antialias 4x effettua un interpolazione fra i frames, questa tecnica rende tutto molto più sfumato, a volte a scapito del dettaglio, ma con l'indubbio vantaggio di dare in uscita un immagine più realistica e, cosa veramente importante, un impressione di maggiore fluidità.
    Non voglio andare troppo nel dettaglio perchè non ne sono capace e comunque non ne vale la pena, certe cose vanno viste... comunque l'effetto finale è effettivamente valido a patto di avere una scheda di fascia medio alta che non si pieghi in due nel effettuare quel popo' di calcoli.
    E parliamo del PureVideo che, a mio avviso, è una cosa rivoluzionaria.
    Il PV è un sistema, introdotto nei core NV4x (6800GT e 6800Ultra hanno un supporto parziale) che permette di visualizzare in modo naturale e senza artefatti immagini provenienti da sorgenti interlacciate come alcuni DVD o tv tuner.
    In pratica PV è un algoritmo che riesce a determinare se la sorgente è Progressive o Interlace ed effettua, se necessario, la decimazione (pulldown 3:2 o 2:2) offrendo sui monitor un immagine molto più chiara e realistica.
    Per chi volesse saperne di più ecco l'articolo di AnandTech che spiega la cosa nel dettaglio:
    http://www.anandtech.com/video/showdoc.aspx?i=2305

    Questo ovviamente per aiutarvi a scegliere la scheda video giusta per voi.