1. BENVENUTO SU CONSOLE TRIBE

    Benvenuto, stai navigando nella nostra community come ospite

    Avere un account su Console Tribe ti permetterà di creare e partecipare alle discussioni e al mercatino, organizzare tornei e partite online, iniziare conversazioni personali con gli altri giocatori del forum e di utilizzare tutte le funzioni di questo sito.

    Registra il tuo account in meno di 5 secondi, se vuoi puoi sfruttare i login social via Facebook, Google Plus o Twitter.

Playstation 5 vs Xbox Series X: le due console a confronto

Discussione in 'Console News, Articoli e Recensioni' iniziata da quetzalcoatl, 18 Marzo 2020.

  1. fos

    fos Tribe Member

    Registrato:
    3 Ottobre 2006
    Messaggi:
    1.141
    "Mi Piace" ricevuti:
    223
    Punteggio:
    173
    Beh, ma c'entra poco col fatto di dire che Microsoft non sa ottimizzare il software, non credi?

    I fatti tali coincidono con quello che ho scritto sopra, il resto sono supposizioni da interpretare e indovinare, altro che fatti inconfutabili come voleva far credere quello che ha cercato di riassumere quel libro. Cioè, parte con "io sono di parte, però c'è un libro che non mente", mentre il periodo e il contesto può aiutare a capire che c'èrano anche motivi legittimi, o strategici, non per forza mirati ad annientare la concorrenza.

    Certo, dubito che Microsoft non abbia cercato di avvantaggiarsi della sua posizione dominante, ma farlo in quel modo quadra poco, e le coincidenze temporali con i cambiamenti ridimensionano la sua "cattiveria". Sul fatto che nei primi tempi fosse indietro lo avevo detto bene, come anche che Carmack volesse avere le mani più dentro possibile al dialogo software/hardware, cosa che, come dicevo, gli fece scrivere in assembly (più diretto di così...) la parte del codice relativa agli shader, che usando le OpenGL appesantiva ulteriormente il gioco (non erano implementati come nelle DX, anche per il motivo che sottolineo da parecchio: I produttori hardware ottimizzavano già da tempo con Microsoft, che su quegli shader ci aveva innovato, se ti pare poco). Poi, dire che Carmack dimostrò... Sì, che aveva un manico che gli altri si sognavano, che faceva rendere le OpenGL più di quello che valevano perché scriveva del codice a basso livello personalmente, cosa che non tutti potevano permettersi, anzi. Mentre Microsoft metteva a disposizioni strumenti che semplificavano di molto il lavoro.

    Questo non cambia gli investimenti e le innovazioni che Microsoft ha apportato dalle DX-6 in poi. Le OpenGL 3.0 avrebbero dovuto, ma non fecero... Questa è la storia. Roba specifica per i giochi la inseguiva cercando di rimanere appetibile. Francamente, dubito che senza l'apporto (e gli interessi, ci mancherebbe) di Microsoft si sarebbe andati avanti con lo stesso passo. Per quello parlavo di Microsoft che dettava e gli altri che inseguivano.

    Sul repato hardware, all'epoca non c'era il duopolio odierno. Alcune sono scomparse con l'avvento della complessità necessaria a gestire un'archittera che non accelerasse solo il 2D, che aveva finito il suo abbrivio, nel senso che si era arrivati ad un livello sufficiente, tanto che se lanciavi bench 2D, Matrox ed S3 stavano avanti a chi era teso al 3D (Addirittura, un periodo ATI demandava il 2D agli shader programmabili, che ancora figurano tra le evoluzioni con la E maiuscola).

    S3 creò anche una tecnica di compressione delle texture molto valida (S3TC, usata anche dal GC/Wii), credo invogliata dai limiti delle proprie schede. Matrox creò il Bump Mapping, altro apporto importante... Agli inizi, quando potevi usarlo solo con le schede Matrox, faceva la differenza. Le sue evoluzioni e/o varianti vanno ancora in giro (normal mapping, parallax mapping ecc...). Matrox vantava anche una qualità 2D superiore, col RAMDAC migliore di ATI/Nvidia. Ricordo che quanto montavi una Matrox vedevi la differenza già nel desktop, pareva brillare senza strafare (ultra-saturazione). ATI aveva una qualità superiore a Nvidia, era una sorta di via di mezzo tra le pure prestazioni e la pura qualità. Ad esempio, ai tempi delle prime GeForce, se impostavi il colore a 32bit quest'ultime avevano una notevole perdita di prestazioni, mentre con le ATI cambiava di poco, e non vedevi le classiche scale dovute alle sfumature con una gamma cromatica limitata. Ora, l'opzione 16/32 si vede rarissimamente, e non ha senso. Ah, per limitare gli artefatti dei 16bit si usava il dithering, che cercava di metterci una pezza, benché impastasse i colori.

    ATI era ben carrozzata nel mutimediale (Famose le sue All in Wonder). La riproduzione multimediale era preferibile alle Nvidia...
    Altre cosette... Il filtro anisotropico a 16x, su una Radeon 8500 pesava sotto il 10%, se lo impostavi su una Nvidia (anche su una 4800Ti uscita dopo) gli spezzavi le gambe. Mi ricordo bene, perché ebbi prima una 8500 poi una 4800Ti, e dovetti adattarmi ad un 4x (che già pesava più del 16 su ATI) per giocare decentemente.

    La Radeon 9700 fu una vera rivoluzione, con le DX9 spinte non ce n'era per nessuno, neanche la successiva GeForce 5800 (famosa come fon per quanto rumore faceva... tirata alla morte per provare ad avvicinare la 9700) fu sufficiente, soprattutto se poco poco usavi il MSAA o c'erano Shader Model 2.0 in giro. Su FarCry, Nvidia dovette dimezzare la qualità degli shader (FP16), ma venne sgamata quasi subito.

    Vabbè, vedendo che qualcuno apprezza, divagavo...


    Tornando all'osso: Il DOS fu limitato da XP seguendo la derivazione server da Win-2000, e su Vista venne creato uno strato fastidioso per cercare di aumentare la sicurezza.
    Tutte le periferiche dovettero richiedere un aggiornamento, da Win-98 a XP come da XP a Vista. Su XP funzionavano molti driver di 2000, come su 7 andavano quelli di Vista (ma ci sono driver per vista che vanno pure con Win-10). Ci fu un cambio di paradigma, in pratica, e attribuire il tutto al bastone tra le gambe alle OpenGL sarebbe riduttivo. Daltronde, si lamentavano particolarmente quelli che avevano anch'essi interesse (il boss Valve, ad esempio), facendo passare il tutto come una limitazione non etica.

    Adesso, non posso sapere quali e quante cose siano vere, ma credo che, al posto di Microsoft, pochi non avrebbero sfruttato - almeno in parte - la situazione.

    Mi viene in mente Apple, che difende l'apertura quando gli conviene, poi fa del tutto per limitare l'installazione di Windows sulle proprie macchine, e ha tentato in tutti i modi di far credere che Android non sia altro che una sua brutta copia. Li distruggeremo in tribunale, diceva Jobs... Tutti buoni, finché non hanno torrette da difendere, eh...

    A riguardo, citerei anche la stessa SONY (era in discorso), per gli innumerevoli tentativi di creare strandard chiusi (da farsi pagare) e chiudere quelli degli altri.
    SONY dovrebbe essere più multimediale, ma Microsoft mi pare sia sempre un passo avanti, no? Supporto per formati multimediali aperti (MKV?), emulazione/compatibilità resa disponibile anche tra architetture diverse. Il 360 aveva processore e una scheda grafica di diversa natura dal botolo. x86-PPC Nvidia-ATI, eppure molti giochi andavano anche a 720p. Tra l'altro, il PPC era pure zoppo, mancava di istruzioni Out of Order e aveva le AltiVec (tipo le SSE2, per capirci) mezze segate (Dicevano che le modifiche erano tutte ottimizzazioni specifiche per i giochi, ma è più la roba che manca...). Entrambe le cose peggioravano la possibilità di emulare, ma ciò non scoraggiò Microsoft. Ripeto, 10MB di roba per estendere la compatibilità con parecchi giochi. Se vi pare poco...
    Come dicevo di là... La PS3 viene emulata su PC da hardware inferiore a quello di una PS5, cosa permessa dal lavoro di smanettoni che sul campo devono fare quasi gli indovini, visto che non hanno a disposizione molti dati utili che SONY sa a memoria. Perché SONY non fa un dono ai propri utenti? Ad occhio, visto quello che ha provato a fare nel passato con i propri formati, e considerando la gelosia "del loro" tipica dei jappo: Se, per assurdo, SONY fosse stata al posto di Microsoft, avrebbe messo fiotte di paletti tesi a difendere le proprie creazioni/proprietà intellettuali.
    Rendiamoci conto che Microsoft, sì, di sicuro pensa pure ai fatti propri, ma se si pensa a quante mani ha in pasta in ogni dove, potrebbe fare molto peggio (es. android paga tipo 10-12 dollari per pezzo a Microsoft per l'uso di sue proprietà intellettuali).

    In breve: Sul discorso etico si potrebbe ipotizzare seguendo varie strade, ma questo non toglie l'esperienza maturata da Microsoft negli anni, e l'inefficienza delle DX9 la considero un frainteso per delle librerie che stavano troppo avanti veramente. Le DX-10, semplicemente non erano all'altezza, erano più aggiunte abbozzate (alcune neanche convenivano) che altro. Un po' come Win ME e Vista, più una cosa da cambiare/evolvere che una vera evoluzione (anche se in Vista, pesantezza e rogne iniziali a parte, uno strato superiore di sicurezza lo aggiungeva).

    Per me, le DX-9 (quante gen di schede ha visto passare?) furono la fine perché inarrivabili dalle OpenGL. Probabilmente Microsoft si sedette sugli allori credendo che non ci fossero molte modifiche da fare, tuttavia, ciò non ha aiutato Le OpenGL a recuperare terreno... Con le DX-11, come con Win-7, è tornato il buon lavoro, l'evoluzione e la longevità (Win-7, fino a non molto tempo fa è stato l'unico concorrente di 10). Le DX-12 non saranno quello che sono state le 9-11, ma se usate bene sgravano, molte feature non vengono (o venivano) usate perché incompatibili - oltre che scomode per le - Nvidia. Con le DX-12U sembrano aver completato il lavoro di quello che avrebbero dovuto essere, e credo che, anche grazie alle console, verranno sfruttate molto meglio...

    Azz, m'è venuto un'altro papiro, meglio andare a dormire. (in questo periodo ho scambiato il giorno con la notte come i bimbi...)
    Ultima modifica: 25 Marzo 2020
  2. Avr86SkNa

    Avr86SkNa Tribe Member

    Registrato:
    28 Giugno 2007
    Messaggi:
    6.059
    "Mi Piace" ricevuti:
    345
    Punteggio:
    512
    Località:
    Napoli
    PSN Tag:
    RealJoJo85
    Vabbè un confronto tra le 2 console sul piano hardware, ma c'è anche il lato estetico cha ha la sua importanza.
    Ma di Ps5 non c'è nulla, solo foto di montature immaginarie, ma niente di ufficiale. Come è possibile?
  3. Kassandro

    Kassandro GBU Giga Banned User

    Registrato:
    19 Settembre 2008
    Messaggi:
    23.981
    "Mi Piace" ricevuti:
    11.215
    Punteggio:
    5.591
    Località:
    Cantù Che Conta
    PSN Tag:
    Kassandro
    Allora, dico quella che è l idea che mi sono fatto al netto di qualunque preferenza personale.

    Ms, per tagliare la testa al toro, riparare ai danni di questa gen, ha puntato tutto sulla potenza bruta. Non che non ci abbia studiato ma ho l impressione che la cosa più importante per loro fosse essere sicuri di avere la macchina più potente.

    Sony mi fa l' idea di avere messo assieme una macchina più studiata, forte della posizione di cui gode.
    Forse non si aspettava una fuoriserie del genere come avversaria, ma dati alla mano la differenza non è così esagerata come sembra (circa la metà di quella tra One e PS4)
  4. Sunny90

    Sunny90 Anti Spam Task Force

    Registrato:
    30 Maggio 2008
    Messaggi:
    11.978
    "Mi Piace" ricevuti:
    3.657
    Punteggio:
    1.333
    Perché la console di fatto ancora non è stata presentata. Secondo me hanno fatto bene, mantengono un po' più di mistero e curiosità negli utenti.
  5. MmK83

    MmK83 Tampax Compak

    Registrato:
    23 Aprile 2007
    Messaggi:
    12.996
    "Mi Piace" ricevuti:
    6.671
    Punteggio:
    2.083
    Località:
    ItaGlia
    Ho come la sensazione che alla fine stiamo dicendo la stessa cosa.Ti assicuro che non volevo affatto filosofeggiare,che molti sviluppatori negli anni si sono lamentati delle DX è un fatto reale.E se si lamenta una persona che ci sbatte il muso tutti i giorni...beh...io la reputo una lamentela attendibile.Mai messo in dubbio che MS investe,io metto in dubbio i risultati di quegli investimenti.Ma essendo totalmente sincero non credo che investa come diversi anni fa nel settore gaming.L'assenza delle esclusive o nuove IP parla chiaro da sola.Sinceramente non ricordo tutto questo gap tra le 8500 e le 4800ti (ti parla uno che era un felice possessore di una 4600ti),ma concordo sul fatto che ATI fece da apripista alle DX9.Volendo essere precisi questo apripista però non fu proprio "indolore" visto che la vera e prima scheda video a supportare decentemente le DX9 fu la 9600pro (che comprai al lancio alla sonorante cifra di 550€...all'epoca era un vero dolore perchè c'era ancora gente che ragionava con la doppia valuta Lira/Euro e quindi si parlava di oltre un milione di lire > DOH) per poi venderla di li a poco perchè supportava si le DX9 ma le prestazioni complessive non erano cosi soddisfacienti purtroppo.Poi per fortuna ATI aggiusto il tiro con la 9700 e consacrò il tutto con la 9800pro (grandissima scheda,peccato per le temperature/consumi).
    Non voglio assolutamente passare per sapiente ma ti racconto semplicemente storie che ho vissuto in prima persona.Assemblando PC,ultimamente rido spesso quando parlando con i clienti mi sento dire "eh però nVidia con l'effetto RTX ha fatto veramente un gran lavoro".E inevitabilmente mi tornano in mente le DX9 e Half Life 2.Qualcuno forse lo ricorderà ma Half Life 2 fu uno dei primissimi giochi a supportare le nuove librerie di MS.Queste librerie erano supportate all'epoca solo sulle ATI (vedi 9600 di cui parlavo prima) mentre nvidia era in ritardo con le proprie GPU con supporto alle DX9 e quindi tutti quelli che avevano nVidia non poterono usare in Half Life 2 i nuovi shader e detto in soldoni non vedevano l'acqua nel gioco con il riflesso del paesaggio superiore.Detto sempre in soldoni vi mostro un paio di screen :
    Utenti nVidia :
    [​IMG]
    Utenti ATI :
    [​IMG]
    Ora come puoi vedere ad oggi (2020) quella di ATI ti sembra "il minimo sindacale"...ma ti posso assicurare che il riflesso dell'acqua nel 2004 come nella foto sotto non era cosi scontato e fece urlare più di una persona al miracolo.Ma perchè ti sto raccontando questa storia?Perchè all'epoca tutti gli utenti nVidia rosicavano perchè loro erano confinati con le DX8 ma attenzione...uscì una mod che postai io sul glorioso (all'epoca) forum di NGI (il post QUI ) su come cambiando (attenzione :asd: ) DUE (2) semplici file di pochi kilobyte...potevi avere gli stessi effetti sulle nvidia pur mantenendo le DX8 e sempre attenzione...con un calo quasi impercettibile di framerate :asd:.Ora ovviamente non sto dicendo che l'effetto RTX può essere fatto allo stesso modo,ma soltanto che dietro (fidati) tutta le bellissime storie che ci raccontano c'è anche TANTO marketing.
    Apple la lascerei fuori perchè ormai sono anni che è palese che fa uso di stupefacenti :asd:
    Che le DX9 siano state la fine è proprio quello che cercavo di dire.Da utente PC anche io spero che le DX tornino ai fasti di un tempo,a tutto vantaggio del PC e quindi mio,ma rimango dubbioso.Sentiamo parlare di "prodigi legati alle DX12" dal 2013 del lancio di One...e sono realmente diventate "ottimizzate" (lato PC) solo da poco più di un anno.Se questi sono i tempi di MS...auguri a tutti.Come giustamente dici se molti utenti sono rimasti sul 7 fino a poco tempo fa (e ti garantisco che c'è ancora chi con driver moddati e altri smanettameti lo usa ancora adesso) per non passare al 10 che di fatto è anche gratis pur comprandolo (su amazon si trovano key della pro a 10€ scarsi,anche se tendenzialmente sui PC che faccio dedicati al gaming monto la LTSC 2019...basata ancora sulla 1809 conosciuta anche come Enterprise S) vorrà pure dire qualcosa no?Cioe si ritorna sempre li col discorso...le "storie" che racconta MS sono belle...ma la realtà sul campo e l'apprezzamento reale degli utenti veri è ben diversa (purtroppo).
  6. fos

    fos Tribe Member

    Registrato:
    3 Ottobre 2006
    Messaggi:
    1.141
    "Mi Piace" ricevuti:
    223
    Punteggio:
    173
    Scusa se parto sempre più o meno così, ma ti confondi sulla 9600. La prima scheda DX-9 fu la Radeon 9700 Pro, la sorella minore era la 9500/Pro, la 9600 uscì dopo, credo con lo stesso ruolo di medio alta che aveva la 9500 dopo che uscì la 9800Pro. La differenza tra Ati-8500 e la serie Nvidia 4x00 era riferita alla percentuale di calo quando usavi il filtro anisotropico (o anisotropo), già la 4400Ti era superiore in generale alla 8500 (io lo tenevo ad 8x, che era un buon compromesso, ma sulle Nvidia non si poteva senza scivolare a terra). Daltronde, la 8500 era uscita per contrastare la GF-3 con un buon rapporto prezzo, qualità e prestazioni.

    Half Life-2 fece vendere parecchie Radeon 9x00, ed era uno dei primi (se non il primo, considerando anche il gioco) titoli di un certo livello sponsorizzati da ATI. Mi sembra di ricordare che la mod aveva una resa una via di mezzo tra le DX-8.1 e le 9. Ad occhio, direi che riguardando l'immagine DX-9 non mi pare uno shader da DX-8.1. Forse Valve non si sia impegnata con lo shader 8.1. Di sicuro quelli usati per l'acqua come la si vedeva sulle Ati erano shader 2, altrimenti Nvidia non avrebbe avuto limiti... Dico ad occhio perché mi pare di rivedere le differenze dal 3D-Mark dal 2001 al 2003 (nella resa dell'acqua). Non ho fatto prove (strano, perché me ne sono passate di Nvidia sotto mano...), ma mi pare di ricordare che le mod per migliorare la resa dell'acqua, effetivamente la migliorassero, ma non fino ad arrivare alla resa in SM-2.0. C'è da dire che gli SM-2 non erano usati solo sull'aqcua.

    Dai, la 9700-Pro viene ricordata come una delle schede migliori della storia. Che ha permesso di giocare bene HL-2, FarCry, e altri titoli che mostravano grafica veramente di livello ben superiore al precedente. Cioè, il 360 è uscito 3 anni dopo. La differenza con le console era imbarazzante in tutti i sensi, non solo la solita risoluzione, che su console neanche se ne discuteva (e le differenze erano ben altre in percentuale, benché le texture non fossero ancora adeguate).

    Sul discorso Microsoft in gennerale: Ricordati da dove siamo partiti. Mica ho detto che è una santa o che non si è mai lamentato nessuno, eh, ma sarebbe "razionale" citare anche tutta la parte che apprezza gli strumenti di sviluppo come la documentazione allegata. Come dicevo, non credo che non abbia mai cercato di avvantaggiarsi della sua posizione, ma dicevo anche che altri avrebbero potuto far peggio. È stata multata anche perché non dava tutte le specifiche delle proprie API per WMP. Non so fino a che punto la cosa sia ragionevole. Resta il fatto che la posizione dominante non le permette di fare parecchie cose (antitrust pronta...), mentre altri chiudono pure il naso approfittando della nicchia.

    Comunque, al netto di tutto, niente intacca le sue competeze nel software. Dopo, è facile ridere delle cappelle su chi deve testare (e a volte cozzare) col tutto, e nessuno (o quasi, non si sa mai...) è immune all'errore. Per altro, certe scelte "di stile" non nascono nel reparto tecnico di Microsoft (tipo la bella presentazione di XBO, parlando di console...), quindi non sono neanche pertinenti.
    Se parli di sviluppatori, vatti a vedere quali e quanti di livello ne ha Microsoft. Fino a qualche tempo fa veniva considerata l'azienda con i programmatori migliori del mondo. Ora, non so se sia calata, ma prima di arrivare al gradino SONY... Non è per offendere SONY, è proprio dire che Microsoft gli sta sotto che offende pesantemente quest'ultima, che vanta un vivaglio da Guinness, nessuno può negarlo.

    Come ho detto spesso: Bisogna vedere se Microsoft vuole metterci veramente il "cuore", ma se c'è la volontà, sottovalutarla non fa emergere l'intelletto dei competitor...

    Ah, sulle OpenGL, con senno di poi, non mi pare che abbiano avuto tutti i limiti che prefiguravano alcuni, no? Le Vulkan stanno andando abbastanza bene, continuando a garantire la portabilità fuori da Windows, e l'impegno di Microsoft...
    Ultima modifica: 26 Marzo 2020
  7. MmK83

    MmK83 Tampax Compak

    Registrato:
    23 Aprile 2007
    Messaggi:
    12.996
    "Mi Piace" ricevuti:
    6.671
    Punteggio:
    2.083
    Località:
    ItaGlia
    Si sorry ho confuso i numeri,sono andato a memoria.Ma quello che ho detto (correggendo appunto il numero da 9600pro a 9700pro rimane invariato).Io comprai la 9700pro al lancio ma rimasi altamente deluso dalle perfomance.Tanto da sostituirla con una FX5900xt di nVidia che sulla carta doveva essere inferiore ma che modificata col bios della Ultra mi ha dato belle soddisfazioni fino alla fine del 2006.

    Ti garatisco che con la mod o con HL2 runnato con le DX9 native non c'era nessuna differenza visiva (te lo potrei anche firmare con nome e cognome :asd: ).La cosa più incredibile è che già all'epoca si parlava di supporto alle DX9 solo su GPU con "hardware all'altezza" ma la mod dimostrò (piccola parentesi sulla mod:la mod non era altro che due file dx9 presi dal gioco originale di HL2 sulle configurazioni in cui c'era una 9700pro e semplicemente rinominati da sostituire sulle configurazioni con nvidia) che tra una gpu nVidia che supportava solo le 8.1 e una ATI 9700pro appunto non vi era nessuna differenza visiva o di perfomance tangibili e che il supporto delle DX9 era solo una questione di accordi commerciali e non una reale mancanza di potenza delle già attuali (attuali dell'epoca) GPU di fascia alta.
    Ultima modifica: 27 Marzo 2020
  8. fos

    fos Tribe Member

    Registrato:
    3 Ottobre 2006
    Messaggi:
    1.141
    "Mi Piace" ricevuti:
    223
    Punteggio:
    173
    Vabbè, ma quanto l'hai comprata la 9700 Pro? Se l'hai sostituita con la 5900XT... C'era già la 9800 Pro, eh.
    Dire che la 9700 Pro non fosse un granché, quando viene considerata una delle schede che hanno fatto la storia. Le DX-9 non erano farlocche, e prima della serie GT-6X00 di Nvidia (quella era una buona uscita, non la serie 5x00), quest'ultima le prendeva di brutto in DX-9. Ripeto, HL-2 non poteva essere identico in tutto e per tutto col path DX-8.1, e il perché te lo spiega anche uno nel thread che hai postato. Nvidia doveva andare a FP16 per forza, FP32 erano inusabili (e neanche disponibili a prescindere, qualora si volesse vedere uno slideshow). FarCry lo avevo già citato, e gli shader sulle Nvidia andavano a FP16. Cioè, dai, non mi verrai a raccontare che una scheda e delle librerie storiche (9700 Pro e DX-9) sono tutto un complotto. Ci sono prove del contrario sparse in ogni dove...
    Non era come la storia di Crysis col path DX-10, dove comunque qualche peletto cambiava, ma in confronto a quello che perdevi...

    Tra l'altro, differenze notevoli o meno, giocare HL-2 sulla serie 5x00 non era proprio il caso. Che fosse ottimizzato ATI mi pare chiaro, che tra DX-8.1 e DX-9 non ci fossero differenze, anche mettendo da parte l'acqua (ma dovrei vedere un articolo serio che fa il paragone profondo anche lì, perché continuo a ricordare che i riflessi non fossero proprio gli stessi), e fosse tutto finto... Ci furono una miriade di articoli a riguardo, come quelli su FarCry, e in pratica tutti i giochi DX9. Dopo, non ho detto che HL-2 fosse il gioco DX9 migliore, basta pensare al path modificato di Crysis...

    Guarda dove stava messa La FX-5950 in confronto alla 9800Pro:
    [​IMG]

    Cioe, la 9800 Pro andava il 50% in più, e la 9700 Pro distava circa il 20% da quest'ultima. Questo quando le 5x00 usavano il path DX-8.1...
    Ora, se giocavi il 90% di giochi DX-8-8.1 poteva starci di preferire una FX-5900, ma se andavi verso il futuro, non ci voleva il senno di poi per capire che quella scheda non era quella giusta...
    Dici di averci tirato avanti bene fino al 2006? Boh...

    Se il discorso partiva dal dispetto Nvidia su Batman, credo di poter affermare che HL-2 fu un'eccezione, che, per quanto indubbiamente ottimizzato in tutti i modi possibili da e per ATI, rimane comunque ben distante da pratiche dispettose tipo non permettere il MSAA sulle ATI su Batman, MSAA che, proprio dalla 9700 Pro in poi, era diventato usabile.

    Se da una parte sembri difendere l'apertura di ogni cosa (e Microsoft, nonostante non sia una ONLUS, ha creato parecchie cose riprese perché buone, non solo perché costretti ad inseguire), dall'altra sembri parteggiare per Nvidia, che da questo punto di vista ha solo da imparare da ATI/AMD... Physx che girava in codice x87 disottimizzato quando non trovava GPU Nvidia? (ora che l'hanno rilasciato. perché non se lo c... più nessuno: Si può vedere bene) Nvidia Works che non piacciono neanche a tutti gli Nvidisti eccetera, eccetera... Basta andare su GPUOpen di AMD per capire la differenza: Tutto disponibile per tutti (col codice sorgente, non il blocco frena GPU AMD che manco si può vedere...), con tanto di indicazioni agli sviluppatori. TreesFX va ovunque e può essere usato da tutti (ne hanno beneficiato anche le console...), così come FidelityFX (col CAS e/o l'upscaling), per cirtare una cosa recente, ma se vai su GPUOpen ci rimani parecchio per capire quante cose e cosa sono... Il motto: The GPUOpen initiative provides access to a comprehensive collection of visual effects, productivity tools, and other content at no cost. Easily shareable and downloadable, GPUOpen enables developers to level-up code and unlock the full potential of software development.

    TessFX viene usata anche in Horizon; Non per dire che AMD lo permette (ci mancherebbe), ma per la sua validità e/o rapporto resa/prestazioni.

    Comunque, mi sa che è meglio lasciar perdere discorsi limitrofi, che rischiano di allontanarci in tutti i sensi. Stavo divagando, mi pare di aver mostrato una buona memoria, che ho dall'uscita delle prime schede acceleratrici 3D (ricordo vagamente anche la guerra del 2D).

    Per torrnare cercando di chiudere: Microsoft più o meno la si conosce, non è una ONLUS, ma manco uno squalo (anche perché non può permettersi di tirare più di tanto).
    Dire che ha da imparare lato software da SONY non è ragionevole, nel modo più assoluto.

    Le Vulkan non vengono limitate da nessuno, anzi, la partenza è stata molto aiutata da AMD (gli conveniva, eh, sia i sui processori che le proprie schede possono dare il meglio quando sfruttate bene. Non per colpa delle DX o di Microsoft, però...), che aggiunge estensioni e feature in continuazione (quello su GPUOpen lo dimostra ampiamente: Ha un sacco di tecnologie già pronte e con tanto di documentazione allegata). Se si pensa che Vulkan sono le nuove OpenGL, almeno sui giochi Nvidia non è più quella che era una volta...

    Vedremo più avanti se e quanto Microsoft avrà di vantaggio nel puro rendering.
    Come curiosità tecnico/ipotetiche: Sembra che XBox usi delle unità castrate della GPU AMD per accelerare l'audio, e che le Full RDNA-2.0 PC abbiano 68CU.
    Ultima modifica: 28 Marzo 2020
  9. MmK83

    MmK83 Tampax Compak

    Registrato:
    23 Aprile 2007
    Messaggi:
    12.996
    "Mi Piace" ricevuti:
    6.671
    Punteggio:
    2.083
    Località:
    ItaGlia
    Ma infatti mai messo in dubbio la qualità della 9800pro ma quella della 9700pro (chiedo ancora scusa per lo sbaglio con la 9600pro ma ripeto che vado a memoria e non cerco su google prima di scrivere,perchè a differenza di molti posso dire "io c'ero").Che sulla carta andava leggermente meno delle 9800pro ho i miei grossi dubbi.Ripeto 9700pro comprata al lancio e provata su diversi PC ma rimasi stupito dalle non cosi eclatanti perfomance su strada rispetto a quanto invece si leggeva sulle principali testate giornalistiche dell'epoca.Sono passato alla 5900xt@ultra non perchè la ritenessi una scheda top a prescindere,ma semplicemente perchè dopo aver speso 550€ di 9700pro con risultati deludenti...spendere un altra cifra simile per comprare la 9800pro e magari avere la sfortuna di trovarmi sempre nella stessa situazione sai...la paura era alta.E ripeto che tu ci creda o no con il bios moddato mi è veramente durata fino alla fine del 2006 (ovviamente all'epoca si parlava in media di 1280x1024 max,io ho giocato con il crt fino al 2007 e sul crt usare risoluzione basse non era cosi drammatico come sui primi LCD).Il problema delle nVidia serie FX in realtà fu solo con HL2...perchè sulla carta anche le FX supportavano le 9.0 (le 9.0a per la precisione) ma nonostante questo in HL2 erano disabilitate.Sinceramente ora su due piedi non ricordo se fosse per un problema con il calcolo fp24 ma ricordo altrettanto bene che invece in Farcry 1 non ho avuto nessun problema (vedi qui per le specs)
    Non ho capito scusa.Cosa c'è di strano in tale effetto?E' un effetto creato da AMD quindi non ci trovo nulla di strano che lo ritroviamo su console visto che sono di fatto macchine AMD :asd:

    Ma infatti mai detto che MS deve imparare da "Sony" (anche Sony fa le sue belle cappelle) ma che Sony non essendo legata a librerie ben specifiche abbia un potenziale di ottimizzazione superiore perchè più "libera".La storia di windows in generale ci insegna che qundo MS inventa qualcosa,ma anche in campi diversi dalle DX,arriva poi qualcuno che dal proprio garage (e non è una battuta) lo fa meglio (vedi i formati di immagine più comune oggi,vedi il tipo di compressione video più comune oggi e cosi via).
    Ultima modifica: 30 Marzo 2020
  10. fos

    fos Tribe Member

    Registrato:
    3 Ottobre 2006
    Messaggi:
    1.141
    "Mi Piace" ricevuti:
    223
    Punteggio:
    173
    Avrai avuto qualche problema di altra natura, o vorresti mettere in dubbio i test di tutta la stampa specializzata (per di più compatibili con i miei risultati)? La 9800 Pro andava circa il 20% in più, era praticamente una leggera evoluzione, più teorica che pratica, andando ad alzare alcuni limiti che la 9800 Pro (ebbi la 256MB) non avrebbe toccato.

    Una rinfrescata alla memoria: https://www.hwupgrade.it/articoli/skvideo/806/ati-r350-la-nuova-soluzione-directx-9_2.html

    Nvidia aveva proprio l'architettura inferiore nelle DX9, non c'è un granché da aggiungere. Dici che in FarCry non avevi problemi? Per poter competere con ATI, Nvidia fu costretta a segare la precisione degli shader (FP16), e la cosa era visibile ad occhio nudo, come era visibile la figuraccia... La 9800-Pro andava bene in tutti i titoli DX9 (benchmark sponsorizzati Nvidia a parte...), mentre con la 5900 Ultra dovevi lesinare con i filtri o sperare nelle DX-8.1. S'era portata dietro le cadute con l'anisotropico e col MSAA, che usati insieme mandavano a picco le prestazioni di tutte le schede Nvidia pre GT-6x00. Giocare senza almeno un MSAA 2x e aniso 8x non era da schede dal costo che hai ricordato, non credi?

    Secondo me, come io ricordo vagamente la lotta delle schede acceleratrici 2D, tu ricordi vagamente quel periodo... L'anisotropico lo ricordo benissimo, mentre tu dicevi di non avere problemi con la 4600Ti. Ad 8x era come se attivassi l'antialiasing, e a quei tempi... C'era gente che si lasciava confondere dalle pure prestazione senza filtri, come prima accadeva con le pure prestazioni delle GeForce 1-2 con i 16bit di colore. Scusa, eh, ma compro una scheda TOP e vado a lesinare sul 16bit, come se la notevolissima differenza non cambiasse nulla. Fino all'uscita della serie GT, ancora, con le Nvidia dovevi scendere a compromessi con la qualità. Ci avevo aperto la parentesi per divagare, ma quella era la verità. Ricordo anche l'HDR delle GT, e la riscossa Nvidia con una demo basata su FarCry.

    A quei tempi presi una X800Ti, che rimandai indietro perché rientrava nelle parecchie Ti troppo tirate che davano artefatti. Presi una X800XT per stare tranquillo. Ati si era fatta un buon nome con la R8500, per l'ottimo rapporto qualità/pretazioni /prezzo. Con la 9700 Pro sfondò prorpio il muro, alla fine della sua era era riuscita a passare avanti a Nvidia, sebbene di poco.

    Quello che bisogna capire bene della filosofia ATI e della forza della 9700 Pro, è che erano considerate schedone non solo per le buone prestazioni, ma soprattutto perché permettevano di giocare di lusso, che significa con MSAA e AF decente, con cadute di prestazioni perdonabili. Questo lo ricordo bene, come ricordo i siti che proponevano sempre test DX-8-8.1 smunti di filtri, per favorire le "pure prestazioni sporche". Se non si capisce questo, ci credo che non sembrano schede rivoluzionarie...

    Comunque, Credo che in quel periodo tu non fossi ancora molto pratico, quindi ricordi non benissimo, benché sempre meglio di chi non ha vissuto quei periodi. Il fatto è che io li vivevo da quache annetto prima (sono del 74), e mi ricordavo meglio anche la storia delle DX ecc...

    Di CRT ne ho avuti finché ho potuto. Samsung Natural Flat 19-21 (Serie NF Aperture Grill, non piatti per modo di dire come gli shadow mask), senza tutti i problemi che ci portiamo dietro da tempo degli LCD, peso e dimensioni a parte, chiaramente. Cioè, ho anche un Philips 32 CRT HD-Ready, che gli appassionati ancora cercano... Praticamente, usato per la maggior parte del tempo con il 360.
    Ha entrate HDMI e Component, entrambe occupate per giocare al meglio giochi che rendevano meglio con la gamma limitata, il component è un Monter Cable (sull'analogico la qualità si sente, se hai usato le vecchie console lo sai...). Contrasto e fedeltà cromatiche inarrivabili dagli LCD di allora, e ancora percepisco una profondità di altro livello. L'ho mostrato a parecchi amici, sia appassionati di video giochi che di film: Sono rimasti tutti impressionati. Appena arrivato, ho passato più mezza giornata per registrarlo a dovere con appositi pattern, il duro erano la geometria e l'overscan, che sono riuscito a rendere accettabili tramite menu di servizio. La rogna peggiore era che, se superavi certi livelli (non assoluti, ma dipendenti dall'insieme dei parametri), il TV andava in protezione e rimetteva i parametri di default. Per me una tecnologia che aveva ancora da dire, ma il costo industriale e di mantenimento/trasporto (pesa quasi 60 chili, però consuma solo 54Watt), aiutato dall'effetto scenografico del sottile... Vabbè, chiudo se no non la finisco per ora.

    Beh, ma lo hai quotato pure... Ho specificato che veniva usato anche da studi di livello per la resa ed il basso impatto sulle prestazioni, e in mezzo c'era anche il chiaramente. Boh, non vedo cos'altro ci hai visto

    Ancora? Perchè continui a mischiare il mondo PC, che tra l'altro ha smussato quei problemi nel momento che i processori cominciavano a ricevere troppe chiamate? La forza bruta era sempre avanzata, la necessità di Mantle, come di Vulkan/DX-12, era in principio dettata dal collo tra processore e processore grafico, non da quello del processore grafico in se, che con driver a basso livello (diretti) fa la sua parte senza troppi problemi, almeno finché gli arriva da lavorare. Quì, lo stereotipo è anche sulle librerie to the metal, come se ci fossero 1000 strati ostruttivi.

    Mi spieghi chi lega Microsoft? Perché non dovrebbe sfruttare ancora meglio sull'hardware chiuso? Ecche... L'ho ripetuto 10 volte, ho fatto l'esempio dell'entrata Microsoft nel mondo console col Dreamcast (Windows CE + DX-6), ho chiesto cosa gli mancasse nell'ottimizzazione, per quale motivo chi lavora sul software da una vita ad alti livelli e con muri ben più duri, dovrebbe aver problemi/limiti con hardware chiuso? Non dovrebbe essere ancora più ottimizzatrice? Se no, mi spieghi il perché?

    Ho detto pure che a criticare chi gestisce lo zoo son bravi tutti, poi mostrano la cuccia del loro cane pulita... Perché chi gestissce uno Zoo dovrebbe avere più problemi a gestire una cuccia?
    Guarda, veramente, non so più come dirlo... Eppure chi è del settore sa cosa si impara gestendo la multitudine, e che quersto non può che portare vantaggi per l'unico, ma per uno strano motivo, che gira che ti rigira non riuscite a spiegare (perché, semplicemente, son chiacchiere da bar), SONY è la maga dell'ottimizzazione specifica.
    Fagli fare un SO per l'hadware variegato del PC a SONY, poi vediamo dove razzo va a pregare... Quella è esperienza a 360 gradi, e se non ci arrivate è perché gli stereotipi creati sul suo SO vi hanno annebbiato la vista, forse conditi da partigianeria di fondo (non c'è niente di male, eh, ma così vi date la zappa sui piedi) che si basa su cose che sembrano quasi acquisite, mentre sono stereotipi irrazionali. Se Microsoft si intende di più di software, si intende di più... Essendo meno assoluti, veramente volete paragonare il know-how sul x86 (ma lavora anche "per" altre architetture) e allegati?

    Oh, io ve l'ho detto in tutti i modi, altro non posso fare. Se non volete capire, rimanete delle vostre idee, ma evitate di rimandarmi le solite storie che non hanno un minimo di fondamenta.
    Addirittura qualcuno se ne esce con "lo sanno trutti che SONY ottimizza meglio", ma come si fa...? Avete confrontato il codice sorgente? Mah... Non più comment!

    Sui formati mi sono già espresso parzialmete, credo possa bastare altrimenti non vado a dormire...
    Ultima modifica: 30 Marzo 2020
  11. MmK83

    MmK83 Tampax Compak

    Registrato:
    23 Aprile 2007
    Messaggi:
    12.996
    "Mi Piace" ricevuti:
    6.671
    Punteggio:
    2.083
    Località:
    ItaGlia
    Pensa che io possedevo lo stesso processore del test di HW su mobo Zephyr (Chaintech...una delle migliori all'epoca per Pentium 4) e purtroppo i risultato nn erano quelli del test.
    Che poi visto che vuoi essere "preciso" il test è stato fatto prima dell'uscita di HL2 (quindi in DX8/8.1) e usando la vecchia gen di gpu nVidia (io parlavo delle 5900).
    Qui trovi un test molto più in linea con i miei risultati sul campo reale : https://hothardware.com/reviews/ati-256mb-radeon-9800-pro-vs-geforce-fx-5900-ultra
    Purtroppo dato che stiamo parlando di cose abbastanza vecchie trovare materiale non è proprio facile.
    Per esempio sempre da un vecchio articolo di HW si trova questo :
    [​IMG]

    Ma ad un occhio attento si nota come il benchmark sia stato fatto con la tech demo dell'e3 2003.Ovvero una build palesemente ottimizzata sulle schede ATI (essendo le prime gpu con supporto alle DX9 ovviamente Valve testava su quelle).Ma il divario su strada a gioco uscito non era cosi grande se non appunto per il fatto che valve relegò tutta la serie FX di nvidia alle DX8.1 e quindi ad occhi guardando il gioco (senza i riflessi dell'acqua) il gioco sembrava notevolmente superiore su ATI (ma per questo ho già scritto sopra).

    Concordo che ATI avesse qualche cavallo in più con i filtri attivi...ma parliamo anche di un epoca in cui applicare un 4x di MSAA ad una risoluzione di 1024x768 non è che ti cambiasse la vita (era cmq troppo bassa la risoluzione per avere i benefici di oggi).Per dire...io di mio quando potevo ho sempre preferito aumentare la risoluzione che usare i filtri che all'epoca erano veramente inusabili perchè impattavano veramente troppo sulle perfomance.

    Qui nulla da dire...siamo in due a rimpiangere ancora oggi i CRT.

    Ti giuro che non avevo capito...e continuo a non capire perchè hai citato il TressFX.Che sia stato inglobato in una sola delle sue versioni nelle DX è semplicemente un modo di fare concorrenza a nVidia con la sua controparte dell'hairworks,niente di più niente di meno.Le librerie rimangono cmq open (ultimo update due mesi fa : https://github.com/GPUOpen-Effects/TressFX)

    Ma anche no.La "forza bruta" lato CPU è sempre mancata,anche oggi purtroppo.All'epoca lato cpu si operava con singoli core e al massimo ti ritrovati l'HT lato intel (HT che per dirla tutta e rimanere in tema HL2 nel source engine ha fatto più danni nella storia di questo motore che portato reali benefici,ricordo ancora un post del 2005 in cui per colpa di un update di windows,valve fu costretta a fare un post pubblico in cui diceva di disabilitare temporaneamente l'HT nelle CPU intel da bios a causa di evidenti problemi di perfomance in attesa di un suo fix (fix che arrivò ma non risolse mai del tutto il problema).Problema che il source engine si porta dietro ancora oggi anche nelle sue versioni del motore più aggiorante :
    Per visualizzare questo contenuto è necessario accettare i cookie con finalità di marketing.

    Questo per dire che all'epoca si credeva che bastasse aumentare il numero dei core.Nonostante oggi (grazie ad amd) abbiamo CPU con oltre 10 core il collo di bottiglia è cmq rimasto perchè a parità di tempo le gpu sono cresciuto molto di più rispetto le CPU.Oggi abbiamo GPU che arrivano a fare (prendendo in esempio solo quelle consumer da gaming) quanto?15 teraflop da sole?Contro CPU che anche prendendo un i9900ks (rimanendo nella pura potenza bruta lato gaming) con overclock sopraffino arrivi a?160gigaflop?LOL.C'è un divario pazzesco.Molto maggiore di quello che c'era anni fa.Quando oggi mi sento dire che "per fortuna non c'è più il collo di bottiglia lato CPU" rido.Senza citare che ti ho già detto in altri post/altri argomenti che Win10 nel multithreading è palesemente rotto rispetto ad altri SO.

    Ma infatti nessuno ha detto che MS non può fare qualcosa ma semplicemente che quello che sta facendo ora non è tutto oro quello che luccica.Hai detto giusto definendo il tutto uno Zoo.E' questo il problema di MS negli ultimi anni che con l'idea del sistema operativo "circoncentrico","compatibile con diversi dispositivi",ha solo creato caos nel caos.E con questo chiudo perchè abbiamo divagato anche troppo.Peace&Love
    Ultima modifica: 30 Marzo 2020
  12. fos

    fos Tribe Member

    Registrato:
    3 Ottobre 2006
    Messaggi:
    1.141
    "Mi Piace" ricevuti:
    223
    Punteggio:
    173
    Quel link lo avevo postato per farti notare che tra la 9700 Pro e la 9800 Pro non ci fosse chissà quale differenza, visto che dicevi che la 9700 Pro ti aveva deluso, mentre la 9800 Pro la consideravi molto meglio. Manteniamo il conteso, please.

    I famosi problemi con i Pixel Shader 2.0 rimasero con la serie FX-5900, benché migliorò parecchio le prestazioni con i filtri. Certo che, se mi posti test stringati che non sfruttano le DX9 come quello, siamo punto accapo. Mettendo pure da parte il partigiano HL-2, (anche se facendo l'opposto nella roba ottimizzata/sponsorizzata Nvidia rimane ben poco...) Con qualsiasi cosa usasse bene le DX-9 (Pixel e Vertex Shader-2) anche le 5900 andavano parecchio male. Col path Nvidia in Far Cry (messo su da Crytek sapendo la questione) si aveva del banding notevole, eppure le prestazioni continuavano a favorire ATI. Vogliamo parlare del 3DMark 2003? All'epoca, soprattutto nei test sintetici, poteva essere preso come riferimento. Infatti, spingendo sui Pixel Shader 2.0 si vedevano tutti i limiti di un architettura non ancora pronta.

    [​IMG]

    Quanto stava già sopra la 9700 Pro? La patch che negava le ottimizazioni sporche da driver già c'era. Questo è quello che accadeva se spingevi, la 9800 Pro arrivava a dare il 250%, mica qualche frame che alla fine non ti cambia la vita. Capisci perché la 9700 Pro era una schedona? Quanto tempo prima della serie GT Nvidia aveva prestazioni decenti con i filtri attivi e feature ancora da usare? Sulla qualità ATI vantava pure la correzzione di gamma nel MSAA, aggiunta dopo anche da Nvidia, ma non di default, perché causava perdite.

    Con un CRT da 19, la risoluzione 1024x768 era usabile, sia per la dimensione in se, che per l'ammorbidire tipico dei CRT (il pixel si fonde meglio con gli altri, per capirsi, e se in parte li rimpiangi come me...). Se giocavo a 1280x960 (la risoluzione proporzionata per un 4:3 era quella) senza AA si notavano più scalette, e la maggior parte della roba non aveva texture adatte a quella risoluzione, quindi le stesse venivano stirate provocando più sgrano. Cioè, siamo su console tribe, dove parecchi hanno giocato senza troppi problemi a 720p su LCD da 32', che per giunta non avevano neanhce la risoluzione 1:1.

    Il rapporto di densità tra un CRT da 19 4:3 (che si mangiava pure un pollice, quindi era da 18) con risoluzione 1024x768, era ben superiore di suo, e con l'aggiunta tendenza al pixellato degli LCD di cui parlavo...

    Sul TressFX seguivo il discorso dell'open e della filosofia AMD, dopo aver asserito che trovavo anomalo il tuo punto di vista generale, che, se da una parte pare dare contro al modus Microsoft, dall'altra no. E comunque, come fai a farci una battuta come se avessi scritto una cosa banale, quando la frase seguiva il discorso, e fugava di suo (o avrebbe dovuto) certi dubbi? Questa era, eh:
    Rende disponibili a tutti tecnologie valide da usare senza limiti. Quello era un esempio sulla validità di una di loro, se ancora non si fosse capito.

    Quale collo è rimasto nelle CPU? Lo sfruttamento del multicore all'inizio no era mica una cosa da ridere, eh, e l'HT quello risultava... Dopo, se ancora oggi non vengono ancora sfruttate bene tecnologie non nate con i mente i giochi, e gli sviluppatori fanno finta di niente... Anche per i Ryzen AMD ci furono rogne all'inizio, adesso la questione è migliorata, grazie anche all'apporto di Microsoft, ai tool AMD che permettono di disabilitarli dall'SO, ed altri escamotage. Cosa limitano, i 60fps? Dove? L'ultimo DOOM arriva a 600fps, sarà poco perché Windows-10 e il collo delle CPU lo frenano...?

    Che senso ha paragonare le pure prestazioni in Floatin Point tra una GPU e il processore centrale?
    Quello deve essere un mix tuttofare, e le CPU si sono evolute eccome nell'IPC. Cioè, ma di che parliamo? Sai quante cose è in grado di fare efficacemente un processore general purpose, che la GPU neanche inizierebbero? Chi lo passa "il grezzo" alla GPU? AMD tiene in piedi una parte azzoppata? Costa più migliorare il tuttofare che la GPU, con tecniche veramente sopraffine per cercare di evitare lo stallo (o ripartenza della pipeline), tra previsioni dei salti, dell'utile al momento da mantenere nella cache ecc... Lascia perdere proprio, che non è il caso.

    Win-10 è rotto nel multi... Ma non mi dire, e quale sarebbe il migliore, ma, soprattutto, perché (test che lo dimostrano, non chiacchiere)? I vecchi di Microsoft non contengono varie patch che supportano la continua aggiunta di tecnologie da parte dei produttori di CPU. Dopo, se mi parli di sistemi unix fatti per usarne migliaia, non c'entra un granché, teniamoci sul consumer e utile per questa categoria.

    Gestire quel caos non è da tutti, infatti è l'unica che ci prova. Paragoni con i metodi migliori di chi neanche partecipa...? Poi, non capisco perché si ritorni sempre sull'argomento PC e software dedicato, dopo aver cercato sovente di lasciarlo nella parte che occupa, magari avrai pensato per convenienza...? Boh...

    Ho forse detto che la filosofia generale di Microsoft è il mantra? Ma neanche per il... Semmai, ho cercato di contestualizzare bene l'argomento capacità tecniche, specificando pure che certe cose "poco eleganti" non sono da attribuire ai tecnici, e chiedendo perché, chi ha un'esperienza nemmeno paragonabile con la rivale consolara, dovrebbe avere più problemi ad ottimzzare un hardware chiuso come una console, soprattutto da quando si usa praticamente il derivato da PC. Peccato che vere risposte non ce ne siano mai state, anzi, più cercavo di recintare il discorso, e più si tornava sul generico e sugli stereotipi senza fondamenta tecniche.

    Se un discorso asciutto non si può fare: Inutile insistere. Avrei dovuto capirlo prima...
    Ultima modifica: 30 Marzo 2020
  13. MmK83

    MmK83 Tampax Compak

    Registrato:
    23 Aprile 2007
    Messaggi:
    12.996
    "Mi Piace" ricevuti:
    6.671
    Punteggio:
    2.083
    Località:
    ItaGlia
    Si ma occhio che tirare fuori il 3D Mark 2003 (un benchmark che tra il 2003 e il 2005 era sottoposto a una vera faida tra ATI e nVidia) non è propriamente attendibile.Cioe stiamo parlando di questo > https://www.hwupgrade.it/news/10035.html
    (Questa non fu ne la prima ne l'ultima patch che cercò di fermare tale faida ma sempre per chiarezza il divario c'era nella realtà su strada ma non era cosi marcato come sopra nel grafico)

    Ma infatti ormai è chiaro che ci capiamo male.Mai detto che non si vedessero le scalettature senza AA ma che a risoluzioni cosi basse i filtri non restituivano (ovviamente) la pulizia che invece troviamo oggi.E qundi in soldoni visti anche i vecchi algoritmi usati di AA il calo di prestazioni proprozionato alla qualità ottenuta a mio avviso non valeva la candela e come ho scritto sopra ho sempre preferito usare risoluzioni più alte (grazie per il chiarimento ma anche io sò che la 1280x1024 è una ris 5:4 ma come anche tu saprai sul crt non c'era un reale problema di "draft" visto che di fatto non c'erano pixel fissi/fisici come sugli attuali LCD visto che il rapporto seppur maggiore era cmq +1/-1).Ripeto che sui CRT con me sfondi una porta aperta...sono della tua stessa opinione e anche io li rimpiango ancora oggi nonostante i "costosi LCD da 240hz".

    Quello che non mi era chiaro è perchè parlare di un effetto introdotto da una azienda che NON è MS e che predilige l'opensource e che invita tra l'altro a usare le Vulkan.Cioe non ho capito perchè hai scritto pagine e pagine di post cercando di spiegarmi che mi sbaglio su MS e le DX e mi hai portato un esempio proprio su quello che sto cercando di dire da 4 pagine.Ovvero che non è SOLO MS capace di fare cose buone lato 2d/3d e che la storia ci insegna che MS mostra al massimo la via con paroloni e marketing ma sono "gli altri" a scrivere realmente la storia.Tutto li.
    Travere il senso al mio discorso è facile,basta porsi l'antica domanda...ma perchè se MS è cosi brava con le sue librerie non crea anche un engine proprietario capace di sfruttarle al 1001%?!?! :)

    Guarda che se cerchi sul web non sono il solo che ne parla di problemi di multicore.Basta cercare 2 minuti eh.Più passa il tempo e si creano CPU con molti core più ci si accorge che il threading in win10 è rotto,io l'ho avevo notato già passando con uno stupido 4 core dopo 5 anni di linux per tornare su win10 nel 2017 sulla distro 1703 proprio per riaffacciarmi al mondo windows data l'esigenza di dover assemblare PC quasi esclusivamente da gioco.La stessa MS ad ogni distro pubblicizza il fatto che "migliorerà" il threading singolo/multiplo.
    Che un engine arrivi a fare 600fps non ci azzecca na mazza con il multithread.Se vuoi ti faccio un video in cui gioco a Quake 2 (esatto proprio quello aggiornato di recente con l'effetto RTX) che tenuto vanilla (senza effetto RTX) gira a 1000fps fissi su machine recenti (e di certo non è un gioco programmato per usare più di un core vista l'età).Sempre per rimanere in tema...lo stesso source engine,il motore di HL2...se inserisci il valore in console cl_fpsmax "0",arriva a fare anche li 1000fps (PC permettendo ovviamente,io per esempio ne facevo già circa 750 nel 2007 su Counterstrike Source...con il mio primo PC a doppia GPU su E6600 portato a 3.6Ghz in day use).
    Parlare di multhreading in engine grafici è un argomento cosi complesso che anche io ammetto di non essere assolutamente preparato,ma ciò non toglie che quello che dico su Win10 è oggettivo.Altrimenti non si parlerebbe nel web di problemi di HT,di problemi di affinità e di problemi CPU priority (tanto da constringere alcuni,i meno capaci,ad affidarsi a programmi di terze parti come processLasso etc),di coreparking e chi più ne ha più ne metta.
    Il "mantra" non viene fatto da MS,MS è un azienda e come tale il suo scopo principale è vendere il più possibile,il vero mantra nasce dagli utenti che CREDONO in MS perchè "hanno letto articoli affascinanti su google" (vedi anche il mio avatar che ho personalmente creato ed è li dal 2013).
    Ultima modifica: 31 Marzo 2020
  14. stefano.pet

    stefano.pet Tribe Member

    Registrato:
    26 Aprile 2018
    Messaggi:
    5.294
    "Mi Piace" ricevuti:
    1.449
    Punteggio:
    397
    Ma tutti sti papiri hanno un nesso con l'argomento del thread o sono pipponi sui pc? Perché nel secondo caso mi risparmio il tempo di leggerli.

    Riguardo l'argomento IT io non credo minimamente alle promesso sull'ssd di Sony: sarà veloce, ma l'azzeramento dei tempi la vedo molto improbabile e voglio toccare con mano prima di crederci. Le prestazioni penso saranno ottime su entrambe, ma è innegabile che Xbox ha potenzialità maggiori. Al momento propendo per Ms, ma bisogna vedere anche i giochi di lancio prima di poter decidere (prezzo e gente online per me non contano). Troppe poche info al momento e tante baggianate spacciate per leak di insiders.
  15. DJ_Jedi

    DJ_Jedi Infrangitore di Sogni - Anti Spam Task Force

    Registrato:
    23 Gennaio 2007
    Messaggi:
    16.669
    "Mi Piace" ricevuti:
    3.520
    Punteggio:
    1.627
    Sono pipponi sui PC.
    Cmq l'SSD di PS5 è veramente e assurdamente veloce, probabilmente caricamenti ingame non ce ne saranno veramente, per il resto non prevedo altri benefici (se non nelle esclusive), dove lo useranno come enorme cache per gli asset.
    A stefano.pet piace questo elemento.
  16. MmK83

    MmK83 Tampax Compak

    Registrato:
    23 Aprile 2007
    Messaggi:
    12.996
    "Mi Piace" ricevuti:
    6.671
    Punteggio:
    2.083
    Località:
    ItaGlia
    Concordo...spero che non richeda troppo spazio "riservato" in modo da evitare di averne troppo poco poi per le installazioni.Hanno già detto quanto sarà grande?Perchè nel caso me lo sono perso soz
  17. DJ_Jedi

    DJ_Jedi Infrangitore di Sogni - Anti Spam Task Force

    Registrato:
    23 Gennaio 2007
    Messaggi:
    16.669
    "Mi Piace" ricevuti:
    3.520
    Punteggio:
    1.627
    875GB.
    Quando dico come cache parlo proprio dei file installati, non serve riservare uno spazio se hai accesso ai file a oltre 5GB/s, però devi lavorare sul motore per lavorare così invece di andare a pescare sempre in RAM, per questo il vantaggio ci sarà solo sulle esclusive, non ce li vedo proprio i 3rd party che faranno porting diretti da PC a modificare gli engine.
  18. MmK83

    MmK83 Tampax Compak

    Registrato:
    23 Aprile 2007
    Messaggi:
    12.996
    "Mi Piace" ricevuti:
    6.671
    Punteggio:
    2.083
    Località:
    ItaGlia
    Si il tuo ragionamento ha senso ma per poterlo fare bisogna anche avere i file completamente aperti (senza pack o compressioni) e con questo concetto rischiamo di avere giochi enormi già dal lancio.
    Gira un rumor sul possibile prezzo di ps5 > 509.99€
    Soz...speravo in 449...
  19. Kassandro

    Kassandro GBU Giga Banned User

    Registrato:
    19 Settembre 2008
    Messaggi:
    23.981
    "Mi Piace" ricevuti:
    11.215
    Punteggio:
    5.591
    Località:
    Cantù Che Conta
    PSN Tag:
    Kassandro
  20. Kassandro

    Kassandro GBU Giga Banned User

    Registrato:
    19 Settembre 2008
    Messaggi:
    23.981
    "Mi Piace" ricevuti:
    11.215
    Punteggio:
    5.591
    Località:
    Cantù Che Conta
    PSN Tag:
    Kassandro
    1, 2, 3, 4.... forse forse qualcosa di vero c e

    Ultima modifica di un moderatore: 31 Marzo 2020