Vai al contenuto

PS5 Vs Series X: chi vincerà? Saranno le slide di Cerny, o le spacconerie di Phil Spencer?


Messaggi raccomandati

Ospite Ste_84

non credo qualcuno lo abbia fatto, i 10 teraflops di ps5 sono un "up to (fino a)", che vuol dire che ci puo' arrivare ma non è la norma, a differenza di SeX che ci arriva tranquillamente (a 12) perchè quella è la sua potenza standard.

 

Ecco le prove del chip audio per i dubbiosi :asd:

 

https://www.tomshw.it/videogioco/xbox-series-x-hardware-audio/

Questo non lho mai messo in dubbio, infatti ho sempre parlato di una modifica del codec e non di chip associati.:birra:

Che ms e Sony abbiano deciso di mettere un chip in più per l'audio, non lho mai messo in dubbio.

Link al commento
Condividi su altri siti

  • Risposte 10,6k
  • Creato
  • Ultima Risposta

Miglior contributo in questa discussione

Miglior contributo in questa discussione

Immagini Pubblicate

Quindi tutto qui quello che ti aspetti? 5 FPS in più mediamente, risoluzioni più alte (quindi considerando che il 4K sarà lo standard, una va in 4K nativi ed una in 4K check) e ray tracing che illumina meglio su Xbox?

 

Bene, segnamo.

 

 

Ma io so bene di che parliamo.

Di PC da gaming ne ho due...

 

I 5 fps traballanti sono sicuramente noiosi, ma non qualcosa di insuperabile.

Voglio dire... hai preso l'esempio di Bloodborne.

Nonostante le magagne ed i cali (di oltre 5 fps) l'ho finito di gusto.

 

Comunque va bene. Segnamo che vi aspettate queste differenze. Alla prima comparazione vediamo.

 

 

Io alla fine di questo topic,a forza di segnare...

 

come-organizzare-lettere-e-bollete-in-casa.jpg

Link al commento
Condividi su altri siti

Ospite BuYo

per il ray tracing invece non riesco a capire se ci sta qualcosa di fisico o meno, fonti:

 

https://blogs.nvidia.com/blog/2019/06/07/whats-the-difference-between-hardware-and-software-accelerated-ray-tracing/ qua spiega la differenza tra software e hardware

 

https://www.tomshw.it/videogioco/xbox-series-x-ray-tracing-ufficiale/ qua c'e' Phil (PHIL) che conferma un DirectX Ray tracing con accelerazione hardware e non ho ben capito se è una paraculata o se è una roba buona.

Link al commento
Condividi su altri siti

Ciao borgo :birra:

 

 

Cerny ha detto che le tech sviluppate tra sony e amd potrebbero arrivare in ambito desktop (a detta sua, se ciò avverrà vorrà dire che la collaborazione ha avuto successo), direi che in tal senso, il tipo di collaborazione intrattenuto tra amd e le due hw house sia più o meno sulla stessa linea, ovviamente MS ha parte in entrambe le sezioni quindi ci sta che abbia buttato un occhio più in generale, mentre sony abbia puntato a qualcosa di più strettamente funzionale in termini di ottimizzazione.

Per quanto riguarda il ray tracing il tipo di DF ha parlato si sex citando una soluzione legata alle CU, che è la stessa cosa menzionata da cerny durante la presentazione, pertanto non credo vi siano, a livello hw, differenze sostanziali a parte il mero numero di CU.

 

Ciao Trincia :) è un piacere ritrovarti in questi lidi.

 

Ti dirò, personalmente non credo che le differenza a livello di feature / architettura saranno sostanziali fra PS5 e XBX.

 

Mi aspetto per entrambe RT via cu, il vrs e, in generale, tutto ciò che caratterizza l'rdna 2 su entrambe le macchine.

 

La differenza principale credo sarà il modo di gestire il clock. Da questo pdv, PS5 mi sembra molto più PC like (anche se Cerny parte da presupposti diversi). Per il resto credo che il maggior numero di cu di XBX avrà il suo peso (anche in termini di prezzo).

Link al commento
Condividi su altri siti

Ospite Ste_84

per il ray tracing invece non riesco a capire se ci sta qualcosa di dedicato o meno, fonti:

 

https://blogs.nvidia.com/blog/2019/06/07/whats-the-difference-between-hardware-and-software-accelerated-ray-tracing/ qua spiega la differenza tra software e hardware

 

https://www.tomshw.it/videogioco/xbox-series-x-ray-tracing-ufficiale/ qua c'e' Phil (PHIL) che conferma un DirectX Ray tracing con accelerazione hardware e non ho ben capito se è una paraculata o se è una roba buona.

Ti posso rispondere io perché conosco bene nvidia.

Nvidia ha dedicato alcune cuda al rt, ma non ha messo un chip un più ; ha creato le rt core che non sono altro che cuda complessive dedicate al solo rt.

In poche parole è un boost, gli stream processor restano disattivi in caso di non utilizzo della tecnologia.

Il resto è tutto basato sul firmware dedicato da nvidia, buona sostanza è più software che hardware e l'hardware reagisce alla sola visione delle librerie dedicata al rt.

Infatti su pc ha floppato, moltissimi giochi non hanno implementato la tecnologia, o lo hanno fatto dopo e male e non porta alcun beneficio se non per 4/5 ombre e luci in più. Una rt indegna di esser chiamata tale

Link al commento
Condividi su altri siti

Ospite Utente cancellato 90

Ciao Trincia :) è un piacere ritrovarti in questi lidi.

 

Ti dirò, personalmente non credo che le differenza a livello di feature / architettura saranno sostanziali fra PS5 e XBX.

 

Mi aspetto per entrambe RT via cu, il vrs e, in generale, tutto ciò che caratterizza l'rdna 2 su entrambe le macchine.

 

La differenza principale credo sarà il modo di gestire il clock. Da questo pdv, PS5 mi sembra molto più PC like (anche se Cerny parte da presupposti diversi). Per il resto credo che il maggior numero di cu di XBX avrà il suo peso (anche in termini di prezzo).

 

Allora la pensiamo abbastanza uguale.

Come dicevo qualche pagina indietro, sony non punta al primato ma al fornire una macchina ben bilanciata e a buon prezzo, MS vuol proporre un'offerta premium, è chiaro quindi che ci sarà un vantaggio ma voglio vedere giochi e prezzo per capire se vale la candela.

 

Ps hai visto nzxt h1? Na rippata atomica ma fa riflettere :asd:

 

per il ray tracing invece non riesco a capire se ci sta qualcosa di fisico o meno, fonti:

 

https://blogs.nvidia.com/blog/2019/06/07/whats-the-difference-between-hardware-and-software-accelerated-ray-tracing/ qua spiega la differenza tra software e hardware

 

https://www.tomshw.it/videogioco/xbox-series-x-ray-tracing-ufficiale/ qua c'e' Phil (PHIL) che conferma un DirectX Ray tracing con accelerazione hardware e non ho ben capito se è una paraculata o se è una roba buona.

 

La parte fisica c'è ma non è fisicamente messa a parte, è un lavoro dedicato svolto da una parte della CU stessa, un po' come fosse una porzione addizionale al resto che svolge abitualmente la gpu.

La differenza è che questo garantisce una accelerazione a livello hw fisico e quindi ad una performance nettamente superiore a quella che avresti emula di tutto via software.

Link al commento
Condividi su altri siti

 

Lo ri-ri-posto. Gears 5 in 4k, 100 fps, RT ATTIVO.

Porting su SeX in 2 settimane di lavoro. Quindi certamente non ottimizzato più di tanto.

A me le differenze con il raytracing attivo mi sembrano evidenti e non è un gioco pensato e ottimizzato per l'utilizzo di tale tecnica.

Mi aspetto molto di più dai titoli nextgen.

Link al commento
Condividi su altri siti

Ti posso rispondere io perché conosco bene nvidia.

Nvidia ha dedicato alcune cuda al rt, ma non ha messo un chip un più ; ha creato le rt core che non sono altro che cuda complessive dedicate al solo rt.

In poche parole è un boost, gli stream processor restano disattivi in caso di non utilizzo della tecnologia.

Il resto è tutto basato sul firmware dedicato da nvidia, buona sostanza è più software che hardware e l'hardware reagisce alla sola visione delle librerie dedicata al rt.

Infatti su pc ha floppato, moltissimi giochi non hanno implementato la tecnologia, o lo hanno fatto dopo e male e non porta alcun beneficio se non per 4/5 ombre e luci in più. Una rt indegna di esser chiamata tale

 

Gli RT core (e i Tensor Core) non sono uguali ai Cuda core. Sono fatti in maniera diversa.

Link al commento
Condividi su altri siti

Ospite BuYo

Ti posso rispondere io perché conosco bene nvidia.

Nvidia ha dedicato alcune cuda al rt, ma non ha messo un chip un più ; ha creato le rt core che non sono altro che cuda complessive dedicate al solo rt.

In poche parole è un boost, gli stream processor restano disattivi in caso di non utilizzo della tecnologia.

Il resto è tutto basato sul firmware dedicato da nvidia, buona sostanza è più software che hardware e l'hardware reagisce alla sola visione delle librerie dedicata al rt.

Infatti su pc ha floppato, moltissimi giochi non hanno implementato la tecnologia, o lo hanno fatto dopo e male e non porta alcun beneficio se non per 4/5 ombre e luci in più. Una rt indegna di esser chiamata tale

 

tocca capire se pure microsoft ha optato per una roba del genere oppure no.

 

 

La parte fisica c'è ma non è fisicamente messa a parte, è un lavoro dedicato svolto da una parte della CU stessa, un po' come fosse una porzione addizionale al resto che svolge abitualmente la gpu.

La differenza è che questo garantisce una accelerazione a livello hw fisico e quindi ad una performance nettamente superiore a quella che avresti emula di tutto via software.

 

allora è come ha detto ste

Link al commento
Condividi su altri siti

Ospite Ste_84

Ciao Trincia :) è un piacere ritrovarti in questi lidi.

 

Ti dirò, personalmente non credo che le differenza a livello di feature / architettura saranno sostanziali fra PS5 e XBX.

 

Mi aspetto per entrambe RT via cu, il vrs e, in generale, tutto ciò che caratterizza l'rdna 2 su entrambe le macchine.

 

La differenza principale credo sarà il modo di gestire il clock. Da questo pdv, PS5 mi sembra molto più PC like (anche se Cerny parte da presupposti diversi). Per il resto credo che il maggior numero di cu di XBX avrà il suo peso (anche in termini di prezzo).

Ni, non è proprio così.

Il pc lavora sul boost in caso di collo di bottiglia, in modo da rendere armonioso tutto il lavoro complessivo senza dover avere carichi squilibrati. Se un gioci dovesse essere nei parametri espressi, non serve ne un volume maggiore, nemmeno un boost perché di fatto la gpu, essendo separata, fa tutto lei senza aiuti

Una apu deve avere degli equilibri maggiori, a mio avviso qui c'è un leggero squilibrio perché deve andare a recuperare un gap con un'altra apu di pari famiglia.

Come se una 2070, parlando di gpu, dovesse essere oc per parificare una 2070 Ti con l'overclock. Il problema è che la ti non ha l'overclock e ha un chip differente dalla 2070 base. Non è solo un semplice same, ma una revisione e questo porta a percentuali in più di potenza di calcolo e di temperature

Link al commento
Condividi su altri siti

Allora la pensiamo abbastanza uguale.

Come dicevo qualche pagina indietro, sony non punta al primato ma al fornire una macchina ben bilanciata e a buon prezzo, MS vuol proporre un'offerta premium, è chiaro quindi che ci sarà un vantaggio ma voglio vedere giochi e prezzo per capire se vale la candela.

 

Ps hai visto nzxt h1? Na rippata atomica ma fa riflettere :asd:

 

Yes e... Sbaglierò ma credo che il prezzo sarà una componente ancora più determinante in questa gen.

 

Cmq prepariamoci... di case modello "diffusore di aromi" temo ne vedremo parecchi...

Link al commento
Condividi su altri siti

Io credo che sarà dura notare qualsiasi differenza che non si basi su numeri. Il threshold di qualità visiva ormai è troppo alto, sia in ambito qualità del rendering che artisticamente.

Specificato questo qui dentro conteremo anche il pelo pubico in più di Lara Croft, su Xbox ovviamente, la PS5 crasherebbe.

  • Haha 1
Link al commento
Condividi su altri siti

tocca capire se pure microsoft ha optato per una roba del genere oppure no.

Da quello che ho capito c'è dell'hardware dedicato ai calcoli RT integrato nelle CU che, quando chiamato in causa, lavorerebbe in parallelo senza, teoricamente, appesantire la GPU.

Questo ad nVidia non è riuscito pur avendo hardware dedicato paragonabile. La demo di Gears 5 lascia presagire una efficienza nettamente migliore per AMD. Mi sembra strano ma può essere che sia riuscita a sviluppare qualcosa di più performante. Vedremo alla presentazione delle nuove GPU.

Link al commento
Condividi su altri siti

Ospite Ste_84

Gli RT core (e i Tensor Core) non sono uguali ai Cuda core. Sono fatti in maniera diversa.

I tensor core differiscono in velocità e calcolo, ma nvidia li ha accorpati alle cuda per far gestire il minimo in rt. In pratica sono totalmente spenti quando non deve avere un lavoro sul rt e funzionano in caso di rt presente.

Ripeto. Non ho detto nulla di diverso.

https://devblogs.nvidia.com/programming-tensor-cores-cuda-9/

Link al commento
Condividi su altri siti

Ospite Utente cancellato 90

Yes e... Sbaglierò ma credo che il prezzo sarà una componente ancora più determinante in questa gen.

 

Cmq prepariamoci... di case modello "diffusore di aromi" temo ne vedremo parecchi...

 

 

Io in tal senso ho il terrore, non ho spazio purtroppo, quindi mi scoccerebbe un casino fare ogni volta il giro intorno al TV :/

Link al commento
Condividi su altri siti

Ospite Ste_84

tocca capire se pure microsoft ha optato per una roba del genere oppure no.

 

 

 

 

allora è come ha detto ste

Questo non lo so, perché l'unica cosa che si sa, vera o no, che amd per Ms ha scelto una apu con le frequenze fisse.

Sappiamo che quella di Sony è una apu con frequenza variabile ed è tutto quel che si sa.

Link al commento
Condividi su altri siti

Ospite Utente cancellato 90

Io credo che sarà dura notare qualsiasi differenza che non si basi su numeri. Il threshold di qualità visiva ormai è troppo alto, sia in ambito qualità del rendering che artisticamente.

Specificato questo qui dentro conteremo anche il pelo pubico in più di Lara Croft, su Xbox ovviamente, la PS5 crasherebbe.

 

Questo è uno di quegli aspetti di cui ti parlavo.

Quando avremo un gdr e gireremo in un bosco fitto di vegetazione dettagliata che oggi sentiamo a immaginare, penso non sarà immediato percepire un riflesso un po' più nitido sull'armatura di un pg temo.

Aggiungici che l'ssd più lento di xbox comporterà probabilmente un utilizzo minore della ram rispetto a ps5 e potremmo ritrovarci nella situazione che descriveva nel 2013 kaiman, con gta v che su pc faceva comparire più pedoni e varietà di auto, quello potrebbe saltare un po' più all'occhio però.

Poi magari ps5 lo fa a 60fps anziché a 90 come sex TV permettendo oppure ad una res un po' più alta (anche se senza rt, penso che il 4k lo garantiranno entrambe senza problemi).

Link al commento
Condividi su altri siti

Ospite Ste_84

Da quello che ho capito c'è dell'hardware dedicato ai calcoli RT integrato nelle CU che, quando chiamato in causa, lavorerebbe in parallelo senza, teoricamente, appesantire la GPU.

Questo ad nVidia non è riuscito pur avendo hardware dedicato paragonabile. La demo di Gears 5 lascia presagire una efficienza nettamente migliore per AMD. Mi sembra strano ma può essere che sia riuscita a sviluppare qualcosa di più performante. Vedremo alla presentazione delle nuove GPU.

Non è che non è riuscito, lo ha fatto, ma male.

Poi lavorano tutte in parallelo, perché permette di avere vantaggi sui voltaggi e meno resistenza per evitare calore

Ma se pensi di che la roba mostrata su una demo, ripeto demo, anche nvidia uscì in pompa magna a far vedere delle cose mostruose in demo.

La demo è preconfezionata appositamente per mostrare una tecnologia, in game lo vedrò solo quando sarà pronto.

Sono come S. Tommaso, io, ne hi viste miliardi di cose. Adesso addirittura che una apu più bassa possa arrivare ai livelli di una differente, tutto può essere, io non mi fido, perciò quando usciranno cose più serie allora avrò tempo di ricredermi

E ti ripeto, con quella potenza di calcolo vedrai grandi cose in Rt. Ma grandi grandi cose, come la demo di Minecraft, bellissima

Sia per una, che per l'altra

Link al commento
Condividi su altri siti

I tensor core differiscono in velocità e calcolo, ma nvidia li ha accorpati alle cuda per far gestire il minimo in rt. In pratica sono totalmente spenti quando non deve avere un lavoro sul rt e funzionano in caso di rt presente.

Ripeto. Non ho detto nulla di diverso.

https://devblogs.nvidia.com/programming-tensor-cores-cuda-9/

No beh... hai detto che: ha creato le rt core che non sono altro che cuda complessive dedicate al solo rt. Non è proprio così.

Link al commento
Condividi su altri siti

Ospite Ste_84

No beh... hai detto che: ha creato le rt core che non sono altro che cuda complessive dedicate al solo rt. Non è proprio così.

Sono e si basano sul sistema cuda9, sono un' evoluzione della cuda e loro le nominano come cuda9.

Il loro specifico nome è tensor core, cuda9 che cuda non è solo uno specifico nome dato agli stream processor di nvidia, ma che una variabile applicata agli stream processor con un algoritmo per la gestione degli sharder. Chiamali pure tensor core come da brevetto, ma sono e restano una evoluzione del cuda (l'algoritmo cui nvidia gestisce i propri stream processor)

Link al commento
Condividi su altri siti

Questo è uno di quegli aspetti di cui ti parlavo.

Quando avremo un gdr e gireremo in un bosco fitto di vegetazione dettagliata che oggi sentiamo a immaginare, penso non sarà immediato percepire un riflesso un po' più nitido sull'armatura di un pg temo.

Aggiungici che l'ssd più lento di xbox comporterà probabilmente un utilizzo minore della ram rispetto a ps5 e potremmo ritrovarci nella situazione che descriveva nel 2013 kaiman, con gta v che su pc faceva comparire più pedoni e varietà di auto, quello potrebbe saltare un po' più all'occhio però.

Poi magari ps5 lo fa a 60fps anziché a 90 come sex TV permettendo oppure ad una res un po' più alta (anche se senza rt, penso che il 4k lo garantiranno entrambe senza problemi).

 

Oltre a ciò, è probabile che la gen veda il fiorire e svilupparsi di technologie di ricostruzione dell'immagine sempre più avanzante :)

 

Ho avuto modo di veder lavorare il trixx boost di sapphire insieme al RIS e devo dire che il risultato a schermo è davvero notevole, sia in termini di resa che di performance.

Link al commento
Condividi su altri siti

Ospite Ste_84

 

Guardateveli se volete capirci un pò di più, vi avverto che è noioso quasi come la conferenza di Cerny.

Guarda, ho visto cose con rt dalla serie 400 di nvidia quando lo lanciò nel 2012? Non rigordo l'anno esatto della mia 470

Rt mostrato era totalmente cpu e software, l'unica cosa che nvidia fece era dare un supporto minimo in caso la cpu fosse limite e allora la gpu metteva quel 10% marcio che ammazzava solo il frame e faceva schifo uguale.

8 anni dopo si è inventata sta merda, perché da pcista posso solo giudicarla come tale, che stavolta non andava a far lavorare la cpu via software, ma sfruttava una evoluzione del cuda (cosi qualcuno è più contento sulla terminologia) creando dei core appositi per rt; peccato che anche questi si attivino via software e funzionino male e parzialmente male.

Oltretutto con un progetto troppo grande su unità di calcolo infime, ripeto, perché no' è questione di nvidia ha fatto male perché ha fatto male, perché il quantitativo di computing elaborato è INSUFFICIENTE per avere un rt vero.

A me delle demo a 4000 fps frega un cazzo di nulla, ho visto girare tranquillamente quella basata su unreal engine 4 e librerie rt annesse a più di 60 fps ad un E3 quando fecero vedere le rtx. Le demo sono fatte apposta per far vendere un prodotto e si sapeva che l rt presentato non poteva poi esser così, df fece le pulci.

Che amd abbia fatto il miracolo in un anno e mezzo, con una tecnologia sua che prende spunto dalla concorrenza, dio... Tutto può essere, ma resta il fatto che la potenza erogata continua ad essere insufficiente per muovere un rt jit

E con questo chiudo, tanto mi sono beccato del sonaro, del bozzo e mi ci manca solo che mi prenda del Nintendaro e di parte oltretutto :asd:

Link al commento
Condividi su altri siti

Ospite Utente cancellato 90

Guarda, ho visto cose con rt dalla serie 400 di nvidia quando lo lanciò nel 2012? Non rigordo l'anno esatto della mia 470

Rt mostrato era totalmente cpu e software, l'unica cosa che nvidia fece era dare un supporto minimo in caso la cpu fosse limite e allora la gpu metteva quel 10% marcio che ammazzava solo il frame e faceva schifo uguale.

8 anni dopo si è inventata sta merda, perché da pcista posso solo giudicarla come tale, che stavolta non andava a far lavorare la cpu via software, ma sfruttava una evoluzione del cuda (cosi qualcuno è più contento sulla terminologia) creando dei core appositi per rt; peccato che anche questi si attivino via software e funzionino male e parzialmente male.

Oltretutto con un progetto troppo grande su unità di calcolo totalmente, ripeto, perché no' è questione di nvidia ha fatto male perché ha fatto male, perché il quantitativo di computing elaborato è INSUFFICIENTE per avere un rt vero.

A me delle demo a 4000 fps frega un cazzo di nulla, ho visto girare tranquillamente quella basata su unreal engine 4 e librerie rt annesse a più di 60 fps ad un E3 quando fecero vedere le rtx. Le demo sono fatte apposta per far vendere un prodotto e si sapeva che l rt presentato non poteva poi esser così, df fece le pulci.

Che amd abbia fatto il miracolo in un anno e mezzo, con una tecnologia sua che prende spunto dalla concorrenza, dio... Tutto può essere, ma resta il fatto che la potenza erogata continua ad essere insufficiente per muovere un rt jit

E con questo chiudo, tanto mi sono beccato del sonaro, del bozzo e mi ci manca solo che mi prenda del Nintendaro e di parte oltretutto :asd:

 

Condivido quello che dici ma c'è da considerare alcuni aspetti.

1) AMD anche se lo propone ora, sono in realtà anni che ci lavora sopra in ottica di open research AMD FireRays 2.0 - Open Sourcing and Customizing Ray Tracing for Efficient Hardware Platforms Support - GPUOpen

2) Uno dei pregi rimarcati di Nvidia (o difetto di AMD a seconda del punto di vista) era il fatto di quanto le GPU nvidia fossero "game friendly" e che spesso i suoi TF rendono meglio di quelli AMD, tuttavia AMD ha spopolato nell'ambito mining (ma anche in quello professionale/artistico) poiché i suoi stream processor lavorano molto meglio sui calcoli puri, e beh il raytracing è calcolo puro.

3) Bisogna fare molta attenzione a parlare di Ray tracing perché l'implementazione nei giochi può funzionare in modo diverso rispetto a quella di altri software, per esempio potrebbe avere un trashold dovuto alla distanza (come per il LOD, cosa che negli altri software è più improbabile trovare) o una dead line dopo tot rimbarli, magari non c'è bisogno di spingersi al limite per ogni contesto, per esempio una buona GI potrebbe necessitare di più o meno raggi a seconda degli ambienti (più sono angusti e più servono raggi per una buona resa) o ancora le si potrebbe mischiare a tecniche attuali (tipo quelle viste in killzone o hitman 2) così da alleggerire il peso complessivo.

 

In sostanza quel che è chiaro, è che non è chiaro, come tutte le tecnologie, una volta applicate al discorso real time cambiano totalmente la loro coerenza (per esempio un buon rendering vuole quadrilateri ma in real time si preferiscono i triangoli), quindi sia agli albori e non solo non possiamo valutarlo con le conoscenze non real time ma anche se ci riuscissimo, saremmo comunque in un periodo che vedrebbe evoluzioni e metamorfosi nelle tecniche utilizzate ogni 3x2, quindi quel che potremmo azzeccare oggi, potrebbe non valere più fra 6 mesi o un anno.

 

Però ti dico questo, a me una roba così (fatto con U4 e che gira su ps5) va già bene in termini di riflessi https://video.twimg.com/tweet_video/ELsj4ZpWoAASXpI.mp4

cosa faranno altri team ben più capaci, può solo che rallegrarmi.

Link al commento
Condividi su altri siti

Non capisco perché continuate ad ignorare il video dell'analisi fatta da DF su Gears 5 e Minecraft. La tecnologia RT su console, almeno per SeX, è quella. Esiste già ed è perfettamente funzionante e utilizzabile. Non è che siccome Sony non ha mostrato nulla allora non esiste o non si sa eh...
Link al commento
Condividi su altri siti

Ospite
Questa discussione è chiusa.

×
×
  • Crea Nuovo...