Vai al contenuto

PS5 Vs Series X: chi vincerà? Saranno le slide di Cerny, o le spacconerie di Phil Spencer?


Messaggi raccomandati

Why Xbox Series X's Dumb 10+6GB Memory Configuration Isn't As Dumb As You Think

 

The Memory Config Is Very Strange

A couple things were expected:

 

  • 16GB of total capacity
  • Rumored for months
  • 14Gbps GDDR6
  • The most widely manufactured (i.e. cheap) high bandwidth memory on the market today, so no surprise

A couple things were not expected:

 

  • 10 32-bit memory chips (320-bit bus)
  • Today's GDDR6 comes in 8Gb (1GB) and 16Gb (2GB) capacities, so 10 chips of either kind would be 10GB or 20GB. Neither of those is 16GB.
  • 6/10 chips use 16Gb GDDR6 and the remaining 4/10 chips use 8Gb GDDR6.
  • This requires the memory to be split into two separate segments: the "first" GB of each of the 10 chips form one 10GB 320-bit 560GB/s segment while the second GB in the 6 16Gb chips form a separate 6GB 192-bit 336GB/s.

Two Separate Memory Segments

Two separate memory segments is exactly as bad as it sounds. This has happened only a couple times in recent GPU history and has numerous disadvantages.

 

Anandtech's excellent write-up on the quirky 1.5+0.5GB 550 Ti explains it nicely:

 

 

 

Where the 550 Ti had a 1.5GB 98.5GB/s segment and a 0.5GB 32.8GB/s segment, the Series X has a 10GB 560GB/s segment and a 6GB 336GB/s segment.

 

Fundamentally, this means that the Series X's GPU only has 10GB to work with.

 

What Other Options Were There?

Aside from the one chosen, there were two other realistic memory configs for Series X.

 

When I first heard "16GB", my mind immediately went to the classic 256-bit config used in the 2080 and 5700XT:

 

  • 8 memory chips
  • 8 32-bit wide chips gets you to a 256-bit bus.
  • 8 16Gb (2GB) chips is 16GB.
  • 448GB/s using popular 14Gbps GDDR6 (8 chips * 32 bit width/chip * 14 Gbps / 8 bits/byte = 448 GB/s)

That's a nice clean single unified memory space. But it's slow.

 

448GB/s might be enough for a 9.75TFLOPS 40CU 5700XT, but Series X's beefy 52CU GPU churns through 12TFLOPS (!). It needs at least 20% more memory than the 5700XT.

 

How do you get >20% more bandwidth?

 

  • You can't run the memory faster as 14Gbps is the best you can get in the massive quantities that a console demands.
  • So you go wider and add more memory chips. 9 32-bit chips (288-bit bus) is technically an option, but memory controllers are usually created to work with pairs of memory chips, so you don't want an odd number of memory chips.
  • You have to bump it up to 10 32-bit chips (320-bit bus).

This means we're now looking at a monster 20GB memory setup:

 

  • 10 memory chips
  • 10 32-bit wide chips gets you to a 320-bit bus.
  • 10 16Gb (2GB) chips is 20GB.
  • 560GB/s using 14Gbps GDDR6 (10 chips * 32 bit width/chip * 14 Gbps / 8 bits/byte = 560 GB/s)

This is a beast. But it's expensive and hot:

 

  • 2Gb GDDR6 chips are relatively new and expensive (especially for a thin margined console).
  • Connecting 10 GDDR6 chips to the GPU and CPU requires a lot of traces on the PCB.
  • This complicates the PCB layout, increasing cost.
  • This probably demanded additional PCB layers to maintain signal integrity, further increasing cost.
  • More traces and more GDDR6 chips means more things to keep cool (especially for a thermally brutal console).

I'm betting someone at MS was gunning for this awesome 20GB config, but the execs were probably scared when they heard that Sony has a leaner (and cheaper) console. Something's gotta give.

 

So MS swapped out 4/10 of the 2Gb memory chips for 1Gb memory chips. Now the 20GB console is a 16GB console, despite still having a 320-bit bus.

 

Why Isn't This A Catastrophe?

Now the GPU basically only gets to use 10GB (or else face a massive performance penalty on data beyond 10GB), but this is ok:

 

  • The OS is already reserving 2.5GB and it is happy to use the crummy 336GB/s memory. So now we only have 3.5GB of crummy memory left.
  • There are plenty of game assets used by the CPU to occupy that 3.5GB.

In an interview with Eurogamer, MS's Andrew Goossen said:

 

 

 

 

 

 

 

In many ways, this makes sense. It's easy to forget that this is a shared memory system and it's not used just by the GPU. The CPU has plenty of stuff to do and it needs memory as well.

 

A typical dual channel DDR4-4000 desktop memory system only has 64GB/s of bandwidth (4000 MT/s * 2 channels * 64-bit width/channel / 8000 MT/GB). Yeah, 64GB/s. 336GB/s is plenty.

 

And that's really what it's all about:

 

336 GB/s Is Plenty

 

In sostanza, a PS5 bastano 448GB/s perchè ha solo 10 TF da soddisfare. Una soluzione simile invece non era attuabile su SeX perchè per i 12 TF ci voleva un Bandwidth più elevato e l'unica alternativa a montare 20GB di RAM è quella adottata. Con i 16GB a 448GB/s non si sarebbero potuti sfruttare i 12TF. I 560GB/s sono una scelta obbligata. I 336GB/s per la CPU invece sono grasso che cola.

 

Quindi per sfruttare a pieno i 12 TF avrebbero dovuto metterci 20 giga di ram da 560 Gb/s ma hanno voluto risparmiare mettendocene 10 veloci + 6 lenti col risultato che , copio incollo da quello che hai postato: "Now the GPU basically only gets to use 10GB (or else face a massive performance penalty on data beyond 10GB)" che è quello che avevo scritto io qualche pagina fa...

 

PS5 invece ha esattamente la ram che serve per spremere come un limone quei 10.3 TF, confermando quanto detto da Cerny, cioè che tutta la console è stata pensata per non avere colli di bottiglia da nessuna parte

Link al commento
Condividi su altri siti

  • Risposte 10,6k
  • Creato
  • Ultima Risposta

Miglior contributo in questa discussione

Miglior contributo in questa discussione

Immagini Pubblicate

Why Xbox Series X's Dumb 10+6GB Memory Configuration Isn't As Dumb As You Think

 

The Memory Config Is Very Strange

A couple things were expected:

 

  • 16GB of total capacity
  • Rumored for months
  • 14Gbps GDDR6
  • The most widely manufactured (i.e. cheap) high bandwidth memory on the market today, so no surprise

A couple things were not expected:

 

  • 10 32-bit memory chips (320-bit bus)
  • Today's GDDR6 comes in 8Gb (1GB) and 16Gb (2GB) capacities, so 10 chips of either kind would be 10GB or 20GB. Neither of those is 16GB.
  • 6/10 chips use 16Gb GDDR6 and the remaining 4/10 chips use 8Gb GDDR6.
  • This requires the memory to be split into two separate segments: the "first" GB of each of the 10 chips form one 10GB 320-bit 560GB/s segment while the second GB in the 6 16Gb chips form a separate 6GB 192-bit 336GB/s.

Two Separate Memory Segments

Two separate memory segments is exactly as bad as it sounds. This has happened only a couple times in recent GPU history and has numerous disadvantages.

 

Anandtech's excellent write-up on the quirky 1.5+0.5GB 550 Ti explains it nicely:

 

 

 

Where the 550 Ti had a 1.5GB 98.5GB/s segment and a 0.5GB 32.8GB/s segment, the Series X has a 10GB 560GB/s segment and a 6GB 336GB/s segment.

 

Fundamentally, this means that the Series X's GPU only has 10GB to work with.

 

What Other Options Were There?

Aside from the one chosen, there were two other realistic memory configs for Series X.

 

When I first heard "16GB", my mind immediately went to the classic 256-bit config used in the 2080 and 5700XT:

 

  • 8 memory chips
  • 8 32-bit wide chips gets you to a 256-bit bus.
  • 8 16Gb (2GB) chips is 16GB.
  • 448GB/s using popular 14Gbps GDDR6 (8 chips * 32 bit width/chip * 14 Gbps / 8 bits/byte = 448 GB/s)

That's a nice clean single unified memory space. But it's slow.

 

448GB/s might be enough for a 9.75TFLOPS 40CU 5700XT, but Series X's beefy 52CU GPU churns through 12TFLOPS (!). It needs at least 20% more memory than the 5700XT.

 

How do you get >20% more bandwidth?

 

  • You can't run the memory faster as 14Gbps is the best you can get in the massive quantities that a console demands.
  • So you go wider and add more memory chips. 9 32-bit chips (288-bit bus) is technically an option, but memory controllers are usually created to work with pairs of memory chips, so you don't want an odd number of memory chips.
  • You have to bump it up to 10 32-bit chips (320-bit bus).

This means we're now looking at a monster 20GB memory setup:

 

  • 10 memory chips
  • 10 32-bit wide chips gets you to a 320-bit bus.
  • 10 16Gb (2GB) chips is 20GB.
  • 560GB/s using 14Gbps GDDR6 (10 chips * 32 bit width/chip * 14 Gbps / 8 bits/byte = 560 GB/s)

This is a beast. But it's expensive and hot:

 

  • 2Gb GDDR6 chips are relatively new and expensive (especially for a thin margined console).
  • Connecting 10 GDDR6 chips to the GPU and CPU requires a lot of traces on the PCB.
  • This complicates the PCB layout, increasing cost.
  • This probably demanded additional PCB layers to maintain signal integrity, further increasing cost.
  • More traces and more GDDR6 chips means more things to keep cool (especially for a thermally brutal console).

I'm betting someone at MS was gunning for this awesome 20GB config, but the execs were probably scared when they heard that Sony has a leaner (and cheaper) console. Something's gotta give.

 

So MS swapped out 4/10 of the 2Gb memory chips for 1Gb memory chips. Now the 20GB console is a 16GB console, despite still having a 320-bit bus.

 

Why Isn't This A Catastrophe?

Now the GPU basically only gets to use 10GB (or else face a massive performance penalty on data beyond 10GB), but this is ok:

 

  • The OS is already reserving 2.5GB and it is happy to use the crummy 336GB/s memory. So now we only have 3.5GB of crummy memory left.
  • There are plenty of game assets used by the CPU to occupy that 3.5GB.

In an interview with Eurogamer, MS's Andrew Goossen said:

 

 

 

 

 

 

 

In many ways, this makes sense. It's easy to forget that this is a shared memory system and it's not used just by the GPU. The CPU has plenty of stuff to do and it needs memory as well.

 

A typical dual channel DDR4-4000 desktop memory system only has 64GB/s of bandwidth (4000 MT/s * 2 channels * 64-bit width/channel / 8000 MT/GB). Yeah, 64GB/s. 336GB/s is plenty.

 

And that's really what it's all about:

 

336 GB/s Is Plenty

 

In sostanza, a PS5 bastano 448GB/s perchè ha solo 10 TF da soddisfare. Una soluzione simile invece non era attuabile su SeX perchè per i 12 TF ci voleva un Bandwidth più elevato e l'unica alternativa a montare 20GB di RAM è quella adottata. Con i 16GB a 448GB/s non si sarebbero potuti sfruttare i 12TF. I 560GB/s sono una scelta obbligata. I 336GB/s per la CPU invece sono grasso che cola.

Cioè io posto roba di programmatori e non va bene , e tu vai a pescare roba su reddit? 🤣🤣🤣🤣🤣🤣🤣🤣🤣🤣

Link al commento
Condividi su altri siti

Quindi per sfruttare a pieno i 12 TF avrebbero dovuto metterci 20 giga di ram da 560 Gb/s ma hanno voluto risparmiare mettendocene 10 veloci + 6 lenti col risultato che , copio incollo da quello che hai postato: "Now the GPU basically only gets to use 10GB (or else face a massive performance penalty on data beyond 10GB)" che è quello che avevo scritto io qualche pagina fa...

 

PS5 invece ha esattamente la ram che serve per spremere come un limone quei 10.3 TF, confermando quanto detto da Cerny, cioè che tutta la console è stata pensata per non avere colli di bottiglia da nessuna parte

Ma neanche SeX ha colli di bottiglia! I 560GB/s sono stati adottati proprio per assicurare la necessaria banda passante ai 12TF. Se leggi vedrai che ai 3,5GB 'lenti' avrà accesso la CPU.

[automerge]1588098889[/automerge]

Cioè io posto roba di programmatori e non va bene , e tu vai a pescare roba su reddit? 🤣🤣🤣🤣🤣🤣🤣🤣🤣🤣

In attesa di roba ufficiale una supercazzola vale l'altra...

Link al commento
Condividi su altri siti

Quindi per sfruttare a pieno i 12 TF avrebbero dovuto metterci 20 giga di ram da 560 Gb/s ma hanno voluto risparmiare mettendocene 10 veloci + 6 lenti col risultato che , copio incollo da quello che hai postato: "Now the GPU basically only gets to use 10GB (or else face a massive performance penalty on data beyond 10GB)" che è quello che avevo scritto io qualche pagina fa...

 

PS5 invece ha esattamente la ram che serve per spremere come un limone quei 10.3 TF, confermando quanto detto da Cerny, cioè che tutta la console è stata pensata per non avere colli di bottiglia da nessuna parte

La gpu difficilmente utilizzerà più di 10gb di ram... basta guardare su pc i vari test di occupazione di vram... e in quei casi devi calcolare che parte della vram la utilizza winzoz per i cacchi suoi. Infatti, a parte le Nvidia TI nessuna supera gli 8gb di ram. Esempio RE2 remake (è l'ultimo gioco che ho lanciato in cui c'era il misuratore di ram occupata)... sparato tutto a cannone a 4k occupa al massimo 7gb. Per gli 8k è troppo sottodimenzionata per i giochi in 3d.

 

Edit... detto la cavolata... 9,4gb occupa, ma devi calcolare che nel conteggio c'è sempre winzoz di mezzo.

Link al commento
Condividi su altri siti

La gpu difficilmente utilizzerà più di 10gb di ram... basta guardare su pc i vari test di occupazione di vram... e in quei casi devi calcolare che parte della vram la utilizza winzoz per i cacchi suoi. Infatti, a parte le Nvidia TI nessuna supera gli 8gb di ram. Esempio RE2 remake (è l'ultimo gioco che ho lanciato in cui c'era il misuratore di ram occupata)... sparato tutto a cannone a 4k occupa al massimo 7gb. Per gli 8k è troppo sottodimenzionata per i giochi in 3d.

RE non lo puoi maxare se vuoi tutto a ultra perchè già con il solo parametro della risoluzione delle texure messa a cannone supera i 12 gb di ram, testato personalmente.

 

Invece io recentemente o giocato a deus ex mankind divide messo tutto ad ultra a 1080p si suca 7 gb di vram ed è un gioco del 2015 ottimizzato un pò male.

Ci credo poco che 10 GB di vram a 4k, con i nuovi motori che sfruttano tecniche più pesanti di nuova generazione, non creeranno problemi di saturazione della stessa.

Per i primi anni non avrà problemi sicuro ma dopo, qualche problema ci sarà.

Modificato da virgil
Link al commento
Condividi su altri siti

A me va bene tutto: probabile che 10 GB di VRAM non li consumi, però abbiate almeno la decenza di ammettere che oltre i 10 GB non può andare perché le performance crollerebbero. Che poi è quello che OneZero e altri stanno scrivendo da 2 ore con gli aficionados Microsoft che insistono a dire che non è vero: è un dato di fatto

 

PS5 avrà sicuramente più VRAM, poi magari non serve a un tubo, vedremo.

Link al commento
Condividi su altri siti

RE non lo puoi maxare se vuoi tutto a ultra perchè già con il solo parametro della risoluzione delle texure messa a cannone supera i 12 gb di ram, testato personalmente.

 

Invece io recentemente o giocato a deus ex mankind divide messo tutto ad ultra a 1080p si suca 7 gb di vram ed è un gioco del 2015 ottimizzato un pò male.

Ci credo poco che 10 GB di vram a 4k, con i nuovi motori che sfruttano tecniche più pesanti di nuova generazione, non creeranno problemi di saturazione della stessa.

Per i primi anni non avrà problemi sicuro, ma dopo qualche problema ci sarà.

Devi calcolare che entrambe le console useranno sistemi avanzati di compressione/decompressione in rt delle texture. Ne hanno parlato entrambi durante la presentazione.

[automerge]1588100173[/automerge]

A me va bene tutto: probabile che 10 GB di VRAM non li consumi, però abbiate almeno la decenza di ammettere che oltre i 10 GB non può andare perché le performance crollerebbero. Che poi è quello che OneZero e altri stanno scrivendo da 2 ore con gli aficionados Microsoft che insistono a dire che non è vero: è un dato di fatto

 

PS5 avrà sicuramente più VRAM, poi magari non serve a un tubo, vedremo.

Se usi i 6gb come vram si, se li usi come memoria di sistema no, non ti cambia nulla. Devi calcolare che se un gioco occupa 16gb totali (esempio) in memoria non è tutta vram. Parte del codice serve alla cpu e all'audio.

Link al commento
Condividi su altri siti

Devi calcolare che entrambe le console useranno sistemi avanzati di compressione/decompressione in rt delle texture. Ne hanno parlato entrambi durante la presentazione.

Per questo dico che per i primi anni non ci saranno grossi problemi, si deve vedere DOPO se questa soluzione andrà ancora bene.

  • Like 1
Link al commento
Condividi su altri siti

Ospite Utente cancellato 113

Devi calcolare che entrambe le console useranno sistemi avanzati di compressione/decompressione in rt delle texture. Ne hanno parlato entrambi durante la presentazione.

[automerge]1588100173[/automerge]

 

Se usi i 6gb come vram si, se li usi come memoria di sistema no, non ti cambia nulla. Devi calcolare che se un gioco occupa 16gb totali (esempio) in memoria non è tutta vram. Parte del codice serve alla cpu e all'audio.

 

vero ma con una soluzione alla ps5 nn devi stare a pensare di nn superare una certa soglia per gpu o per la cpu.quei 16 gb li distribuisci come ti pare.

sono cmq console,quindi hw chiusi che dovranno durare per i prossimi 6/7 anni.

Link al commento
Condividi su altri siti

RE non lo puoi maxare se vuoi tutto a ultra perchè già con il solo parametro della risoluzione delle texure messa a cannone supera i 12 gb di ram, testato personalmente.

 

Invece io recentemente o giocato a deus ex mankind divide messo tutto ad ultra a 1080p si suca 7 gb di vram ed è un gioco del 2015 ottimizzato un pò male.

Ci credo poco che 10 GB di vram a 4k, con i nuovi motori che sfruttano tecniche più pesanti di nuova generazione, non creeranno problemi di saturazione della stessa.

Per i primi anni non avrà problemi sicuro, ma dopo qualche problema ci sarà.

Se setti tutto al massimo mi segna 13,8gb.... giocato alla mano col msi afterburner non ha superato mai gli 8,9gb di vram occupata.

Link al commento
Condividi su altri siti

In un certo senso si può dire che questa è la prima console microsoft con ram non unificata, anche se in realtà lo è, ma non conviene usarla come se lo fosse, no? :D

L'alternativa era montare 20GB. Se deve stare nel prezzo di PS5 non era possibile. Sarebbe da ridere se dopo tutto sto casino SeX costasse meno di PS5...

Link al commento
Condividi su altri siti

Si dovete considerare console che devono durare 7 anni...non si può prevedere quale sarà l'uso della Vram tra due-tre anni.

[automerge]1588102000[/automerge]

Ma infatti il punto era che fuori dai 10gb la bandwith si deve pareggiare a quella più bassa. Non mi sembra che nessuno abbia detto che tutto girerà sempre a 336gb/s

  • Like 2
Link al commento
Condividi su altri siti

Se setti tutto al massimo mi segna 13,8gb.... giocato alla mano col msi afterburner non ha superato mai gli 8,9gb di vram occupata.

Mi baso su quello che mi dice il gioco e cioè se provo ad aumentare quel parametro, sforo il buget di Vram(nel mio caso 8 gb visto che ho una strix 2080 oc).

Quindi perchè il gioco mi da un parametro errato?

 

Cmq tralasciando questo dettaglio...già siamo 8/9 GB di vram e parliamo di un gioco di questa generazione, in prospettiva ti da una idea di quanto potranno essere esosi i giochi di nuova generazione.

Link al commento
Condividi su altri siti

La gpu difficilmente utilizzerà più di 10gb di ram... basta guardare su pc i vari test di occupazione di vram... e in quei casi devi calcolare che parte della vram la utilizza winzoz per i cacchi suoi. Infatti, a parte le Nvidia TI nessuna supera gli 8gb di ram. Esempio RE2 remake (è l'ultimo gioco che ho lanciato in cui c'era il misuratore di ram occupata)... sparato tutto a cannone a 4k occupa al massimo 7gb. Per gli 8k è troppo sottodimenzionata per i giochi in 3d.

 

Edit... detto la cavolata... 9,4gb occupa, ma devi calcolare che nel conteggio c'è sempre winzoz di mezzo.

 

Flight simulator come requisiti ideali richiede 32 Gb di ram... secondo me averne di più disponibile tornerà utile specie nei prossimi anni, poi con l'SSD che legge e scrive al doppio della velocità PS5 quella ram può pure sfruttarla meglio

Link al commento
Condividi su altri siti

Ospite Utente cancellato 90

Questo Topic fra 5/6 anni sarà un capolavoro.

Lo leggeremo come leggiamo quello di Killzone 2 oggi,o la storia di PS2 che lancia i missili.

:D

 

Non si può più :(

Link al commento
Condividi su altri siti

 

PS5, l'SSD consentirà di supportare la nuova tecnologia VR di Atom View0

Il velocissimo SSD di PS5 consentirà di supportare la nuova tecnologia VR sviluppata da Atom View, società acquisita da Sony l'anno scorso.

Il velocissimo SSD di PS5 consentirà alla console di supportare la nuova tecnologia VR sviluppata da Atom View, una società che Sony ha acquisito nel 2019.

 

Di che si tratta esattamente? Come si può vedere nei video in calce, questa tecnologia consente di ottenere rendering realistici calcolati in tempo reale, sfruttando la velocità dell'SSD ma limitando l'uso della GPU.

 

Ciò significa, in soldoni, risultati e performance superiori al prezzo di una minore potenza computazionale, con particolare riferimento ai giochi in realtà virtuale e dunque a PlayStation VR 2.

 

Mp.it

Link al commento
Condividi su altri siti

Mi baso su quello che mi dice il gioco e cioè se provo ad aumentare quel parametro, sforo il buget di Vram(nel mio caso 8 gb visto che ho una strix 2080 oc).

Quindi perchè il gioco mi da un parametro errato?

 

Cmq tralasciando questo dettaglio...già siamo 8/9 GB di vram e parliamo di un gioco di questa generazione, in prospettiva ti da una idea di quanto potranno essere esosi i giochi di nuova generazione.

Basta che lo provi... scaricati l'afterburner e giocaci.

Secondo me, ripeto, potrebbero anche essere più leggeri... lascia stare mo quello che dicono qui... "è meglio questo di quello"...

 

https://gamingbolt.com/xbox-series-xs-bcpack-texture-compression-technique-reportedly-better-than-the-ps5s-kraken

 

ma entrambe le macchine hanno una tecnica di decompressione delle texture che gli farà risparmiare molto spazio in vram.

Link al commento
Condividi su altri siti

Mi baso su quello che mi dice il gioco e cioè se provo ad aumentare quel parametro, sforo il buget di Vram(nel mio caso 8 gb visto che ho una strix 2080 oc).

Quindi perchè il gioco mi da un parametro errato?

 

Cmq tralasciando questo dettaglio...già siamo 8/9 GB di vram e parliamo di un gioco di questa generazione, in prospettiva ti da una idea di quanto potranno essere esosi i giochi di nuova generazione.

 

I confronti col pc comunque lasciano il tempo che trovano, ps3 aveva 256 mb di vram e al 2013 è arrivata, nonostante quella fosse la vram dei pc portatili da ufficio ormai :asd:

 

Flight simulator come requisiti ideali richiede 32 Gb di ram... secondo me averne di più disponibile tornerà utile specie nei prossimi anni, poi con l'SSD che legge e scrive al doppio della velocità PS5 quella ram può pure sfruttarla meglio

 

32 gb di ram di sistema, non video :D

 

Poi sicuramente la cpu su ps5 avrà più banda per la ram, su questo non ci sono dubbi :asd:

Link al commento
Condividi su altri siti

Si dovete considerare console che devono durare 7 anni...non si può prevedere quale sarà l'uso della Vram tra due-tre anni.

[automerge]1588102000[/automerge]

Ma infatti il punto era che fuori dai 10gb la bandwith si deve pareggiare a quella più bassa. Non mi sembra che nessuno abbia detto che tutto girerà sempre a 336gb/s

Sicuro?

Provo a spiegartelo, La RAM di Sex è composta da 6 chip da 2GB(1+1) + 4 chip da 1GB ognuno dei quali connesso con un bus a 32bit(6+4@32bit=320bit)

Ai primi 6GB dei 6chip(1GB+1GB) può accedere alla massima banda utilizzando univocamente ognuno dei bus a 32bit, 6GB@32*14Ghz=336GB/s a cui aggiungere i restanti 4chip(1GB) = 4GB@32bit*14Ghz= 224GB/s che da come risultato la banda dichiarata per quei 10GB@560GB/s.

I GB dei 6 chip da 2GB(1GB+1GB) sono assolutamente identici, non esiste una RAM piu' lenta, a quei 6 chip(1GB+1GB) o si accede a bus intero e quindi con una banda di 336GB/s riempiendo solo i primi 6GB oppure a tutti e 12GB utilizzando i due canali a 16bit separatamente con conseguente diminuzione della banda "media" o meglio la banda è la medesima ma i GB da riempire sono il doppio.

Il Drugo...

Link al commento
Condividi su altri siti

La mano sul fuoco non ce la metto. Secondo me il pad e l'ssd influiranno sul prezzo della ps55. Potrebbero venderla allo stesso prezzo.
Va bhe ma il pad di x non costa poco e l'ssd di Microsoft ha più capienza.... Secondo me nella migliore delle ipotesi costeranno uguale

 

Inviato dal mio CLT-L09 utilizzando Tapatalk

Link al commento
Condividi su altri siti

Ospite
Questa discussione è chiusa.

×
×
  • Crea Nuovo...