› Foros › PlayStation 5 › General
jose2488 escribió:Jordisan escribió:Muchos no habéis comentado los que dijo Mark Cerny.
La ps5 tiene menos unidades (CU) pero a más frecuencia y con un engine específico para quitar la carga de esas unidades a la hora de procesar geometría.Serie X tiene más unidades, pero cada una de ellas son menos potentes ( menos frecuencia)
A la hora de programar resulta más beneficioso en algunos aspectos más frecuencia con menos CU, que viceversa ( obviamente hasta cierto punto). Por ejemplo una explosión...
Por otro laado Un PC tiene un consumo variable, es decir, si aumentas la velocidad de reloj (OC) de la GPU, provocas un aumento del consumo, en consecuencia, aumento de las temperaturas.
Ps5 va a utilizar un consumo fijo siempre. Mediante un sistema que han creado de gestión de consumo, se variarán las velocidades de la CPU y la GPU. Y por qué varían? Porque al Sony fijar un nivel de consumo, estas tienen que gestionar la energía. Con lo cual, si la GPU necesita ir a 2,23GHZ, la CPU bajará sus 3,5 GHZ para proporcionar esa energía extra a la GPU y viceversa, manteniendo siempre el mismo consumo y en consecuencia, mismas temperaturas.
Y añado este de forma literal (Palabras de Mark Cerny)
"Cuando ocurra el peor caso posible, funcionará a una velocidad de reloj más baja. Pero no mucho más baja, para reducir el consumo un 10% solo necesitas una reducción de alrededor del 2% en la frecuencia, así que calculo que la reducción será bastante baja"
Esto imagino que lo hacen para mantener esos GHZ tan altos de la GPU sin tener problemas con las temperaturas, y en el peor de los casos únicamente bajaría un 2% la velocidad de reloj. Ojo yo solo comento lo que está diciendo Mark Cerny, y lo que dicen muchos programadores, no digo que una u otra sea mejor. Eso ya se verá.
Por otro lado tanto la CPU y el ancho de banda de Serie X puede marcar diferencias, sin embargo con el tema de la GPU la diferencia no parece tan clara ( no se basa en ver quién tiene más teraflops, es todo mucho más complejo) habrá que ver como los desarrolladores lo trabajan.
Un saludo
Increíble, lo pusiste todo mal. Increíble pero cierto.
parh escribió:Lo de la retrocompatibilidad es la penultima decepcion con PS5. Una gestion nefasta de Sony. Lo que me sorprende es que en la presentacion el Cerny no haya mencionado "posiblidad de disfrutar 8k" porque desde PS3 (en aquel entonces vendian los 1080p en cada presentacion/nota de prensa, y ya sabemos la realidad cual fue) son los mayores expertos en vender humo.
Jordisan escribió:Muchos no habéis comentado los que dijo Mark Cerny.
La ps5 tiene menos unidades (CU) pero a más frecuencia y con un engine específico para quitar la carga de esas unidades a la hora de procesar geometría.Serie X tiene más unidades, pero cada una de ellas son menos potentes ( menos frecuencia)
A la hora de programar resulta más beneficioso en algunos aspectos más frecuencia con menos CU, que viceversa ( obviamente hasta cierto punto). Por ejemplo una explosión...
Por otro laado Un PC tiene un consumo variable, es decir, si aumentas la velocidad de reloj (OC) de la GPU, provocas un aumento del consumo, en consecuencia, aumento de las temperaturas.
Ps5 va a utilizar un consumo fijo siempre. Mediante un sistema que han creado de gestión de consumo, se variarán las velocidades de la CPU y la GPU. Y por qué varían? Porque al Sony fijar un nivel de consumo, estas tienen que gestionar la energía. Con lo cual, si la GPU necesita ir a 2,23GHZ, la CPU bajará sus 3,5 GHZ para proporcionar esa energía extra a la GPU y viceversa, manteniendo siempre el mismo consumo y en consecuencia, mismas temperaturas.
Y añado este de forma literal (Palabras de Mark Cerny)
"Cuando ocurra el peor caso posible, funcionará a una velocidad de reloj más baja. Pero no mucho más baja, para reducir el consumo un 10% solo necesitas una reducción de alrededor del 2% en la frecuencia, así que calculo que la reducción será bastante baja"
Esto imagino que lo hacen para mantener esos GHZ tan altos de la GPU sin tener problemas con las temperaturas, y en el peor de los casos únicamente bajaría un 2% la velocidad de reloj. Ojo yo solo comento lo que está diciendo Mark Cerny, y lo que dicen muchos programadores, no digo que una u otra sea mejor. Eso ya se verá.
Por otro lado tanto la CPU y el ancho de banda de Serie X puede marcar diferencias, sin embargo con el tema de la GPU la diferencia no parece tan clara ( no se basa en ver quién tiene más teraflops, es todo mucho más complejo) habrá que ver como los desarrolladores lo trabajan.
Un saludo
jose2488 escribió:Jordisan escribió:korchopan escribió:Lo que yo no entiendo es qué hace cuando ni la cpu ni la gpu requiera potencia, se pone a consumir una resistencia que meten por ahí o qué? no le veo sentido a que el mínimo también sea el máximo. O eso, o solo hablan de consumo estable cuando uno de los dos, cpu o gpu, pida el máximo.
Dicho por el propio Mark Cerny, ni la GPU ni la CPU Irán las dos al mismo tiempo al 100%. Tenéis que quitados de la cabeza el consumo variable de cualquier PC. Esto es algo que nunca se ha hecho.
El consumo es siempre fijo y tanto la CPU como la GPU irán variando según lo que requiera el juego en ese momento.
Ahí eTa la cagada, exactamente AHI. Que ps5 JAMAS podría ir al límite, y la competencia si. Eso va a marcar MUCHO las diferencias.
Al fin te has dado cuenta, o no, y has caído en tu propia trampa.
daymaster escribió:ElUltimoPasajero escribió:Solo recuerdo una Gen en la cual ps fue un poco más potente que sus competidores, la anterior. En ninguna fue un impedimento para estar arriba : )
Volvemos a lo mismo,... psx fue más potente que la saturn. Ps2 fue más potente que la dreamcast . PS4 fue más potente que la one y la ps3 la dejo en el limbo por que al principio pareciera menos potente pero al final de generación se vieron unos bombazos que demostraron que su mayor problema era lo difícil de programar que era al principio.
Que años después de sus salidas lanzaran n64..game cube o xbox no puedes meterlas en el saco por que no son consolas de salida, salieron años después.
daymaster escribió:ElUltimoPasajero escribió:Solo recuerdo una Gen en la cual ps fue un poco más potente que sus competidores, la anterior. En ninguna fue un impedimento para estar arriba : )
Volvemos a lo mismo,... psx fue más potente que la saturn. Ps2 fue más potente que la dreamcast . PS4 fue más potente que la one y la ps3 la dejo en el limbo por que al principio pareciera menos potente pero al final de generación se vieron unos bombazos que demostraron que su mayor problema era lo difícil de programar que era al principio.
Que años después de sus salidas lanzaran n64..game cube o xbox no puedes meterlas en el saco por que no son consolas de salida, salieron años después.
Szasz escribió:@Jordisan
No me invento nada. Solo q tú solo te quedas con la parte q te interesa. Y otra cosa el consumo NUNCA es lineal, más arriba estás más alto es el consumo. Así q ese dato q da solo es real cuando estás nombrando el pico de frecuencia. Ahora lee la traducción entera:
Observamos las actividades que realizan la GPU y la CPU y establecemos las frecuencias sobre esa base, lo que hace que todo sea determinista y repetible mientras lo hacemos, también usamos la tecnología de cambio inteligente de AMD y enviamos cualquier energía no utilizada de la CPU a la GPU para que pueda exprimir algunos píxeles más. Los beneficios de esta estrategia son bastante grandes: ejecutar una GPU a 2GHz parecía un objetivo inalcanzable con la antigua estrategia de frecuencia fija. Con este nuevo paradigma, podemos superarla, de hecho, tenemos que limitar la frecuencia de la GPU a 2.23 GHz para garantizar que la lógica en el chip funcione correctamente ... esperamos que la GPU gaste más de su tiempo en o cerca de esa frecuencia y rendimiento. De manera similar, ejecutar la CPU a 3 Ghz estaba causando dolores de cabeza con la antigua estrategia, pero ahora podemos ejecutarla a una velocidad de hasta 3.5 GHz, de hecho, pasa la mayor parte de su tiempo a esa frecuencia, lo que no significa que todos los juegos se ejecutarán a 2.23 GHz y 3.5 GHz cuando llegue el peor de los casos, funcionará a una velocidad de reloj más
baja, pero no demasiado baja. Para reducir la potencia en un 10%, solo se necesita un 2% de reducción de frecuencia, por lo que esperaría que cualquier bajada de reloj sea bastante reducida
Nowcry escribió:Mulzani escribió:@Nowcry
Lo que me refiero es que, esa diferencia de velocidad en el SSD entre ambas consolas no es para tanto, cuando se trata de ir rellenando la memoria, no vas a estar llenando a full la memoria, sino que se harán accesos cada poco tiempo para ir metiendo datos, no va a ser una lectura secuencial, que es el dato que han dado en SONY, ahí va a ser más importante el número de IOPS y, en ese aspecto, no creo que anden muy lejanas.
Pero lo bueno es lo que dice @Lugal respecto a los juegos, ambas van a contar con SSD y eso va a transformar el mundo del videojuego, en eso no hay ninguna duda, sólo que creo que a Cerny se le ha ido, y mucho, la imaginación de lo que se puede hacer con los SSDs, en cuanto a meter tanta velocidad y el coste que conlleva, descuidando muchos otros aspectos.
Y, respecto a la potencia, no estoy diciendo que sea manca la PS5, a lo que me refiero es que, si en un multi hay que sacrificar algo, por esa pequeña diferencia, pero que hay que hacerla, uno de los puntos a sacrificar puede ser ese LOD que permitiría el SSD más rápido, porque a la desarrolladora le interese más que el primer plano sea mucho más preciosista y lleno de efectos (que no sabemos donde habrá el sacrificio, pero alguno, por pequeño que sea, debe existir).
Hombre hablando de memoria comprimida que sera como se use al final uno tiene una tasa de renovación de 4,8 GB/s y el otro aproximadamente de 10 GB/s exactamente no se que consecuencias puede tener eso. 4,8 GB/s ya es 48 mas rápido que esta gen, pero PS5 es 100 veces mas rápido.
De todas formas 4,8 haran muy bien su papel, no creo que haya problema pero desde mi punto de vista igual tener 2 TFLOPS mas no va a ser tan beneficioso como esto.
Como dicen por ahi arriba StarCitizen es un ejemplo de usar el SSD aunque PCIgen4 con una 2070 (8 TFLOPS pero instalado en un SSD consigue mas FPS que una 2080Ti instalado en un HDD normal y se nota que en un HDD petardea infinito siempre, sin embargo en SSD no lo hace, porque al final quien retrasa a la GPU es el HDD que tiene que esperar a que la textura se cargue. El Starcitizen esta diseñado para tener el ancho de banda de PCIgen 3 osea 3GB/s en RAW.
Puede gustar mas o menos, pero detalles tiene por un tubo y se nota que las naves aunque sean gigantescas no tienen tiempos de carga es entrar por la exclusa y seguir al puesto de mando de tu nave, es como la vida misma. Planetas enteros sin cargas, creo que es muy emocionante lo que puede salir de todo esto.
Esta gen eso se va a llevar mucho y va a ser un lujo, todos estamos de enhorabuena gracias a estos cambios. En las calidades de las Mayas casi no vamos a ver diferencia y es posible que en lo otro salvo el First Partys tampoco con algo de suerte intentan aprovechar algo del ancho de banda de ps5 de la forma mas barata posible y ya, pero los First Partys van a ser la pera.
Como jugador de PC + PS5 me parece que es la combinación perfecta. Ya lo fue esta gen y lo va a ser la siguiente.
Jordisan escribió:Szasz escribió:Jordisan escribió:El consumo es fijo siempre. Lo que quiere decir Mark Cerny, esque cuando la CPU necesite los 3,5 de su velocidad de reloj, bajará la frecuencia de la GPU cómo mucho un 2% para proporcionar esa energía a la CPU.
Actuarían como una balanza con un consumo fijo. No se si me he explicado bien.
Salu2
No quiero ser pesado pero eso no es tan sencillo. Para hacer la cuenta tenéis q contar con las frecuencias "base" q dió Cerny. Esas eran 3GHz en CPU (les costaba horrores conseguirlas) y 2GHz GPU (les parecía un objetivo inalcanzable).
Para llegar a 3,5 GHz en CPU supone una subida importante de Hz por lo q la GPU se quedará a una frecuencia realmente baja. Ese escenario yo directamente lo descartaría (bajar tanto la GPU para potenciar la CPU). En el caso de la GPU también tienes q subir bastante Hz, lo q llevarlo a su tope te puede suponer un 50% más de consumo q tendrías q quitarlo a la CPU.
Para q os hagáis una idea Cerny realmente habla de empujar "más píxeles" (literal) en la GPU gracias a AMD smart shift. Pero también dice q esos 2,23GHz no están asegurados y q esperan estar cerca. Han sido muy ambiguos porq realmente les interesa serlo y aparentar más de lo q es. Pero os aseguro q 3,5GHz la CPU y 2,23GHz GPU no va a ocurrir JAMAS, ni siquiera van a estar cerca. O uno u otro, pero JAMAS a la vez. Lo más normal es q se muevan en frecuencias de 3GHz y 2GHz, justamente lo q decían q antes del smart shift no podían alcanzar (lo dice explícitamente Cerny). Son frecuencias suficientes para conseguir un gran rendimiento.
Muchas cosas que dices no son ciertas.
La GPU bajará como mucho un 2% dicho por Mark Cerny en el peor de los casos
"Esas eran 3GHz en CPU (les costaba horrores conseguirlas) y 2GHz GPU (les parecía un objetivo inalcanzable)" Esto literalmente te lo has inventado.
"Para llegar a 3,5 GHz en CPU supone una subida importante de Hz por lo q la GPU se quedará a una frecuencia realmente baja. Ese escenario yo directamente lo descartaría (bajar tanto la GPU para potenciar la CPU). En el caso de la GPU también tienes q subir bastante Hz, lo q llevarlo a su tope te puede suponer un 50% más de consumo q tendrías q quitarlo a la CPU"
Lo vuelvo a poner, la GPU BAJARÁ COMO MUCHO UN 2%
"Pero os aseguro q 3,5GHz la CPU y 2,23GHz GPU no va a ocurrir JAMAS"
EEsto sí que es verdad.
Magix escribió:parh escribió:Lo de la retrocompatibilidad es la penultima decepcion con PS5. Una gestion nefasta de Sony. Lo que me sorprende es que en la presentacion el Cerny no haya mencionado "posiblidad de disfrutar 8k" porque desde PS3 (en aquel entonces vendian los 1080p en cada presentacion/nota de prensa, y ya sabemos la realidad cual fue) son los mayores expertos en vender humo.
Sony ya ha aclarado que la mayoría de los 4.000 juegos de ps4 serán compatibles con PS5. Que por cierto, es lo mismo que confirmó ayer MS con XSX..., me sorprende que una haya sido tan mala comunicando cuantos juegos serán retro y la otra haya mentido y ahora tenga que rectificar...
Dan_Fortesque escribió:daymaster escribió:ElUltimoPasajero escribió:Solo recuerdo una Gen en la cual ps fue un poco más potente que sus competidores, la anterior. En ninguna fue un impedimento para estar arriba : )
Volvemos a lo mismo,... psx fue más potente que la saturn. Ps2 fue más potente que la dreamcast . PS4 fue más potente que la one y la ps3 la dejo en el limbo por que al principio pareciera menos potente pero al final de generación se vieron unos bombazos que demostraron que su mayor problema era lo difícil de programar que era al principio.
Que años después de sus salidas lanzaran n64..game cube o xbox no puedes meterlas en el saco por que no son consolas de salida, salieron años después.
Permíteme que puntualice ya que tu información es sesgada. En la generación de psx la más potente fue N64, en la generación de ps2 la más potente fue xbox, en la generación de PS3 si fue la más potente pero acabaron muy igualadas y la vencedora fue wii, mucho menos potente, en la generación de ps4 fue la más potente hasta la aparición de XbOX.
En definitiva, la potencia nunca ha servido para ganar una generación.
korchopan escribió:Pero es que el consumo es variable .
Jordisan escribió:El consumo es fijo siempre.
Jordisan escribió:El consumo es fijo siempre. Lo que quiere decir Mark Cerny, esque cuando la CPU necesite los 3,5 de su velocidad de reloj, bajará la frecuencia de la GPU cómo mucho un 2% para proporcionar esa energía a la CPU.
Actuarían como una balanza con un consumo fijo. No se si me he explicado bien.
Salu2
Pero no mucho más baja, para reducir el consumo un 10% solo necesitas una reducción de alrededor del 2% en la frecuencia
Jordisan escribió:Szasz escribió:@Jordisan
No me invento nada. Solo q tú solo te quedas con la parte q te interesa. Y otra cosa el consumo NUNCA es lineal, más arriba estás más alto es el consumo. Así q ese dato q da solo es real cuando estás nombrando el pico de frecuencia. Ahora lee la traducción entera:
Observamos las actividades que realizan la GPU y la CPU y establecemos las frecuencias sobre esa base, lo que hace que todo sea determinista y repetible mientras lo hacemos, también usamos la tecnología de cambio inteligente de AMD y enviamos cualquier energía no utilizada de la CPU a la GPU para que pueda exprimir algunos píxeles más. Los beneficios de esta estrategia son bastante grandes: ejecutar una GPU a 2GHz parecía un objetivo inalcanzable con la antigua estrategia de frecuencia fija. Con este nuevo paradigma, podemos superarla, de hecho, tenemos que limitar la frecuencia de la GPU a 2.23 GHz para garantizar que la lógica en el chip funcione correctamente ... esperamos que la GPU gaste más de su tiempo en o cerca de esa frecuencia y rendimiento. De manera similar, ejecutar la CPU a 3 Ghz estaba causando dolores de cabeza con la antigua estrategia, pero ahora podemos ejecutarla a una velocidad de hasta 3.5 GHz, de hecho, pasa la mayor parte de su tiempo a esa frecuencia, lo que no significa que todos los juegos se ejecutarán a 2.23 GHz y 3.5 GHz cuando llegue el peor de los casos, funcionará a una velocidad de reloj más
baja, pero no demasiado baja. Para reducir la potencia en un 10%, solo se necesita un 2% de reducción de frecuencia, por lo que esperaría que cualquier bajada de reloj sea bastante reducida
Si va a ser un consumo lineal, quiera o no quieras.
Gracias, ese texto explica exactamente lo que estoy diciendo. Es más menciona que tanto la CPU y la GPU trabajarán siempre muy cerca de sus picos máximos de velocidad de reloj y tanto la CPU cómo la GPU Irán variando relojes a lo sumo un 2 % para intercambiar consumo FIJO.
GRACIAS.
kikomanco escribió:djber escribió:@kikomanco lo que dices es mentira, ps5 lleva ssd.
ostras es verdad no me acordaba del SSD magico que da 20 fps extras, gracias por aclararmelo
modo ironic off
nanoxxl escribió:korchopan escribió:Pero es que el consumo es variable .Jordisan escribió:El consumo es fijo siempre.
Jordisan escribió:El consumo es fijo siempre. Lo que quiere decir Mark Cerny, esque cuando la CPU necesite los 3,5 de su velocidad de reloj, bajará la frecuencia de la GPU cómo mucho un 2% para proporcionar esa energía a la CPU.
Actuarían como una balanza con un consumo fijo. No se si me he explicado bien.
Salu2Pero no mucho más baja, para reducir el consumo un 10% solo necesitas una reducción de alrededor del 2% en la frecuencia
Ahí dice claramente bajar 10% el consumo .
No que suba la CPU bajando la GPU o al revés .
Si es bajar una para subir otra manteniendo el consumo por que habla de bajar el consumo .
Todo esto es muy raro y cada uno dice una cosa distinta .
Lo que está claro es que se explico muy mal o no se entendió bien lo que quería decir , por que algo falla .
Mulzani escribió:@Nowcry
Ya han dado los datos del ancho de banda con compresión, ambas compañías lo hicieron, y serían de 8-9 GB/s y 4,8 GB/s, no sé qué método de compresión utilizará cada una, pero es destacable que, mientras una ofrece un ratio de hasta 1,6:1, la otra es de 2:1, creérselo o no es ya cosa de cada uno.
A parte de ésto, sigo diciendo que lo importante no es el ancho de banda en un SSD, son los IOPS, y éste dato no se ha dado por ninguna compañía, es imposible hacer una lectura secuencial de todos los datos necesarios para una escena, se van a ir cogiendo datos de aquí y de allí, por lo que importa más la tasa de lecturas-escrituras que pueda tener el SSD.
Jordisan escribió:nanoxxl escribió:korchopan escribió:Pero es que el consumo es variable .Jordisan escribió:El consumo es fijo siempre.
Jordisan escribió:El consumo es fijo siempre. Lo que quiere decir Mark Cerny, esque cuando la CPU necesite los 3,5 de su velocidad de reloj, bajará la frecuencia de la GPU cómo mucho un 2% para proporcionar esa energía a la CPU.
Actuarían como una balanza con un consumo fijo. No se si me he explicado bien.
Salu2Pero no mucho más baja, para reducir el consumo un 10% solo necesitas una reducción de alrededor del 2% en la frecuencia
Ahí dice claramente bajar 10% el consumo .
No que suba la CPU bajando la GPU o al revés .
Si es bajar una para subir otra manteniendo el consumo por que habla de bajar el consumo .
Todo esto es muy raro y cada uno dice una cosa distinta .
Lo que está claro es que se explico muy mal o no se entendió bien lo que quería decir , por que algo falla .
Vamos a ver, voy a hablar en Cristiano.
Ponte en el supuesto que tienes un consumo fijado en 100. ( no varía) y esta lo repartes entre la CPU y GPU
Imaginate que la GPU tiene 60 (de esos 100) y la CPU (40). En el momento que la CPU necesite aumentar su velocidad de reloj, esta pasará de tener un consumo de 40 a un consumo de 50. Yque pasará con la GPU? Que pasará de tener un consumo de 60 a un consumo de 50.
Con lo cual si antes estaban en 60 GPU y 40 CPU, ahora están en 50 y 50 cada una, en consecuencia el consumo sigue siendo el mismo, 100
Mejor no lo puedo explicar sinceramente.
Szasz escribió:Jordisan escribió:Szasz escribió:@Jordisan
No me invento nada. Solo q tú solo te quedas con la parte q te interesa. Y otra cosa el consumo NUNCA es lineal, más arriba estás más alto es el consumo. Así q ese dato q da solo es real cuando estás nombrando el pico de frecuencia. Ahora lee la traducción entera:
Observamos las actividades que realizan la GPU y la CPU y establecemos las frecuencias sobre esa base, lo que hace que todo sea determinista y repetible mientras lo hacemos, también usamos la tecnología de cambio inteligente de AMD y enviamos cualquier energía no utilizada de la CPU a la GPU para que pueda exprimir algunos píxeles más. Los beneficios de esta estrategia son bastante grandes: ejecutar una GPU a 2GHz parecía un objetivo inalcanzable con la antigua estrategia de frecuencia fija. Con este nuevo paradigma, podemos superarla, de hecho, tenemos que limitar la frecuencia de la GPU a 2.23 GHz para garantizar que la lógica en el chip funcione correctamente ... esperamos que la GPU gaste más de su tiempo en o cerca de esa frecuencia y rendimiento. De manera similar, ejecutar la CPU a 3 Ghz estaba causando dolores de cabeza con la antigua estrategia, pero ahora podemos ejecutarla a una velocidad de hasta 3.5 GHz, de hecho, pasa la mayor parte de su tiempo a esa frecuencia, lo que no significa que todos los juegos se ejecutarán a 2.23 GHz y 3.5 GHz cuando llegue el peor de los casos, funcionará a una velocidad de reloj más
baja, pero no demasiado baja. Para reducir la potencia en un 10%, solo se necesita un 2% de reducción de frecuencia, por lo que esperaría que cualquier bajada de reloj sea bastante reducida
Si va a ser un consumo lineal, quiera o no quieras.
Gracias, ese texto explica exactamente lo que estoy diciendo. Es más menciona que tanto la CPU y la GPU trabajarán siempre muy cerca de sus picos máximos de velocidad de reloj y tanto la CPU cómo la GPU Irán variando relojes a lo sumo un 2 % para intercambiar consumo FIJO.
GRACIAS.
Ese texto efectivamente explica lo q yo estoy diciendo y al mismo tiempo lo q tú estás diciendo, ¿Por qué? Porque ha sido tremendamente ambiguo.
Solo pensad que AMD smart shift no hace magia. Solo monitoriza el consumo y lo reparte entre la GPU y la CPU cuando uno u otro se usa menos. PERO, si te están diciendo q sin esa tecnología no pasan de 2GHz en GPU ni de 3GHz en CPU ya sabes q TODO q sea moverte por encima de esa frecuencia tienes q aplicar lo q dice Cerny, un 2% más de frecuencia aumenta un 10% el consumo. Por lo q subir a 2,23GHz la GPU supone un 50% más de consumo aproximadamente. Lo q deja la CPU en una muy mala posición.
Recordad q las pruebas(test) q se hicieron de las obleas de Ps5 no pasaban de las frecuencias de 2GHz en GPU y de esas pruebas vinieron TODAS las filtraciones que se han acertado. Lo único q ha cambiado ha sido el juego este de la frecuencia variable q dais por hecho q va a estar siempre a esa frecuencia y si pensáis en lo q hace smart shift ya podéis dar por hecho q es imposible llegar a esas frecuencias sin dejar al otro componente en pañales.
Nowcry escribió:
¿Enserio? Tienes por ahí el link de la noticia? pásamela por MP si no quieres ponerla aquí.
En cierta forma es lo lógico, no te van a poner en la store juegos compatibles para que luego tengas problemas, en PC al final los arregla la comunidad, sale un MOD que arregla tal problema, pero en consolas son los desarrolladores o nadie. No vas a comprar algo que no funciona asique toca ir comprobando.
A mi me parecía raro que se pudiera poner retrocompatibilidad perfecta sin tener el mismo hardware físico, ahora ya entiendo porque, por lo visto están engañando al personal. Que raro .
Jordisan escribió:jose2488 escribió:Jordisan escribió:
Dicho por el propio Mark Cerny, ni la GPU ni la CPU Irán las dos al mismo tiempo al 100%. Tenéis que quitados de la cabeza el consumo variable de cualquier PC. Esto es algo que nunca se ha hecho.
El consumo es siempre fijo y tanto la CPU como la GPU irán variando según lo que requiera el juego en ese momento.
Ahí eTa la cagada, exactamente AHI. Que ps5 JAMAS podría ir al límite, y la competencia si. Eso va a marcar MUCHO las diferencias.
Al fin te has dado cuenta, o no, y has caído en tu propia trampa.
Pero de qué hablas sin solo estoy explicando la Conferencia de Mark Cerny. No estoy defendiendo una consola u otra. Intento explicar cómo va a funcionar la ps5. Te puede gustar o no, pero va a funcionar así.
Madre mía, intentas explicar las cosas para que la gente entienda todo esto y te atacan cómo buitres porque sí.
Nowcry escribió:Mulzani escribió:@Nowcry
Ya han dado los datos del ancho de banda con compresión, ambas compañías lo hicieron, y serían de 8-9 GB/s y 4,8 GB/s, no sé qué método de compresión utilizará cada una, pero es destacable que, mientras una ofrece un ratio de hasta 1,6:1, la otra es de 2:1, creérselo o no es ya cosa de cada uno.
A parte de ésto, sigo diciendo que lo importante no es el ancho de banda en un SSD, son los IOPS, y éste dato no se ha dado por ninguna compañía, es imposible hacer una lectura secuencial de todos los datos necesarios para una escena, se van a ir cogiendo datos de aquí y de allí, por lo que importa más la tasa de lecturas-escrituras que pueda tener el SSD.
Revisa bien los datos, MS tiene un ancho de banda del SSD de 2,4 GB/s porque es un SSD normal de 1 Tb de PCIgen3 ni mas ni menos (el ancho de banda teórico de PCIgen3 es de 3,5 GB/s) y el que han puesto ellos es de 2,4 GB/s en RAW y de 4,8GB/s en comprimido. Una vez que planteas un ancho de banda de diseño, ya te lo comes toda la generación porque no vas a abandonar las primeras consolas.Jordisan escribió:nanoxxl escribió:
Ahí dice claramente bajar 10% el consumo .
No que suba la CPU bajando la GPU o al revés .
Si es bajar una para subir otra manteniendo el consumo por que habla de bajar el consumo .
Todo esto es muy raro y cada uno dice una cosa distinta .
Lo que está claro es que se explico muy mal o no se entendió bien lo que quería decir , por que algo falla .
Vamos a ver, voy a hablar en Cristiano.
Ponte en el supuesto que tienes un consumo fijado en 100. ( no varía) y esta lo repartes entre la CPU y GPU
Imaginate que la GPU tiene 60 (de esos 100) y la CPU (40). En el momento que la CPU necesite aumentar su velocidad de reloj, esta pasará de tener un consumo de 40 a un consumo de 50. Yque pasará con la GPU? Que pasará de tener un consumo de 60 a un consumo de 50.
Con lo cual si antes estaban en 60 GPU y 40 CPU, ahora están en 50 y 50 cada una, en consecuencia el consumo sigue siendo el mismo, 100
Mejor no lo puedo explicar sinceramente.
Ya lo que no tienes en cuenta es que en realidad la GPU consume cerca del 95% de la energía y la CPU cerca del 5% de la misma. Pero que un detrimento de 1% de la GPU puede aportar la CPU toda la energia necesaria para desarrollar el 100% de su potencia.
De tal forma que la CPU hace bajar a la GPU un 2% y obtiene le 100% de su energia. Es tan sencillo como eso
Por otro lado los ultimos tramos de frecuencias un bajon de frecuencia del 2% libera el 10% de la energia que es la que se le suministra a la CPU y llega a su maximo desarrollo.
Nowcry escribió:Mulzani escribió:@Nowcry
Ya han dado los datos del ancho de banda con compresión, ambas compañías lo hicieron, y serían de 8-9 GB/s y 4,8 GB/s, no sé qué método de compresión utilizará cada una, pero es destacable que, mientras una ofrece un ratio de hasta 1,6:1, la otra es de 2:1, creérselo o no es ya cosa de cada uno.
A parte de ésto, sigo diciendo que lo importante no es el ancho de banda en un SSD, son los IOPS, y éste dato no se ha dado por ninguna compañía, es imposible hacer una lectura secuencial de todos los datos necesarios para una escena, se van a ir cogiendo datos de aquí y de allí, por lo que importa más la tasa de lecturas-escrituras que pueda tener el SSD.
Revisa bien los datos, MS tiene un ancho de banda del SSD de 2,4 GB/s porque es un SSD normal de 1 Tb de PCIgen3 ni mas ni menos (el ancho de banda teórico de PCIgen3 es de 3,5 GB/s) y el que han puesto ellos es de 2,4 GB/s en RAW y de 4,8GB/s en comprimido. Una vez que planteas un ancho de banda de diseño, ya te lo comes toda la generación porque no vas a abandonar las primeras consolas.
pixius escribió:cada uno que compre la que quiera yo lo tengo claro big chip
No la tomé contra ti ni nada, que no se me malinterprete... Si quieres potencia esta clara la decisión (yo haría igual, pero me llaman bastante los juegos de Sony y aquí estoy esperando más info T_T).
Mulzani escribió:Nowcry escribió:Mulzani escribió:@Nowcry
Ya han dado los datos del ancho de banda con compresión, ambas compañías lo hicieron, y serían de 8-9 GB/s y 4,8 GB/s, no sé qué método de compresión utilizará cada una, pero es destacable que, mientras una ofrece un ratio de hasta 1,6:1, la otra es de 2:1, creérselo o no es ya cosa de cada uno.
A parte de ésto, sigo diciendo que lo importante no es el ancho de banda en un SSD, son los IOPS, y éste dato no se ha dado por ninguna compañía, es imposible hacer una lectura secuencial de todos los datos necesarios para una escena, se van a ir cogiendo datos de aquí y de allí, por lo que importa más la tasa de lecturas-escrituras que pueda tener el SSD.
Revisa bien los datos, MS tiene un ancho de banda del SSD de 2,4 GB/s porque es un SSD normal de 1 Tb de PCIgen3 ni mas ni menos (el ancho de banda teórico de PCIgen3 es de 3,5 GB/s) y el que han puesto ellos es de 2,4 GB/s en RAW y de 4,8GB/s en comprimido. Una vez que planteas un ancho de banda de diseño, ya te lo comes toda la generación porque no vas a abandonar las primeras consolas.
¿Qué tiene que ver lo que he puesto con lo que estás diciendo?
He dicho lo que tiene cada una con compresión, Sony dice que con compresión tiene entre 8 y 9 GB/s y Microsoft dice que tiene 4,8 GB/s, es decir, el ratio de compresión es mayor en la segunda, la compresión, como tal, no es uniforme, por tanto, es cosa de cada uno creerse dichos datos.
Y luego te he comentado que lo importante no es el ancho de banda, son las operaciones de lectura-escritura que permite la SSD y es un dato que ninguna compañía ha dado, si tú crees que éste dato, en juegos, no es importante, entonces ya te digo que estás equivocado, porque es mucho más importante que el ancho de banda, que sólo hace referencia a la lectura secuencial, es decir, sólo es importante a la hora de cargar el juego o un escenario completo, pero no a la hora de ir cargando y descargando texturas y vectores de la RAM, los IOPS es lo que mide la agilidad del sistema.
jose2488 escribió:Jordisan escribió:jose2488 escribió:Ahí eTa la cagada, exactamente AHI. Que ps5 JAMAS podría ir al límite, y la competencia si. Eso va a marcar MUCHO las diferencias.
Al fin te has dado cuenta, o no, y has caído en tu propia trampa.
Pero de qué hablas sin solo estoy explicando la Conferencia de Mark Cerny. No estoy defendiendo una consola u otra. Intento explicar cómo va a funcionar la ps5. Te puede gustar o no, pero va a funcionar así.
Madre mía, intentas explicar las cosas para que la gente entienda todo esto y te atacan cómo buitres porque sí.
No es eso, es que cerny cuando dice eso, cerny dice que para que la gpu vaya a 10.28 la cpu tiene que ayudarle, y viceversa.
Al final lo que hay que hacer es una media.
Y pienso que sony debería dejarse de frecuencias variables y poner fijas las frecuencias aunque la gpu se quede en 9.7 tflops que eso ya sería a 2.1ghz y sigue siendo mucho calor eh. Y la cpu a 3.2-3.3.
Creo que sería lo mejor, y en verdad es a la.media que van a ir los juegos en la consola
Jordisan escribió:korchopan escribió:Jordisan escribió:
El consumo es fijo siempre. Lo que quiere decir Mark Cerny, esque cuando la CPU necesite los 3,5 de su velocidad de reloj, bajará la frecuencia de la GPU cómo mucho un 2% para proporcionar esa energía a la CPU.
Actuarían como una balanza con un consumo fijo. No se si me he explicado bien.
Salu2
Lo que yo no entiendo es qué hace cuando ni la cpu ni la gpu requiera potencia, se pone a consumir una resistencia que meten por ahí o qué? no le veo sentido a que el mínimo también sea el máximo. O eso, o solo hablan de consumo estable cuando uno de los dos, cpu o gpu, pida el máximo.
Dicho por el propio Mark Cerny, ni la GPU ni la CPU Irán las dos al mismo tiempo al 100%. Tenéis que quitados de la cabeza el consumo variable de cualquier PC. Esto es algo que nunca se ha hecho.
El consumo es siempre fijo y tanto la CPU como la GPU irán variando según lo que requiera el juego en ese momento.
nanoxxl escribió:korchopan escribió:Pero es que el consumo es variable .Jordisan escribió:El consumo es fijo siempre.
Jordisan escribió:El consumo es fijo siempre. Lo que quiere decir Mark Cerny, esque cuando la CPU necesite los 3,5 de su velocidad de reloj, bajará la frecuencia de la GPU cómo mucho un 2% para proporcionar esa energía a la CPU.
Actuarían como una balanza con un consumo fijo. No se si me he explicado bien.
Salu2Pero no mucho más baja, para reducir el consumo un 10% solo necesitas una reducción de alrededor del 2% en la frecuencia
Ahí dice claramente bajar 10% el consumo .
No que suba la CPU bajando la GPU o al revés .
Si es bajar una para subir otra manteniendo el consumo por que habla de bajar el consumo .
Todo esto es muy raro y cada uno dice una cosa distinta .
Lo que está claro es que se explico muy mal o no se entendió bien lo que quería decir , por que algo falla .
korchopan escribió:Jordisan escribió:korchopan escribió:Lo que yo no entiendo es qué hace cuando ni la cpu ni la gpu requiera potencia, se pone a consumir una resistencia que meten por ahí o qué? no le veo sentido a que el mínimo también sea el máximo. O eso, o solo hablan de consumo estable cuando uno de los dos, cpu o gpu, pida el máximo.
Dicho por el propio Mark Cerny, ni la GPU ni la CPU Irán las dos al mismo tiempo al 100%. Tenéis que quitados de la cabeza el consumo variable de cualquier PC. Esto es algo que nunca se ha hecho.
El consumo es siempre fijo y tanto la CPU como la GPU irán variando según lo que requiera el juego en ese momento.
obviamente no me has entendido
Mulzani escribió:@Nowcry
Bueno, lo más importante es que el SSD viene para convertirse en un estándar, gracias a las videoconsolas y eso tiene importantes mejoras para el futuro de los videojuegos. Es más que seguro que, a raíz de ésto, el mundo del PC tendrá que seguir la estela de ambas y hacer del SSD un medio de almacenamiento obligatorio, al menos si quieres disfrutar de las últimas novedades.
@Jordisan @korchopan
Es obvio, que lo que es fijo es el consumo máximo, el mínimo siempre va a ser todo lo que se pueda.
Cerny explicó que todo el tema de consumo se iba a saber directamente cuando desarrollas el videojuego, porque todas las videoconsolas se comportarán de la misma manera y podrás limitar el mismo, o limitar la CPU o GPU, en el momento del desarrollo.
Mulzani escribió:@Nowcry
Bueno, lo más importante es que el SSD viene para convertirse en un estándar, gracias a las videoconsolas y eso tiene importantes mejoras para el futuro de los videojuegos. Es más que seguro que, a raíz de ésto, el mundo del PC tendrá que seguir la estela de ambas y hacer del SSD un medio de almacenamiento obligatorio, al menos si quieres disfrutar de las últimas novedades.
@Jordisan @korchopan
Es obvio, que lo que es fijo es el consumo máximo, el mínimo siempre va a ser todo lo que se pueda.
Cerny explicó que todo el tema de consumo se iba a saber directamente cuando desarrollas el videojuego, porque todas las videoconsolas se comportarán de la misma manera y podrás limitar el mismo, o limitar la CPU o GPU, en el momento del desarrollo.
Jordisan escribió:nanoxxl escribió:korchopan escribió:Pero es que el consumo es variable .Jordisan escribió:El consumo es fijo siempre.
Jordisan escribió:El consumo es fijo siempre. Lo que quiere decir Mark Cerny, esque cuando la CPU necesite los 3,5 de su velocidad de reloj, bajará la frecuencia de la GPU cómo mucho un 2% para proporcionar esa energía a la CPU.
Actuarían como una balanza con un consumo fijo. No se si me he explicado bien.
Salu2Pero no mucho más baja, para reducir el consumo un 10% solo necesitas una reducción de alrededor del 2% en la frecuencia
Ahí dice claramente bajar 10% el consumo .
No que suba la CPU bajando la GPU o al revés .
Si es bajar una para subir otra manteniendo el consumo por que habla de bajar el consumo .
Todo esto es muy raro y cada uno dice una cosa distinta .
Lo que está claro es que se explico muy mal o no se entendió bien lo que quería decir , por que algo falla .
Vamos a ver, voy a hablar en Cristiano.
Ponte en el supuesto que tienes un consumo fijado en 100. ( no varía) y esta lo repartes entre la CPU y GPU
Imaginate que la GPU tiene 60 (de esos 100) y la CPU (40). En el momento que la CPU necesite aumentar su velocidad de reloj, esta pasará de tener un consumo de 40 a un consumo de 50. Yque pasará con la GPU? Que pasará de tener un consumo de 60 a un consumo de 50.
Con lo cual si antes estaban en 60 GPU y 40 CPU, ahora están en 50 y 50 cada una, en consecuencia el consumo sigue siendo el mismo, 100
Mejor no lo puedo explicar sinceramente.
korchopan escribió:Mulzani escribió:@Nowcry
Bueno, lo más importante es que el SSD viene para convertirse en un estándar, gracias a las videoconsolas y eso tiene importantes mejoras para el futuro de los videojuegos. Es más que seguro que, a raíz de ésto, el mundo del PC tendrá que seguir la estela de ambas y hacer del SSD un medio de almacenamiento obligatorio, al menos si quieres disfrutar de las últimas novedades.
@Jordisan @korchopan
Es obvio, que lo que es fijo es el consumo máximo, el mínimo siempre va a ser todo lo que se pueda.
Cerny explicó que todo el tema de consumo se iba a saber directamente cuando desarrollas el videojuego, porque todas las videoconsolas se comportarán de la misma manera y podrás limitar el mismo, o limitar la CPU o GPU, en el momento del desarrollo.
pero entonces si solo es en el máximo no veo diferencia a caparlo a una potencia máxima menor de la capaz. Ni que hasta ahora pudiesen consumir hasta el infinito...
Jordisan escribió:korchopan escribió:Mulzani escribió:@Nowcry
Bueno, lo más importante es que el SSD viene para convertirse en un estándar, gracias a las videoconsolas y eso tiene importantes mejoras para el futuro de los videojuegos. Es más que seguro que, a raíz de ésto, el mundo del PC tendrá que seguir la estela de ambas y hacer del SSD un medio de almacenamiento obligatorio, al menos si quieres disfrutar de las últimas novedades.
@Jordisan @korchopan
Es obvio, que lo que es fijo es el consumo máximo, el mínimo siempre va a ser todo lo que se pueda.
Cerny explicó que todo el tema de consumo se iba a saber directamente cuando desarrollas el videojuego, porque todas las videoconsolas se comportarán de la misma manera y podrás limitar el mismo, o limitar la CPU o GPU, en el momento del desarrollo.
pero entonces si solo es en el máximo no veo diferencia a caparlo a una potencia máxima menor de la capaz. Ni que hasta ahora pudiesen consumir hasta el infinito...
Exacto, lo que dice el compañero, lo que está fijado es el consumo máximo. (Ahora entendí mejor lo que querías decir)
Tienes que entender que cuánto más consumes, hay más temperaturas. Si la velocidad de reloj máxima de una GPU no puede alcanzar temperaturas óptimas, las velocidades van a bajar para estabilizar el sistema. Esto ha pasado toda la vida.
Pero ps5 funcionará de manera diferente, va a fijar el consumo máximo en X. La clave está en que Sony, con ese consumo máximo fijado, pueda mantener temperaturas estables.
Sasker escribió:Creo que esto es interesante para ps5 si finalmente usa vulkan.
https://hardzone.es/noticias/procesador ... u-nucleos/
Dicen que dx no soporta que la cpu ayude al RT y vulkan si.
Nowcry escribió:Jordisan escribió:korchopan escribió:pero entonces si solo es en el máximo no veo diferencia a caparlo a una potencia máxima menor de la capaz. Ni que hasta ahora pudiesen consumir hasta el infinito...
Exacto, lo que dice el compañero, lo que está fijado es el consumo máximo. (Ahora entendí mejor lo que querías decir)
Tienes que entender que cuánto más consumes, hay más temperaturas. Si la velocidad de reloj máxima de una GPU no puede alcanzar temperaturas óptimas, las velocidades van a bajar para estabilizar el sistema. Esto ha pasado toda la vida.
Pero ps5 funcionará de manera diferente, va a fijar el consumo máximo en X. La clave está en que Sony, con ese consumo máximo fijado, pueda mantener temperaturas estables.
Al Capar la potencia ya sabes la temperatura máxima para disipas siempre la misma, en realidad este aspecto hace que puedas ahorrar en la fuente de alimentación y quizá sea una ventaja a la hora de diseñar la refrigeración, no estoy nada puesto en estos temas, pero al tener siempre una misma temperatura que disipar los ventiladores siempre giran a la misma velocidad.
Es posible que hagas un diseño de un ventilador que suene muy muy poco a justo unas RPM concretas? Han optado por soluciones de disipación pasivas y al tener controlado siempre el consumo puedes diseñar una fuente pasiva que lo disipe?
Lo que esta claro es que todos los analistas coinciden es que sony ha hecho esto asi, para garantizar que la consola tiene forma de consola y que sea pequeña imagino.
Tengo ganas de que digan algo mas.
chencho_3 escribió:Jordisan escribió:Muchos no habéis comentado los que dijo Mark Cerny.
La ps5 tiene menos unidades (CU) pero a más frecuencia y con un engine específico para quitar la carga de esas unidades a la hora de procesar geometría.Serie X tiene más unidades, pero cada una de ellas son menos potentes ( menos frecuencia)
A la hora de programar resulta más beneficioso en algunos aspectos más frecuencia con menos CU, que viceversa ( obviamente hasta cierto punto). Por ejemplo una explosión...
Por otro laado Un PC tiene un consumo variable, es decir, si aumentas la velocidad de reloj (OC) de la GPU, provocas un aumento del consumo, en consecuencia, aumento de las temperaturas.
Ps5 va a utilizar un consumo fijo siempre. Mediante un sistema que han creado de gestión de consumo, se variarán las velocidades de la CPU y la GPU. Y por qué varían? Porque al Sony fijar un nivel de consumo, estas tienen que gestionar la energía. Con lo cual, si la GPU necesita ir a 2,23GHZ, la CPU bajará sus 3,5 GHZ para proporcionar esa energía extra a la GPU y viceversa, manteniendo siempre el mismo consumo y en consecuencia, mismas temperaturas.
Y añado este de forma literal (Palabras de Mark Cerny)
"Cuando ocurra el peor caso posible, funcionará a una velocidad de reloj más baja. Pero no mucho más baja, para reducir el consumo un 10% solo necesitas una reducción de alrededor del 2% en la frecuencia, así que calculo que la reducción será bastante baja"
Esto imagino que lo hacen para mantener esos GHZ tan altos de la GPU sin tener problemas con las temperaturas, y en el peor de los casos únicamente bajaría un 2% la velocidad de reloj. Ojo yo solo comento lo que está diciendo Mark Cerny, y lo que dicen muchos programadores, no digo que una u otra sea mejor. Eso ya se verá.
Por otro lado tanto la CPU y el ancho de banda de Serie X puede marcar diferencias, sin embargo con el tema de la GPU la diferencia no parece tan clara ( no se basa en ver quién tiene más teraflops, es todo mucho más complejo) habrá que ver como los desarrolladores lo trabajan.
Un saludo
Cada vez tiene más sentido la forma del prototipo, CPU por un lado y GPU por otro, va a ser una maquina de echar calorcito, pero nunca a la vez, o sal de uno o sale del otro.
davidDVD escribió:pixius escribió:cada uno que compre la que quiera yo lo tengo claro big chip
Pues sí; de vez en cuándo se lee este tipo de comentarios pero quedan oculto en 0,
Cuándo se vean los juegos (los cuáles no importan nada... para que sirven teniendo
unos ricos TFs?) y dado el trabajo/mimo que pone SIE en ellos pues ya se acordará de los TFs Rita. Habrá que tener paciencia.
Ah! y enhorabuena por la futura compraNo la tomé contra ti ni nada, que no se me malinterprete... Si quieres potencia esta clara la decisión (yo haría igual, pero me llaman bastante los juegos de Sony y aquí estoy esperando más info T_T).
davidDVD escribió:pixius escribió:cada uno que compre la que quiera yo lo tengo claro big chip
Pues sí; de vez en cuándo se lee este tipo de comentarios pero quedan oculto en 0,
Cuándo se vean los juegos (los cuáles no importan nada... para que sirven teniendo
unos ricos TFs?) y dado el trabajo/mimo que pone SIE en ellos pues ya se acordará de los TFs Rita. Habrá que tener paciencia.
Ah! y enhorabuena por la futura compraNo la tomé contra ti ni nada, que no se me malinterprete... Si quieres potencia esta clara la decisión (yo haría igual, pero me llaman bastante los juegos de Sony y aquí estoy esperando más info T_T).
Marjalstyle escribió:Bueno, Cerny ya comentó que ya habrá otra presentación para explicar el tema de la refrigeración...veremos.
Loevhe escribió:@eddy En el primer año 2013 estaban, Killzone Shadow Fall, TLOU remaster, GTA V y Battlefield 4 eso fue para ir tirando, hay que tener en cuenta que salio a finales de Noviembre, ya en Marzo del siguiente año 2014 salio Infamous Second Son y Driveclub en Octubre pero con muchos multis interesantes por el camino y ya el siguiente año 2015 salio Bloodborne
Algo como un GOTY 2 años tal vez pero es muy relativo por que me estoy basando en PS4, tal vez cambien la estrategia con los juegos