Unerico escribió:@papatuelo Yo diria que en realidad ninguna grafica de ningun sistema conviene hacerla funcionar al 100x100 de su clock en forma constante porque sea a 30 o a 60 frames a donde haya alguna lectura del os o algo en segundo plano (sobre todo en pc donde esto es mas constante) ahi viene el petardazo. A menos que tengas el selector variable de resolucion y disimules el petardazo que hubiera venido en frames con un petardazo de resolucion.
El resto lo entendi asi... que el boost se usa para cubrir los momentos en que salte la necesidad de mas clock para evitar la caida de frames. Y que la grafica de ps5 en su origen tenia su boost en el techo del 100x100 de mhz sin overclock al cual no convenia llegar en forma constante para reservar mhz para emergencias... pero al desbloquearle el modo boost ese 100x100 de mhz anteriores al que no convenia llegar en forma constante ahora si se puede usar en forma constante porque existe el extra de mhz que dio el overclock para emergencias.
Hasta ahi el diseño es genial en como con un retoque del diseño original sacaron un extra de poder. El problema viene cuando al desbloquearlo en el devkit por un lado dices que la consola tiene esas especificaciones maximas y que puede estar funcionando en forma constante asi... pero despues metes smart shift que posiblemente impida eso y la vez empiezas a recomendar a los desarrolladores que no usen ese modo en forma constante... si estas haciendo esas recomendaciones es porque sabes de antemano que si alguien las usas podrian haber o problemas de refrigeracion o problemas de rendimiento si alguien quiere usar ese modo constante y de pronto el smart shift te rebaja de golpe el boost porque se activo...
No es que sea malo el diseño... sino que aqui hubo otra mentirijidilla de sony para camuflar un poco la diferencia de porcentuales en la comparacion de potencia. No es lo mismo decir 10,25 al lado de 12 que decir 9.20 al lado de 12. Sobre todo porque en gamas de placas de video una diferencia de menos del 25 al 30% de potencia no justifica cambiar de placa de video porque la ventaja es apenas perceptible, pero cuando esa diferencia pasa del 30% entonces comienza a notarse.
Esto es muy parecido al tema de CELL y sus SPU... que primero eran 8 spu y se podrian usar todos para graficos, fisicas y el juego. Que despues eran 7 porque uno estaba desactivado porque venia muerto de fabrica (o no, pero se desactivaba a proposito como margen de error de fabrica). Que despues eran 6 porque el os corria por un spu en forma exclusiva. Que despues eran 5 porque el os podia requerir el uso de otro spu mas aleatoriamente y el juego que lo use debia dar prioridad al os y dejar de usarlo (en la practica se tradujo en que nadie uso ese otro spu porque no podian preveer si el os iba a pedirlo y si lo hacia el juego petardeaba). Que despues eran 3 porque el sonido se gestionaba por 2 spu. De la promesa de 8 spu para graficos y el juego quedon en 5 para el juego y solo 3 para graficos y fisicas exclusivamente.
Y me acuerdo como algun que otro quiso decir que los desarrolladores igual encontrarian la forma de usar el spu desactivado de fabrica (un disparate de fanboy, porque en algunas consolas ese spu estaba muerto por error de ensamble, osea habria desarrolladores que harian juegos que quiza pudieran colgarse en algunas ps3 porque justo querian activar el spu muerto y no funcionaba). Solo los juegos indies de la scene no oficial y podrian hacer algo asi y a riesgo de que no corriera en todas las ps3.
...
Edito...
A lo mejor digo un disparate porque voy a especular que creo que paso acá
Sony tenia pensada una consola sin overclock de rendimiento constante y refrigeracion adecuada a ese rendimiento tope constante. De pronto sale Xbox Serie X con una grafica que esta un 32% arriba en potencia (diferencia que a nivel practico si se nota entre gamas de placas de vdeo, ademas del daño a la imagen comercial de que te digan que "un juego de Xbox sera un 32% mejor", que, aunque no tenga ningun sentido decirlo asi, el daño a la imagen lo causa) y no supieron como salvar la situacion ya que no estaban a tiempo para poner otra grafica. La unica solucion era aumentar las frecuencias de reloj porque eso se puede hacer sobre lo que ya se tiene (como hizo Xbox One aquella vez) y al kit de desarrollo le desbloquearon la opcion turbo que en su origen venia bloqueada. De esa manera la diferencia es de 18% y eso desde el punto de vista de la imagen comercial y desde la diferencia de potencia en gamas de placas de video no es una diferencia que haga daño.
Osea resolvieron muy bien el problema.
Hasta ahi bien, pero al hacer esto creo (especulo) que encontraron que se generaban problemas de calor que hacian petar la consola (rumores sobre esto hubieron). Entonces aparece el smart shift como solucion al problema para que funcione de regulador del modo turbo impidiendo que la consola se queme (
otra solucion excelente). Pero esto que soluciono el tema calor vino a traer otro inconveniente que es que al limitar al GPU y CPU en consumo para que no se derrita la frecuencia tope ya no se podia sostener en forma constante y ahi aparecen los rumores del 10.25 frecuencia turbo pero 9.2 sostenido,
las declaraciones de Cerny que cuando especularon que el smart shift iba a rebajar la frecuencia salio a decir que todo podia funcionar a tope como si nada, pero ahora salen a decir que puede hacerlo pero "no lo recomiendan" (vaya, si puede porque no se recomienda, cual es el riesgo???). Y esa es la parte que no quieren decir, que las dos soluciones que usaron, una para aumentar la potencia, y la otra como solucion al problema que traia la anterior solucion y evitar que la consola se queme...; desembocaron en un problema final que no pudieron ya resolver (tampoco son magos) que fue el de rendimiento no estable en las frecuencias tope. Pero eso no te lo quieren decir, porque el daño a la imagen comercial que de pronto pueda empezar a decirse que la ventaja de 18% de Xbox puede, en forma variable, ser 32%, es un precio que no quieren pagar.
Al menos es lo que entiendo de lo que explican aca: fuente. Y tambien de lo que no explican pero se decanta por negativa. Si te dicen que el CPU de pronto consume menos entonces esa potencia se puede destinar al GPU (boost). Hasta ahi bien, pero si por casualidad el CPU empieza a consumir su maximo porque asi el juego se lo pide? Como se destina eso que no sobra al GPU? No se destina entonces? (no boost?). Entonces si un componente esta al maximo el otro no puede recibir el boost (rendimiento variable). Y si el juego quiere ser uno que use las frecuencias maximas en todo momento (lo que ellos no recomiendan hacer pero si un desarrollador si quiere puede hacer porque el kit tiene desbloqueada la opcion turbo) entonces nunca habra boost de frecuencias para el GPU y los 10.25 teraflops no seran posibles asi como tampoco el rendimiento sostenido al maximo que Cerny dice que se si se puede tener (pero que no recomiendan usar, vaya, porque no?).
Igual esto se va a saber facil, apenas salga la consola te la agarran los de digital foundry o sitio similar, la desarman y la testean. Ahi se acaban las especulaciones y rumores y las mentiras de marketing.