dicanio1 escribió:pero con una media de 3 horas al día de juegi y 21 en stand bay o como se diga..de cuanto dinero estamos hablando al mes, que acabo de comprar en el foro también la ps4
chris76 escribió:dicanio1 escribió:pero con una media de 3 horas al día de juegi y 21 en stand bay o como se diga..de cuanto dinero estamos hablando al mes, que acabo de comprar en el foro también la ps4
Uu uy uy,entonces apartir de ahora es cuando todo lo de one ya no sera tan perfecto como siempre defiendes y ps4 ya no sera tan mala,no??
Nuhar escribió:chris76 escribió:dicanio1 escribió:pero con una media de 3 horas al día de juegi y 21 en stand bay o como se diga..de cuanto dinero estamos hablando al mes, que acabo de comprar en el foro también la ps4
Uu uy uy,entonces apartir de ahora es cuando todo lo de one ya no sera tan perfecto como siempre defiendes y ps4 ya no sera tan mala,no??
Dejar las puntillas personales antes que vengan con el banhammer
Como ya han dicho otros compañeros, el consumo no es sinonimo de mas o menos calidad grafica.
Phellan_Wolf escribió:
Mm discrepo, a mayor consumo mayor potencia, si eso fuera como dices habriamos encontrado la solucion por ejemplo a PCs con bestias del calibre de la Titanz que requieren refrigeracion liquida ademas de una planta nuclear para alimentarla. O eso o habeis encontrado la excepcion a la ley de moore.
Aunque si bien la potencia sin control no sirve de nada, y ahi entraria en juego la eficiencia de One pero todo se andara.
pargorax escribió:Alguien me podría explicar porque un estudio que hicieron en diciembre 2013 sale hasta ahora mayo 2014
Horizonte de sucesos escribió: Lo que tienes que hacer es cronometrar lo que tarda en calentar el agua. Imagina que son 30 minutos, pues lo conectas 30 minutos antes de ducharte y luego apagado todo el día.
Que vienes de currar y de cabeza a la ducha? pues pones el programador para que se encienda 30 minutos antes de llegar a casa.
Y luego apagado todo el día, sin es tirar el dinero.
KinderRey escribió:Tanta obsesión por el consumo y luego muchos encienden el horno para calentarse una pizza de casa tarradellas y dejan el router conectado 365/24h.
En fin, es la nueva moda parece.
chris76 escribió:Haber esta claro que la tecnologia avanza,pero no pidais peras al olmo,si la apu de la consola esta fabricada a 28nm y tiene un consumo maximo total de 120w toda la consola pues cada uno que se haga su idea de hasta donde llega esa optimizacion pero para mi estos dos datos se contradicen mucho con la bestia parda que algunos comentan por aqui
chris76 escribió:Haber esta claro que la tecnologia avanza,pero no pidais peras al olmo,si la apu de la consola esta fabricada a 28nm y tiene un consumo maximo total de 120w toda la consola pues cada uno que se haga su idea de hasta donde llega esa optimizacion pero para mi estos dos datos se contradicen mucho con la bestia parda que algunos comentan por aqui
Stylish escribió:Potencia != rendimiento.
Rashid Sayed: Having said that, the Xbox One’s eSRAM is definitely suited for tiled textures, which we know has potential. What kind of advantages does CRYENGINE bring when used with tiled textures?
Sean Tracy: CRYENGINE has a unique and novel solution for this and was shipped with Ryse. One of the problems when using Deferred Shading is that it’s very heavy on bandwidth usage/memory traffic. This gets exponentially worse as overlapping lights cause considereable amounts of redundant read and write operations.
In Ryse our graphics engineers created a system called tiled shading to take advantage of the Xbox One. This splits the screen into toles and generates a list of all the lights affective each title using a compute shader. It then cull’s light by min/max extennts of the tile. We then loop over the light list for each tile and apply shading.
In practice this made for the biggest bandwidth save we could have hoped for, as just reading the Gbuffer once and writing shading results once at the end for each pixel. Only a single compute shader was used in Ryse for light culling and executing entire lighting and shading pipelines (with some small exceptions for complex surfaces like skin and hair).
Rashid Sayed: Xbox One has on an on board audio processor. How does CRYENGINE utilizes that? Furthermore, How does CRYENGINE tackle a situation where there is no audio processor ?
Sean Tracy: The xma and now the newer wxma format are proprietary xbox codecs for compressed audio. They basically have audio processing power set aside so that it doesn’t use the CPU for decoding any other platform uses software decoding wholly depending on the CPU for decoding. The CRYENGINE technically doesn’t decode the audio as we rely on middleware packages such as FMOD or WWise for this process which are fairly standard across the industry.
Rashid Sayed: Microsoft recently announced DirectX12 and its strong push towards cloud gaming. What are your thoughts on this and what kind of benefits will this give to CryEngine, should you decide to use them?
Sean Tracy: Microsoft’s announcement of DirectX12 is very interesting to us as we are always pushing the boundaries of what is possible on current and even next gen hardware. With cloud gaming and DirectX12 it is still very early days and any of the benefits for developers would just be pure conjecture at this point, however, it should be noted that there will clearly be a benefit to players who will be able to access powerful machines and hardware through the cloud to be able to experience high end PC gaming on much less expensive setups or perhaps even mobile and tablets.
This is a real force multiplier for developers. On DirectX12 any more control that is given to the developers versus relying on manufacturer drivers is in our opinion a good thing so we hope that it brings with it some benefits for leveraging the power of the hardware in new and unique ways.
Por cierto hablando de Mateo Valero y revisitando el tema de la nube local.ABSTRACT Current processors frequently run applications containing loop structures. However, traditional processor designs do not take into account the semantic information of the executed loops, failing to exploit an important opportunity. In this paper, we take our first step toward a loop-conscious processor architecture that has great potential to achieve high performance and relatively low energy consumption.
In particular, we propose to store simple dynamic loops in a buffer, namely the loop window. Loop instructions are kept in the loop window along with all the information needed to build the rename mapping. Therefore, the loop window can directly feed the execution back-end queues with instructions, avoiding the need for using the prediction, fetch, decode, and rename stages of the normal processor pipeline. Our results show that the loop window is a worthwhile complexity-effective alternative for processor design that reduces front-end activity by 14% for SPECint benchmarks and by 45% for SPECfp benchmarks.
http://www.researchgate.net/publication/221615770_LPA_A_First_Approach_to_the_Loop_Processor_Architecture
darksch escribió:Sin olvidar que un procesador dedicado SIEMPRE será lo más óptimo para realizar la tarea para la cual están específicamente diseñados. Y la XO tiene 15, tareas que no hace falta tirar a la CPU/GPU que siempre tendrán peor relación potencia/rendimiento para esas tareas específicas que el dedicado.
PD: y recuerdo, la XO tiene un consumo de 120W máximo y jugando, con otras cosas menos. Que parece que mucho hablar de preocuparse del consumo y luego se ignora la información.
Datos medidos por mí con un medidor, así no hay especulaciones sobre artículos:
Con Kinect conectado y encendido.
- StandBy (modo ahorro): <1W (no marca nada)
- StandBy (modo inmediato): 14W
- Dashboard: 65W
- Multimedia streaming (Xbox Video en HD): 72W
- Juego (Forza 5, carrera con parrilla llena y vista exterior): 120W
¿De dónde se sacan la gente los consumos, del culo y luego los pongo en artículos como si fueran verdad?.
Strife 117 escribió:No si aquí lo queremos todo, que inicie rápido, inmediatez al abrir un App, UI con contenido y rápida, poca latencia de mando, etc.. ah si, y que consuma lo mismo que un portátil en suspensión (unos 2W).
Señores quien algo quiere algo le cuesta, si no a seguir jugando a la Xbox 360 o PS3 para siempre, que consumen menos.
Además yo si enciendo la consola es para jugar o ver una película, no para quedarme mirando el menú.
Lo que consume en Standby (15w) tampoco es ninguna locura para lo que es, un ordenador en ese modo consume unos 75w (según componentes). Y si aún así te parece mucho pues lo apagas y ya está, saberlo es importante para decidir si quieres o no dejarlo así, pero criticarlo es una tontería muy grande.
Strife 117 escribió:No si aquí lo queremos todo, que inicie rápido, inmediatez al abrir un App, UI con contenido y rápida, poca latencia de mando, etc.. ah si, y que consuma lo mismo que un portátil en suspensión (unos 2W).
Señores quien algo quiere algo le cuesta, si no a seguir jugando a la Xbox 360 o PS3 para siempre, que consumen menos.
Además yo si enciendo la consola es para jugar o ver una película, no para quedarme mirando el menú.
Lo que consume en Standby (15w) tampoco es ninguna locura para lo que es, un ordenador en ese modo consume unos 75w (según componentes). Y si aún así te parece mucho pues lo apagas y ya está, saberlo es importante para decidir si quieres o no dejarlo así, pero criticarlo es una tontería muy grande.
Zokormazo escribió:Eso es posible en la actualidad, pero cuesta dinero. No mintamos con que no es posible porque no es cierto.
Y tampoco supone ninguna mejora respecto a la anterior generacion que la consola mostrando un menu consuma 65W. En todo caso la mejora es para Iberdrola...
Zokormazo escribió:Strife 117 escribió:No si aquí lo queremos todo, que inicie rápido, inmediatez al abrir un App, UI con contenido y rápida, poca latencia de mando, etc.. ah si, y que consuma lo mismo que un portátil en suspensión (unos 2W).
Señores quien algo quiere algo le cuesta, si no a seguir jugando a la Xbox 360 o PS3 para siempre, que consumen menos.
Además yo si enciendo la consola es para jugar o ver una película, no para quedarme mirando el menú.
Lo que consume en Standby (15w) tampoco es ninguna locura para lo que es, un ordenador en ese modo consume unos 75w (según componentes). Y si aún así te parece mucho pues lo apagas y ya está, saberlo es importante para decidir si quieres o no dejarlo así, pero criticarlo es una tontería muy grande.
Hace tiempo que no he testeado, pero mi i7 creo recordar que no pasaba de los 8 watts en acpi S3. Y eso con una maquina de proposito general.
darksch escribió:Aparte de ser algo muy específico y ya diseñado para sólo eso (cambiar entre integrada y discreta) no veo que la propia GPU cualquiera sea capaz de desactivar completamente todo excepto su decoder cuando ves un video. Vamos que algo de las otras partes seguirán chupando.
Porque además de ser algo específico para lo que se ha hecho undiseño exclusivo (alternar GPU) verás que no existe el equivalente global, el de poder meter partes que funcionen como una sola cuando haga falta.
Además del problema de duplicidades ya mencionado.
Y por añadir, vuelve a ver cuales, las únicas arquitecturas medianamente preparadas para hacer algo por el estilo son las ultra-portátiles. Monta eso en una XO que no va a poder nintirar del Tetris a 1080p
Es decir, especialización, arquitecturas diseñadas para eso no realizable en otras superiores pensadas para el rendimiento. Si así fuera no sería muy raro que no se usen en los PC ni demás?
Se sabe que hay distintos niveles de diseños orientados a rendimiento/consumo, tamaño, etc. Y lo que en una se pueda hacer no es aplicable a otras.
Vamos que con un Atom, Tegra o ARM no creo que fueran muy lejos, eso si en consumo sería la leche.
darksch escribió:Pero no ultra-portátiles. Comprobarás que lo que quieres no lo hacen las arquitecturas usadas. Y si no se lo meten será porque no se puede, no creo que los i3-7 o los Phenom no lo tengan porque a Intel y AMD les guste que gastemos luz. Tampoco creo que si no hiciera falta se pongan a hacer Atom cuando si fuera posible se incorporarlo sería mucho más sencillo montar i3 underclockeados.
Vamos que es que se pide la gestión de energía de ultra-portátil con potencia superior, cosa que no existe. El diseño para una cosa impide la otra, si no digo yo que se usaría en los actuales componentes, y no es así.
Lo que hablas de lo otro es algo muy distinto, es hot-Plug que no tiene nada que ver. No mezclemos.
Me da la sensación que la gente quiere cumplir sus sueños húmedos tecnológicos en las consolas, pidiendo cosas que no existen o imposibles.
Como cuesta 500€ tiene que ser como 3 i7 con 2 Titán en SLI, y con gestión de energía ARM.
Que por ser consolas no van a ser milagros, como se piensa o espera la gente.
Usan tecnología que existe y no van ahora a crear nueva tecnología inexistente para un aparato de entretenimiento.
Yo por mí ya doy esto por terminado. Basta con ver que no existe lo que se pide. Quien lo quiera pues que le diga a Intel/AMD porque no existe y que lo hagan. Pero creo que hacen lo mejor que se puede.
Edit: no, no creo que usar tecnología de Mobile sea lo mejor si se quiere rendimiento. Pista, es lo que usan las consolas, PERO las portátiles.
Quizás en el futuro la tecnología permita tener partes de funcionalidad específica que cuando haga falta funcionen a la vez para formar un todo (por lo del multimedia para juegos). Por desgracia eso no es posible en la actualidad.
Zokormazo escribió:Con o sin explicacion, sigue siendo una barbaridad, al igual que los 65W de consumo minimo mirando las musarañas. Menos mal que se basan en tecnologias de portatiles porque vamos... xD
darksch escribió:Y que me lleve de vacaciones a Hawái, y que le añada 100cv a mi coche que no corre lo bastante, y que haga honestos a los políticos que son muy cabrones, y que...joder que me ha costado 500€ ya les vale
chris76 escribió:Un detalle que aunque no se pueda generalizar es positivo,cosa rara en mi
A inicio de generacion salio ac4 a 1080p vs 900p
6 meses depues tenemos de unisoft tambien(aunque equipos distintos)a WD que sobre ser un juego mucho mas complejo funciona a 900p vs 792p
En 6 meses ya sea por esperiencia/mejora de devkit o incluso las 2 cosas hemos pasado de una diferencia de pixeles del 20% al 14% y esto sin tener los nuevos devkits con los recursos de kinect liberados
Vamos que aunque solo sea orientativo la cosa va mejorando y si division sa va a 2015 posiblemente tengamos las 2 versiones a la par
Nuhar escribió:No me he puesto a mirar los porcentajes pero creo que se sobreentendia la idea que nos quería trasladar
Además que no es solo unos pixeles, también habría que mirar la diferencia de fps que hay en cada una, filtros, texturas, luces y demás chorradas, no es tán sencillo calcular la diferencia de potencia "a ojo".
papatuelo escribió:Pixeles es una medida, son los puntos que componen tu monitor.
De qque te sirve sacar una imagen con un tamaño nativo de 1080p si estan montando texturas de resoluciones más bajas?
No digo que sea el caso en particular de ningún juego ni niguna plataforma.
Pero la gente lee 1080p y se cree que eso ya es un standar de calidad cuando no lo es.
Ambas son imagenes de skyrim 1080p.