Vics94 escribió:Cada vez veo el futuro mas negro no se porque y me fastidiaria mucho porque ya he hecho mi apuesta por la xbox one y no me gustaria llevarme el gran chasco...
Forzimbras escribió:Ha escrito otra cosa Penello:Last post? Not even close. Sorry - still many more meme's yet to come.
As was kindly suggested by someone in a PM, it's unlikely anything more I'm going to post on this topic will make it better. People can believe me and trust I'm passing on the right information, or believe I'm spreading FUD and lies.
When I first started coming on, I said what I wanted to do was speak more directly and more honestly with the community, clarifying what we could because you guys have more detailed questions then we had been dealing with.
Regarding the power, I've tried to explain areas that are misunderstood and provide insight from the actual engineers on the system. We are working with the technical folks to get more in-depth. As I said - they are more credible then I am, and can provide a lot more detail. Best I leave it to them.
Next stop - launch itself. Only then, when the games release and developers will inevitably be asked to compare the systems, will we there be a satisfying answer.
Until then, as I have been, I'll try and answer what I can. But I'm not going to add more on this topic.
Traducido resumidamente:
Como varios foreros le estaban diciendo a Penello que para escribir tonterías, mejor que no escribiese, Penello dice que no será su último post en GAF, pero sí en ese hilo, porque él en todo momento ha ido con toda la buena fe del mundo a hablar de la forma mas honesta y directa con la comunidad, y que le crean o no le crean si no quieren.
Que en relación a la potencia, ha intentado explicar áreas en las que había malentendidos y proporcionar una perspectiva de los ingenieros responsables del sistema.
Se remite al lanzamiento de la consola e invita a esperar, diciendo que cuando los juegos de las distintas plataformas estén en la calle, que entonces los desarrolladores juzguen a One por lo que podrán ver.
futuro mad max escribió:La pregunta seria cual es el objetivo real de Penello para trollear al consumidor mareandolo con sandeces, el consumidor se merece mas respeto
Horizonte de sucesos escribió:En verdad lo están diciendo.
Ves las specs de ONE y ves que son peores que las de PS4. Pero luego te decie que no va a haber diferencias en los juegos.
Pues ahí hay dos opciones:
1- mienten
2- tienen un As en la manga
jusilus escribió:Está claro que Microsoft ha hecho lo mismo que Apple. Ha creado una plataforma donde hardware y software se apoya uno sobre otro. Es una simbiosis. Micro no necesita de potencia bruta para que su consola haga lo mismo o más que la de la competencia. Lo mismo que iPhone y iPad van de puta madre sin necesidad de procesadores punteros y caros.
jusilus escribió:Está claro que Microsoft ha hecho lo mismo que Apple. Ha creado una plataforma donde hardware y software se apoya uno sobre otro. Es una simbiosis. Micro no necesita de potencia bruta para que su consola haga lo mismo o más que la de la competencia. Lo mismo que iPhone y iPad van de puta madre sin necesidad de procesadores punteros y caros.
chorizito escribió:f5inet escribió:[...]
eso es cierto 'a medias'. es cierto que Sony ya no puede cambiar nada de su actual PS4, pero al no haber llegado al mercado AUN, si que pueden cancelar la salida al mercado si ven que tienen una maquina muy inferior a la competencia.
XboxONE + dGPU rumoreada, se merendaria a la actual PS4, y eso es algo que Sony no se puede permitir. para ellos, seria preferible retrasar PS4 y sacarla mas potente que XboxONE aunque sea 2 años mas tarde, que sacar un producto muy inferior e intentar convivir con ello 5-7 años. Sin embargo, es algo que no pueden hacer si venden TAN SOLO UNA PS4. en el momento que vendan una sola PS4, ya no pueden sacarla o jubilarla del mercado sin darle un tiro de muerte a la marca PlayStation.
No te has enterado que lo de la dGPU es un bulo????
confirmado por penello
futuro mad max escribió:no podeis escribir sin insultar?
ubn escribió:Al final va a resultar que los ingenieros de MS son enchufados que lo máximi que han aprendido a hacer es instalar Joomla.
Una ima... Un gameplay vale más que mil palabras, ¿No? Y ahí creo que esta claro quién no ha mostrado humo y si realidades.
Horizonte de sucesos escribió:daymaster escribió:Hombre, yo no espor flamear , pero todos los comentarios sobre la ps4 de desarrolladoras externas es que son y a montado un hardware de manera muy inteligente y eficiente, si se dice que la ps4 tiene más potencia bruta y lo sumamos con estos comentarios.... Blanco y en botella.
De la one aun no e visto comentarios alabandola sin ser la propia Micro.
Creo.
Esto no es cierto, mismamente Kojima a opinado respecto a ONE
http://zonaforo.meristation.com/kojima- ... 05394.html
I see my statements the other day caused more of a stir than I had intended. I saw threads locking down as fast as they pop up, so I apologize for the delayed response.
I was hoping my comments would lead the discussion to be more about the games (and the fact that games on both systems look great) as a sign of my point about performance, but unfortunately I saw more discussion of my credibility.
So I thought I would add more detail to what I said the other day, that perhaps people can debate those individual merits instead of making personal attacks. This should hopefully dismiss the notion I'm simply creating FUD or spin.
I do want to be super clear: I'm not disparaging Sony. I'm not trying to diminish them, or their launch or what they have said. But I do need to draw comparisons since I am trying to explain that the way people are calculating the differences between the two machines isn't completely accurate. I think I've been upfront I have nothing but respect for those guys, but I'm not a fan of the mis-information about our performance.
So, here are couple of points about some of the individual parts for people to consider:
• 18 CU's vs. 12 CU's =/= 50% more performance. Multi-core processors have inherent inefficiency with more CU's, so it's simply incorrect to say 50% more GPU.
• Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.
• We have more memory bandwidth. 176gb/sec is peak on paper for GDDR5. Our peak on paper is 272gb/sec. (68gb/sec DDR3 + 204gb/sec on ESRAM). ESRAM can do read/write cycles simultaneously so I see this number mis-quoted.
• We have at least 10% more CPU. Not only a faster processor, but a better audio chip also offloading CPU cycles.
• We understand GPGPU and its importance very well. Microsoft invented Direct Compute, and have been using GPGPU in a shipping product since 2010 - it's called Kinect.
• Speaking of GPGPU - we have 3X the coherent bandwidth for GPGPU at 30gb/sec which significantly improves our ability for the CPU to efficiently read data generated by the GPU.
Hopefully with some of those more specific points people will understand where we have reduced bottlenecks in the system. I'm sure this will get debated endlessly but at least you can see I'm backing up my points.
I still I believe that we get little credit for the fact that, as a SW company, the people designing our system are some of the smartest graphics engineers around – they understand how to architect and balance a system for graphics performance. Each company has their strengths, and I feel that our strength is overlooked when evaluating both boxes.
Given this continued belief of a significant gap, we're working with our most senior graphics and silicon engineers to get into more depth on this topic. They will be more credible then I am, and can talk in detail about some of the benchmarking we've done and how we balanced our system.
Thanks again for letting my participate. Hope this gives people more background on my claims
f5inet escribió:
pero no os ilusioneis, es MUY POCO PROBABLE que haya alguna dGPU dentro del SoC. lo mas seguro es que el tema del NDA de AMD<->Microsoft sea el uso de la serie VolcanicIslands (GCN2) en la GPU.
PilaDePetaca escribió:Traducción de Penello:I see my statements the other day caused more of a stir than I had intended. I saw threads locking down as fast as they pop up, so I apologize for the delayed response.
I was hoping my comments would lead the discussion to be more about the games (and the fact that games on both systems look great) as a sign of my point about performance, but unfortunately I saw more discussion of my credibility.
So I thought I would add more detail to what I said the other day, that perhaps people can debate those individual merits instead of making personal attacks. This should hopefully dismiss the notion I'm simply creating FUD or spin.
I do want to be super clear: I'm not disparaging Sony. I'm not trying to diminish them, or their launch or what they have said. But I do need to draw comparisons since I am trying to explain that the way people are calculating the differences between the two machines isn't completely accurate. I think I've been upfront I have nothing but respect for those guys, but I'm not a fan of the mis-information about our performance.
So, here are couple of points about some of the individual parts for people to consider:
• 18 CU's vs. 12 CU's =/= 50% more performance. Multi-core processors have inherent inefficiency with more CU's, so it's simply incorrect to say 50% more GPU.
• Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.
• We have more memory bandwidth. 176gb/sec is peak on paper for GDDR5. Our peak on paper is 272gb/sec. (68gb/sec DDR3 + 204gb/sec on ESRAM). ESRAM can do read/write cycles simultaneously so I see this number mis-quoted.
• We have at least 10% more CPU. Not only a faster processor, but a better audio chip also offloading CPU cycles.
• We understand GPGPU and its importance very well. Microsoft invented Direct Compute, and have been using GPGPU in a shipping product since 2010 - it's called Kinect.
• Speaking of GPGPU - we have 3X the coherent bandwidth for GPGPU at 30gb/sec which significantly improves our ability for the CPU to efficiently read data generated by the GPU.
Hopefully with some of those more specific points people will understand where we have reduced bottlenecks in the system. I'm sure this will get debated endlessly but at least you can see I'm backing up my points.
I still I believe that we get little credit for the fact that, as a SW company, the people designing our system are some of the smartest graphics engineers around – they understand how to architect and balance a system for graphics performance. Each company has their strengths, and I feel that our strength is overlooked when evaluating both boxes.
Given this continued belief of a significant gap, we're working with our most senior graphics and silicon engineers to get into more depth on this topic. They will be more credible then I am, and can talk in detail about some of the benchmarking we've done and how we balanced our system.
Thanks again for letting my participate. Hope this gives people more background on my claims
He visto que mis declaraciones del otro dia produjeron mas confusión y preocupación de lo que yo creía. He visto hilos que se han cerrado automáticamente conforme iban siendo posteados, así que pido disculpas por haber tardado tanto en responder.
Esperaba que mis comentarios hiciesen que la gente hablase de los juegos (y el hecho de que los juegos en ambas plataformas se ven muy bien) como resultado de mi declaración sobre el rendimiento, pero desgraciadamente lo único que se puso en duda fué mi credibilidad.
Asi que voy a añadir detalles a lo que dije el otro dia que hagan que la gente pueda discutir sobre ellos en vez de hacer ataques personales. Esto debería de acabar con la idea de que sólo creo desinformación y confusión.
Quiero que quede claro: no estoy hechando mierda sobre sony. No trato de ningunearlos, ni su salida ni lo que han dicho. Pero necesito aportar un par de cosas a las comparaciones ya que estoy tratando de explicar que la forma en que la gente calcula el rendimiento relativo de una plataforma con respecto a la otra no es completamente exacto.
Aqui unos cuantos puntos que la gente debería de considerar tambien:
-18 CU vs 12 CU =/= 50% mas de rendimiento. Los procesadores con varios cores tienen una ineficiencia inherente cuanto mas CU's haya, asi que es simplemente incorrecto que sea un 50% mas de GPU.
-Además, cada uno de nuestros CU's es un 6% mas potente, y no hablo precisamente de un 6% mas de velocidad.
-Tenemos mas ancho de banda en la memoria. Teóricamente el GDDR5 son 176 GB/s, mientras que nosotros tenemos un pico teórico de 272 Gb/s (68 Gb/s de la DDR3 + 204 Gb/s de la ESRAM). La ESRAM puede hacer funcion de lectura/escritura en un mismo ciclo de reloj por lo que la cifra del ancho de banda siempre ha estado equivocada.
-Tenemos como mínimo un 10% mas de CPU. Aparte tenemos mejor sonido y el chip libera ciclos de reloj de la CPU.
-Entendemos que el GPGPU y su importancia es relevante. Microsoft inventó el "Direct Compute", y ha estado usando el GPGPU en uno de sus productos desde 2010, el Kinect.
-Hablando de GPGPU, tenemos 3 veces el ancho de banda coherente a 30Gb/s, que aumenta significativamente la eficiencia de lectura de datos que envia la GPU a la CPU.
Espero que con esos puntos específicos la gente comience a entender como hemos reducido todos los cuellos de botella que se podrían generar en el sistema. Estoy seguro que todo esto se debatira intesamente pero por lo menos podeis ver que puedo argumentar lo que estoy diciendo.
Todavía creo que no se entiende el esfuerzo que supone diseñar un hardware siendo MS como sabeis una compañía de softwre, pero tenemos a algunos de los mejores ingenieros expertos en gráficos trabajando en el diseño de nuestro sistema, los cuales entienden como crear una arquitectura y equilibrala para sacar el máximo rendimiento gráfico posible. Cada compañía tiene sus fuertes, y creo que nuestros puntos fuertes no se tienen en cuenta cuando se comparan ambas plataformas.
Dada la convicción que se tiene de que la diferencia es notable, estamos trabajando con nuestros ingenieros para profundizar mas todavía en este asunto. Ellos tendrán mas credibilidad que yo en este asunto, y pueden hablar en mas detalle acerca de las pruebas que hemos estado haciendo y como hemos equilibrado nuestro sistema.
Gracias de nuevo por dejarme participar. Espero que esto le de a la gente mas información acerca de mis declaraciones.
Xsato7 escribió:@NeCLaRT
El ridiculo lo hace un fanatico que no acepta opiniones contrarias, yo he alabado todos los cambios positivos y el giro de 180 grados que ha dado Microsft con sus politicas y por eso a dia de hoy, One es una opcion para mi, pese a ser menos potente.
Que no acierto una? jaja, menudo caradura, en lo unico que me equivoco es en los 7gb de ram para juegos, finalmente son 6. En todo lo demas digo lo que habia en ese momento, comprenderas que yo no tengo culpa de que Microsft lo cambie todo en unos meses, y gracias a dios que lo ha cambiado, ha pasado de ser una consola que no compraria ni pagandome a una consola muy completo y superior en bastantes aspectos a ps4.
VJMorenoC escribió:Xsato7 escribió:@NeCLaRT
El ridiculo lo hace un fanatico que no acepta opiniones contrarias, yo he alabado todos los cambios positivos y el giro de 180 grados que ha dado Microsft con sus politicas y por eso a dia de hoy, One es una opcion para mi, pese a ser menos potente.
Que no acierto una? jaja, menudo caradura, en lo unico que me equivoco es en los 7gb de ram para juegos, finalmente son 6. En todo lo demas digo lo que habia en ese momento, comprenderas que yo no tengo culpa de que Microsft lo cambie todo en unos meses, y gracias a dios que lo ha cambiado, ha pasado de ser una consola que no compraria ni pagandome a una consola muy completo y superior en bastantes aspectos a ps4.
siento contradecirte con lo de la ram de PS4, pero para el SO van 3,5, es decir, 8-3,5= 4,5. Pero con la salvedad que de los 3,5 puden destinar según que casos 1 Gb a otros menesteres.
Xsato7 escribió:Se ha lucido Penello, esta recibiendo hostias en todos lados.
Xsato7 escribió:VJMorenoC escribió:Xsato7 escribió:@NeCLaRT
El ridiculo lo hace un fanatico que no acepta opiniones contrarias, yo he alabado todos los cambios positivos y el giro de 180 grados que ha dado Microsft con sus politicas y por eso a dia de hoy, One es una opcion para mi, pese a ser menos potente.
Que no acierto una? jaja, menudo caradura, en lo unico que me equivoco es en los 7gb de ram para juegos, finalmente son 6. En todo lo demas digo lo que habia en ese momento, comprenderas que yo no tengo culpa de que Microsft lo cambie todo en unos meses, y gracias a dios que lo ha cambiado, ha pasado de ser una consola que no compraria ni pagandome a una consola muy completo y superior en bastantes aspectos a ps4.
siento contradecirte con lo de la ram de PS4, pero para el SO van 3,5, es decir, 8-3,5= 4,5. Pero con la salvedad que de los 3,5 puden destinar según que casos 1 Gb a otros menesteres.
Si no me equivoco se desminintio ese informacion y se dijo que ya habian juegos que estaban utilizando 6gb de ram, vamos que algo logico serian 5+1 flexible.
• Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.
-Además, cada uno de nuestros CU's es un 6% mas potente, y no hablo precisamente de un 6% mas de velocidad.
Er Quillo escribió:Una duda que tengo y no se si se abra dicho. ¿El lector de Blu-ray de la One sera solo para formato normal o se podrán ver pelis en 3D?
Un saludo
futuro mad max escribió:Xsato7 escribió:Se ha lucido Penello, esta recibiendo hostias en todos lados.
Tampoco hay que ver solo lo negativo.
Perrello sera lo que sera, pero cuantos directivos habeis visto que escriban en un foro?
SergioSaw escribió:PilaDePetaca escribió:Traducción de Penello:I see my statements the other day caused more of a stir than I had intended. I saw threads locking down as fast as they pop up, so I apologize for the delayed response.
I was hoping my comments would lead the discussion to be more about the games (and the fact that games on both systems look great) as a sign of my point about performance, but unfortunately I saw more discussion of my credibility.
So I thought I would add more detail to what I said the other day, that perhaps people can debate those individual merits instead of making personal attacks. This should hopefully dismiss the notion I'm simply creating FUD or spin.
I do want to be super clear: I'm not disparaging Sony. I'm not trying to diminish them, or their launch or what they have said. But I do need to draw comparisons since I am trying to explain that the way people are calculating the differences between the two machines isn't completely accurate. I think I've been upfront I have nothing but respect for those guys, but I'm not a fan of the mis-information about our performance.
So, here are couple of points about some of the individual parts for people to consider:
• 18 CU's vs. 12 CU's =/= 50% more performance. Multi-core processors have inherent inefficiency with more CU's, so it's simply incorrect to say 50% more GPU.
• Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.
• We have more memory bandwidth. 176gb/sec is peak on paper for GDDR5. Our peak on paper is 272gb/sec. (68gb/sec DDR3 + 204gb/sec on ESRAM). ESRAM can do read/write cycles simultaneously so I see this number mis-quoted.
• We have at least 10% more CPU. Not only a faster processor, but a better audio chip also offloading CPU cycles.
• We understand GPGPU and its importance very well. Microsoft invented Direct Compute, and have been using GPGPU in a shipping product since 2010 - it's called Kinect.
• Speaking of GPGPU - we have 3X the coherent bandwidth for GPGPU at 30gb/sec which significantly improves our ability for the CPU to efficiently read data generated by the GPU.
Hopefully with some of those more specific points people will understand where we have reduced bottlenecks in the system. I'm sure this will get debated endlessly but at least you can see I'm backing up my points.
I still I believe that we get little credit for the fact that, as a SW company, the people designing our system are some of the smartest graphics engineers around – they understand how to architect and balance a system for graphics performance. Each company has their strengths, and I feel that our strength is overlooked when evaluating both boxes.
Given this continued belief of a significant gap, we're working with our most senior graphics and silicon engineers to get into more depth on this topic. They will be more credible then I am, and can talk in detail about some of the benchmarking we've done and how we balanced our system.
Thanks again for letting my participate. Hope this gives people more background on my claims
He visto que mis declaraciones del otro dia produjeron mas confusión y preocupación de lo que yo creía. He visto hilos que se han cerrado automáticamente conforme iban siendo posteados, así que pido disculpas por haber tardado tanto en responder.
Esperaba que mis comentarios hiciesen que la gente hablase de los juegos (y el hecho de que los juegos en ambas plataformas se ven muy bien) como resultado de mi declaración sobre el rendimiento, pero desgraciadamente lo único que se puso en duda fué mi credibilidad.
Asi que voy a añadir detalles a lo que dije el otro dia que hagan que la gente pueda discutir sobre ellos en vez de hacer ataques personales. Esto debería de acabar con la idea de que sólo creo desinformación y confusión.
Quiero que quede claro: no estoy hechando mierda sobre sony. No trato de ningunearlos, ni su salida ni lo que han dicho. Pero necesito aportar un par de cosas a las comparaciones ya que estoy tratando de explicar que la forma en que la gente calcula el rendimiento relativo de una plataforma con respecto a la otra no es completamente exacto.
Aqui unos cuantos puntos que la gente debería de considerar tambien:
-18 CU vs 12 CU =/= 50% mas de rendimiento. Los procesadores con varios cores tienen una ineficiencia inherente cuanto mas CU's haya, asi que es simplemente incorrecto que sea un 50% mas de GPU.
-Además, cada uno de nuestros CU's es un 6% mas potente, y no hablo precisamente de un 6% mas de velocidad.
-Tenemos mas ancho de banda en la memoria. Teóricamente el GDDR5 son 176 GB/s, mientras que nosotros tenemos un pico teórico de 272 Gb/s (68 Gb/s de la DDR3 + 204 Gb/s de la ESRAM). La ESRAM puede hacer funcion de lectura/escritura en un mismo ciclo de reloj por lo que la cifra del ancho de banda siempre ha estado equivocada.
-Tenemos como mínimo un 10% mas de CPU. Aparte tenemos mejor sonido y el chip libera ciclos de reloj de la CPU.
-Entendemos que el GPGPU y su importancia es relevante. Microsoft inventó el "Direct Compute", y ha estado usando el GPGPU en uno de sus productos desde 2010, el Kinect.
-Hablando de GPGPU, tenemos 3 veces el ancho de banda coherente a 30Gb/s, que aumenta significativamente la eficiencia de lectura de datos que envia la GPU a la CPU.
Espero que con esos puntos específicos la gente comience a entender como hemos reducido todos los cuellos de botella que se podrían generar en el sistema. Estoy seguro que todo esto se debatira intesamente pero por lo menos podeis ver que puedo argumentar lo que estoy diciendo.
Todavía creo que no se entiende el esfuerzo que supone diseñar un hardware siendo MS como sabeis una compañía de softwre, pero tenemos a algunos de los mejores ingenieros expertos en gráficos trabajando en el diseño de nuestro sistema, los cuales entienden como crear una arquitectura y equilibrala para sacar el máximo rendimiento gráfico posible. Cada compañía tiene sus fuertes, y creo que nuestros puntos fuertes no se tienen en cuenta cuando se comparan ambas plataformas.
Dada la convicción que se tiene de que la diferencia es notable, estamos trabajando con nuestros ingenieros para profundizar mas todavía en este asunto. Ellos tendrán mas credibilidad que yo en este asunto, y pueden hablar en mas detalle acerca de las pruebas que hemos estado haciendo y como hemos equilibrado nuestro sistema.
Gracias de nuevo por dejarme participar. Espero que esto le de a la gente mas información acerca de mis declaraciones.
Ahí queda eso... Me parece correctísimo todo.
PilaDePetaca escribió:No se si os habeis fijado en una cosa:• Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.
-Además, cada uno de nuestros CU's es un 6% mas potente, y no hablo precisamente de un 6% mas de velocidad.
Si no es un 6% mas potente por velocidad, a que se refiere, ¿arquitectura,Volcanic Islands?.
amoremorte escribió:Este hilo de es de ps4, dejad de hablar de ella. Ni para comparar. Estoy arto de leer cosas de ps4 aqui....
Soto_ST escribió:PilaDePetaca escribió:No se si os habeis fijado en una cosa:
-Además, cada uno de nuestros CU's es un 6% mas potente, y no hablo precisamente de un 6% mas de velocidad.
Si no es un 6% mas potente por velocidad, a que se refiere, ¿arquitectura,Volcanic Islands?.
Newport escribió:Er Quillo escribió:Una duda que tengo y no se si se abra dicho. ¿El lector de Blu-ray de la One sera solo para formato normal o se podrán ver pelis en 3D?
Un saludo
Se podrán ver pelis en 3D. Está confirmado por Major nelson.
PoderGorrino escribió:Soto_ST escribió:PilaDePetaca escribió:No se si os habeis fijado en una cosa:
-Además, cada uno de nuestros CU's es un 6% mas potente, y no hablo precisamente de un 6% mas de velocidad.
Si no es un 6% mas potente por velocidad, a que se refiere, ¿arquitectura,Volcanic Islands?.
Se refiere a eso, pero algunos hacen una traducción demasiado libre por ser benévolo.
Adding to that, each of our CU's is running 6% faster. It's not simply a 6% clock speed increase overall.
Cada una de nuestros CU´s es un 6% más rapido. No es simplemente un 6% de incremento de velocidad de reloj global.
Vamos, que se supone que no es lo mismo un 6% de más velocidad global que un 6% en cada CU, esto se debe traducir en un rendimiento mayor.
Nuhar escribió:Vamos, que no sabe de lo que habla, lo que yo decia jajajaja.
A esperar hasta finales de mes a ver si dicen algo interesante o no.
PoderGorrino escribió:Nuhar escribió:Vamos, que no sabe de lo que habla, lo que yo decia jajajaja.
A esperar hasta finales de mes a ver si dicen algo interesante o no.
Que el no sea el experto no significa que las cosas que han dicho sean tonterías, ya ha comentado que ha transmitido lo que le han dicho los ingenieros.