hh1 escribió:Yuluga escribió:hh1 escribió:850€ por una 3070TI que es solo un poco más potente que una 3070 ,6-13% dependiendo el juego,más tirando al 6% que al 13 % ,me parece una burrada igualmente.
El término TI ha pasado a ser puro marketing en casi todos los casos.
pero esa no es una ti, no? es una trio, que ya existia de antes
Claro.
Pero dice que si llega a ser TI,que la pillaba por ese precio.
La 3070Ti no vale ni los 100€ de más de precio base con respecto a la 3070 normal.
Un 18% de diferencia de precio para obtener una media de un 8-9% de mayor rendimiento.
Imagina por 850€ con 320€ de sobreprecio...
@DarkMessiah
Y Game no es precisamente barata
D3N184 escribió:hh1 escribió:Yuluga escribió:pero esa no es una ti, no? es una trio, que ya existia de antes
Claro.
Pero dice que si llega a ser TI,que la pillaba por ese precio.
La 3070Ti no vale ni los 100€ de más de precio base con respecto a la 3070 normal.
Un 18% de diferencia de precio para obtener una media de un 8-9% de mayor rendimiento.
Imagina por 850€ con 320€ de sobreprecio...
@DarkMessiah
Y Game no es precisamente barata
El precio que comentas es de la normal, no de la Ti. La Ti FE son 619 euros, pongamosle 100 euro mas de las ensambladoras, nos ponemos en 720 euros. 850e por una de ensambladora no me parece un gran sobreprecio, son unos 100-150 euros de sobreprecio, no me parece descabellado en mi opinion. Que mejor por 619e? pues claro...pero hasta que ese precio sea el comun sin que vuelen las tarjetas en segundos pues para eso si que queda bastante tiempo diria yo.
Yuluga escribió:hh1 escribió:Yuluga escribió:joder macho, no he llegado a tiempo!! gracias por avisar! parece que van saliendo y bajando...
Yo sí pude comprarla, pero ya con una 3070, no vi buena la oferta.
Es la segunda vez que un aviso de bot me permite comprar alguna.
que bot sigues compi? no vi esta, yo si me dejara financiarla la hubiera pillado... aunque son 200€ más de su precio...
hh1 escribió:D3N184 escribió:hh1 escribió:Claro.
Pero dice que si llega a ser TI,que la pillaba por ese precio.
La 3070Ti no vale ni los 100€ de más de precio base con respecto a la 3070 normal.
Un 18% de diferencia de precio para obtener una media de un 8-9% de mayor rendimiento.
Imagina por 850€ con 320€ de sobreprecio...
@DarkMessiah
Y Game no es precisamente barata
El precio que comentas es de la normal, no de la Ti. La Ti FE son 619 euros, pongamosle 100 euro mas de las ensambladoras, nos ponemos en 720 euros. 850e por una de ensambladora no me parece un gran sobreprecio, son unos 100-150 euros de sobreprecio, no me parece descabellado en mi opinion. Que mejor por 619e? pues claro...pero hasta que ese precio sea el comun sin que vuelen las tarjetas en segundos pues para eso si que queda bastante tiempo diria yo.
Seguís sin enteraros.
Yo he respondido a otro forero que ha dicho que por ese precios, SI LLEGA A SER TI,LA PILLABA.
Ya sé que es la normal.
@Jaskier
A ver si posteas benchmarks para compararla con la 3070 normal y la 3080.
Wookiee escribió:eR_pOty escribió:@ViRuSz si la GPU le va al 60-80% hay un claro bottleneck, si no es subiendo la resolución ya me dirás cómo solucionarlo si no cambia la CPU
Ya es elegir entre las bandas negras o tener una GPU capada
Y si a su resolucion nativa juega a x fps, ¿que sentido tiene subir a una resolucion que no puede aprovechar y jugar a x-y fps? Porque subiendo la resolucion va a tener menos fps fijo (de ahi que la cpu no se ahogue)...
Yo no entiendo la obsesion que hay con los cuellos de botella la verdad. Siempre hay algo que te limita, ya sea la cpu, la gpu o el propio monitor.
Rvilla87 escribió:Wookiee escribió:eR_pOty escribió:@ViRuSz si la GPU le va al 60-80% hay un claro bottleneck, si no es subiendo la resolución ya me dirás cómo solucionarlo si no cambia la CPU
Ya es elegir entre las bandas negras o tener una GPU capada
Y si a su resolucion nativa juega a x fps, ¿que sentido tiene subir a una resolucion que no puede aprovechar y jugar a x-y fps? Porque subiendo la resolucion va a tener menos fps fijo (de ahi que la cpu no se ahogue)...
Yo no entiendo la obsesion que hay con los cuellos de botella la verdad. Siempre hay algo que te limita, ya sea la cpu, la gpu o el propio monitor.
Lo mejor es que el cuello de botella lo sea la GPU, no? Si es el procesador para qué te gastas tanto dinero en una gráfica si no la vas a aprovechar? Y si es el monitor puede ser por varias cosas. Si es por la resolución (2k por ejemplo y no 4k), la parte buena es que puedes meterle mas fps (+60fps). Claro que si tienes un monitor/TV 1080p a 60fps (y mira que yo tengo una TV así)... tira ese viejo monitor/TV y cómprate uno por 2 duros que cualquiera hoy en día te da un mínimo de resolución/hz sin gastarte un dineral.
eric_14 escribió:He probado un poco más, he actualizado la bios de la placa por si mejoraba algo con la CPU pero va igual, un poco mejor que con la 1080 pero no veo mucha mejoría. No sé cómo lo véis pero por descartar que sea la GPU, pienso que el BFV en alto me debería ir sobre los 100fps (3440x1440), pero nunca llega y la carga de la GPU está a menos del 50% y la CPU al 60-70%.
En el warzone parece que se utiliza más la GPU y llega a los 70-90% y ya va mejor, se nota la 3080.
Si en la BIOS no configuro el DOCP con la ram a 3200 todo va bastante peor.
Asi que, descarto que pueda ser la GPU? A mí me da la impresión que es la CPU pero no sé si alguien ve indicio de que sea la GPU y luego cambie de CPU para nada.
@ViRuSz has podido probar algo?
eric_14 escribió:He probado un poco más, he actualizado la bios de la placa por si mejoraba algo con la CPU pero va igual, un poco mejor que con la 1080 pero no veo mucha mejoría. No sé cómo lo véis pero por descartar que sea la GPU, pienso que el BFV en alto me debería ir sobre los 100fps (3440x1440), pero nunca llega y la carga de la GPU está a menos del 50% y la CPU al 60-70%.
En el warzone parece que se utiliza más la GPU y llega a los 70-90% y ya va mejor, se nota la 3080.
Si en la BIOS no configuro el DOCP con la ram a 3200 todo va bastante peor.
Asi que, descarto que pueda ser la GPU? A mí me da la impresión que es la CPU pero no sé si alguien ve indicio de que sea la GPU y luego cambie de CPU para nada.
@ViRuSz has podido probar algo?
chachin2007 escribió:Las que van a derrumbarse de precio serán las RX 6700 XT, esas se las van a comer con patatas.
Wookiee escribió:Rvilla87 escribió:Wookiee escribió:Y si a su resolucion nativa juega a x fps, ¿que sentido tiene subir a una resolucion que no puede aprovechar y jugar a x-y fps? Porque subiendo la resolucion va a tener menos fps fijo (de ahi que la cpu no se ahogue)...
Yo no entiendo la obsesion que hay con los cuellos de botella la verdad. Siempre hay algo que te limita, ya sea la cpu, la gpu o el propio monitor.
Lo mejor es que el cuello de botella lo sea la GPU, no? Si es el procesador para qué te gastas tanto dinero en una gráfica si no la vas a aprovechar? Y si es el monitor puede ser por varias cosas. Si es por la resolución (2k por ejemplo y no 4k), la parte buena es que puedes meterle mas fps (+60fps). Claro que si tienes un monitor/TV 1080p a 60fps (y mira que yo tengo una TV así)... tira ese viejo monitor/TV y cómprate uno por 2 duros que cualquiera hoy en día te da un mínimo de resolución/hz sin gastarte un dineral.
El compi dijo que jugaba en un 3440x1440, asi que supongo que sera minimo 120hz, y no creo que tenga demasiados problemas para sacar 110fps con esa gpu y cpu en casi ningun juego. Que la gpu se rasque las bolas no es mayor problema siempre que aproveche el resto de hard.
D3N184 escribió:chachin2007 escribió:Las que van a derrumbarse de precio serán las RX 6700 XT, esas se las van a comer con patatas.
Para el rendimiento que tienen comparada con una 3070 y que la gente suele preferir NVidia no entiendo como pueden estar tan caras la verdad. No me importaria tener una 6800XT a precio de web AMD
chachin2007 escribió:Las que van a derrumbarse de precio serán las RX 6700 XT, esas se las van a comer con patatas.
PepeC12 escribió:chachin2007 escribió:Las que van a derrumbarse de precio serán las RX 6700 XT, esas se las van a comer con patatas.
Que problema tienen? Rinden casi como una 3070 valen algo menos, tienen 4gb más de vram y consumen lo mismo.
Además el FSR de amd parece que está al nivel del DLSS así que ya no tienen ese handicap.
De hecho me juego mi testículo izquierdo a que envejece mejor que la 3070.
Lo que está claro es que ni la 6700xt ni la 3070 valen 800€, yo no pagaría más de 550€ por ninguna de las 2.
La 6800 xt a los 650€ que vale en la web de amd es un caramelito.
Poco a poco parece que van bajando de precio.
PepeC12 escribió:chachin2007 escribió:Las que van a derrumbarse de precio serán las RX 6700 XT, esas se las van a comer con patatas.
Que problema tienen? Rinden casi como una 3070 valen algo menos, tienen 4gb más de vram y consumen lo mismo.
Además el FSR de amd parece que está al nivel del DLSS así que ya no tienen ese handicap.
De hecho me juego mi testículo izquierdo a que envejece mejor que la 3070.
Lo que está claro es que ni la 6700xt ni la 3070 valen 800€, yo no pagaría más de 550€ por ninguna de las 2.
La 6800 xt a los 650€ que vale en la web de amd es un caramelito.
Poco a poco parece que van bajando de precio.
JAPR escribió:Veo muchos cantos de victoria a mi juicio precipitados. Nada parece indicar que estemos cerca del fin de la crisis de los semiconductores pero la peña ya dice que como PCC tiene 29 gráficas está cerca su fin. Ojalá me lleve el zasca del siglo pero no creo que eso ocurra hasta, al menos, 2022.
Noticia relacionada: https://www.digitimes.com/news/a20210621PD212.html
EDITO: ya sé que los chips de las GPUs NVIDIA los fabrica Samsung.
Rvilla87 escribió:@eric_14 no te había leído, creo que lo mejor es que veas como rinden equipos como el tuyo. Este por ejemplo tiene el mismo CPU y GPU:
https://www.youtube.com/watch?v=irWhYN8yN54
Seguramente tú tendrás drivers mas nuevos pero al menos te debería ir igual o mejor que a él. Si en tests concretos de CPU y GPU te da un rendimiento normal para esos componentes diría que tu problema es mas bien algo a nivel de configuración del juego o windows o drivers.
eric_14 escribió:@ViRuSz has podido probar algo?
DaNi_0389 escribió:JAPR escribió:Veo muchos cantos de victoria a mi juicio precipitados. Nada parece indicar que estemos cerca del fin de la crisis de los semiconductores pero la peña ya dice que como PCC tiene 29 gráficas está cerca su fin. Ojalá me lleve el zasca del siglo pero no creo que eso ocurra hasta, al menos, 2022.
Noticia relacionada: https://www.digitimes.com/news/a20210621PD212.html
EDITO: ya sé que los chips de las GPUs NVIDIA los fabrica Samsung.
El hashrate de Ethereum ha bajado bastante, por eso estamos viendo la mejora de stock de gpu, ya no se las llevan tan alegremente.
De momento este es el panorama, si en unos meses el hashrate se vuelve a disparar pues otra vez pasará que ni llegan a las tiendas.
Gman87 escribió:jrdj escribió:shelbyk escribió:siempre quedara la zotac rtx 3090 para comprar...
No hay quien la quiera
Motivo?
ViRuSz escribió:eric_14 escribió:@ViRuSz has podido probar algo?
Al final he podido cambiar la 3090 por una 3080ti más pasta y ya la tengo instalada y montada. He hecho pruebas con 4 juegos con la gráfica antigua y la nueva. Battlefield V, Red Dead 2, No Mans Sky y Forza Horizon 4.
GTX 1080 Ti
Red Dead 2 : 30-45 fps
No Mans Sky: 40-60 fps
Forza Horizon 4: 70-80 fps
Battlefield V: 75-90 fps
RTX 3080 Ti
Read Dead 2: 65-90 fps
No Mans Sky: 90-110 fps
Forza Horizon 4: 115-140 fps
Battlefield V: 90-110 fps
En el Battlefield V con la 3080Ti he tenido el mismo problema que tú. El uso de la GPU al 50-60%. Si que es cierto que lo he probado solamente en DX11.
En el resto de juegos el uso de la GPU ha sido el normal y siempre estaba en 98-99%. Parece ser un problema del Battlefield V, pero bueno, poco me importa porque ya no lo voy a jugar más. Estoy jugando al BF4 para practicar un poco para el Battlefield nuevo.
Edit: Yo juego a 3440x1440, que se me había olvidado mencionarlo.
PepeC12 escribió:@eR_pOty mirate los reviews del FSR.
Vaya que si compite con el DLSS.
Funciona sorprendentemente bien, sobretodo en ultra y quality.
Te doy la razón de que el dlss tiene una tecnología mucho más compleja, requiere de una imagen y anteriores para poder escalar y una ia para realizarlo pero no significa que sea necesariamente mejor.
Por ejemplo fsr no tiene problemas de ghosting y el dlss si.
Pero vamos viendo los resultados que da el fsr, me parece la mejor opción, por compatibilidad hardware y simplicidad a nivel de software (sólo requiere como input la imagen a escalar)
Por cierto, sabes que los cálculos que hacen los tensor cores se pueden hacer en un shader o una cpu no? Simplemente los tensor cores los hacen más rápido.
Si al final cada nodo de una red de neuronas no es mas que una función matemática, normalmente bastante simple.
Y si me preguntas, es una forma muy ineficiente de hacer una tarea, que basa su gracia en que mediante muchos cálculos se ajusta automáticamente para obtener un resultado parecido al que le hemos dicho que tiene que tener.
Posiblemente esa red neuronal que implementa el dlss se podría sustituir por uno muchísimo más eficiente quitando esa red neuronal.
hh1 escribió:PepeC12 escribió:@eR_pOty mirate los reviews del FSR.
Vaya que si compite con el DLSS.
Funciona sorprendentemente bien, sobretodo en ultra y quality.
Te doy la razón de que el dlss tiene una tecnología mucho más compleja, requiere de una imagen y anteriores para poder escalar y una ia para realizarlo pero no significa que sea necesariamente mejor.
Por ejemplo fsr no tiene problemas de ghosting y el dlss si.
Pero vamos viendo los resultados que da el fsr, me parece la mejor opción, por compatibilidad hardware y simplicidad a nivel de software (sólo requiere como input la imagen a escalar)
Por cierto, sabes que los cálculos que hacen los tensor cores se pueden hacer en un shader o una cpu no? Simplemente los tensor cores los hacen más rápido.
Si al final cada nodo de una red de neuronas no es mas que una función matemática, normalmente bastante simple.
Y si me preguntas, es una forma muy ineficiente de hacer una tarea, que basa su gracia en que mediante muchos cálculos se ajusta automáticamente para obtener un resultado parecido al que le hemos dicho que tiene que tener.
Posiblemente esa red neuronal que implementa el dlss se podría sustituir por uno muchísimo más eficiente quitando esa red neuronal.
Hombre,yo los análisis que he visto no son como comentas.
https://youtu.be/T58pr4-98wo
Se ve más borroso el FSR y además siempre va a palmar AMD en la implementación de la RT.
Por algo la gente prefiere Nvidia a pesar de ser más cara.
Yo incluso prefiero una 3070 a una 6800 XT ,porque en cuanto hay RT y DLSS ,ya ganas.
D3N184 escribió:hh1 escribió:PepeC12 escribió:@eR_pOty mirate los reviews del FSR.
Vaya que si compite con el DLSS.
Funciona sorprendentemente bien, sobretodo en ultra y quality.
Te doy la razón de que el dlss tiene una tecnología mucho más compleja, requiere de una imagen y anteriores para poder escalar y una ia para realizarlo pero no significa que sea necesariamente mejor.
Por ejemplo fsr no tiene problemas de ghosting y el dlss si.
Pero vamos viendo los resultados que da el fsr, me parece la mejor opción, por compatibilidad hardware y simplicidad a nivel de software (sólo requiere como input la imagen a escalar)
Por cierto, sabes que los cálculos que hacen los tensor cores se pueden hacer en un shader o una cpu no? Simplemente los tensor cores los hacen más rápido.
Si al final cada nodo de una red de neuronas no es mas que una función matemática, normalmente bastante simple.
Y si me preguntas, es una forma muy ineficiente de hacer una tarea, que basa su gracia en que mediante muchos cálculos se ajusta automáticamente para obtener un resultado parecido al que le hemos dicho que tiene que tener.
Posiblemente esa red neuronal que implementa el dlss se podría sustituir por uno muchísimo más eficiente quitando esa red neuronal.
Hombre,yo los análisis que he visto no son como comentas.
https://youtu.be/T58pr4-98wo
Se ve más borroso el FSR y además siempre va a palmar AMD en la implementación de la RT.
Por algo la gente prefiere Nvidia a pesar de ser más cara.
Yo incluso prefiero una 3070 a una 6800 XT ,porque en cuanto hay RT y DLSS ,ya ganas.
Pues a igualdad de precio yo me tiraria a una 6800XT aunque sea por la cantidad de VRAM. Los 8GB de VRAM de las 3070 yo creo que a la larga les va a pasar factura y una 6800XT va a envejecer mejor.
D3N184 escribió:hh1 escribió:PepeC12 escribió:@eR_pOty mirate los reviews del FSR.
Vaya que si compite con el DLSS.
Funciona sorprendentemente bien, sobretodo en ultra y quality.
Te doy la razón de que el dlss tiene una tecnología mucho más compleja, requiere de una imagen y anteriores para poder escalar y una ia para realizarlo pero no significa que sea necesariamente mejor.
Por ejemplo fsr no tiene problemas de ghosting y el dlss si.
Pero vamos viendo los resultados que da el fsr, me parece la mejor opción, por compatibilidad hardware y simplicidad a nivel de software (sólo requiere como input la imagen a escalar)
Por cierto, sabes que los cálculos que hacen los tensor cores se pueden hacer en un shader o una cpu no? Simplemente los tensor cores los hacen más rápido.
Si al final cada nodo de una red de neuronas no es mas que una función matemática, normalmente bastante simple.
Y si me preguntas, es una forma muy ineficiente de hacer una tarea, que basa su gracia en que mediante muchos cálculos se ajusta automáticamente para obtener un resultado parecido al que le hemos dicho que tiene que tener.
Posiblemente esa red neuronal que implementa el dlss se podría sustituir por uno muchísimo más eficiente quitando esa red neuronal.
Hombre,yo los análisis que he visto no son como comentas.
https://youtu.be/T58pr4-98wo
Se ve más borroso el FSR y además siempre va a palmar AMD en la implementación de la RT.
Por algo la gente prefiere Nvidia a pesar de ser más cara.
Yo incluso prefiero una 3070 a una 6800 XT ,porque en cuanto hay RT y DLSS ,ya ganas.
Pues a igualdad de precio yo me tiraria a una 6800XT aunque sea por la cantidad de VRAM. Los 8GB de VRAM de las 3070 yo creo que a la larga les va a pasar factura y una 6800XT va a envejecer mejor.
Antoniopua escribió:Yo en el ETS 2, y los Mod que me gustan + 3440x1440p supera 8 Gb de Vram... Casos "puntuales" pero que no sabemos a ciencia cierta si acabaran siendo más habituales de lo que creemos. De hecho... no es el único juego que supera los 8 Gb de Vram jugado en las mismas resoluciones e incluso sin mod. En mi caso una 3070 no creo que me fuese muy bien... prefiero las 16 Gb de Vram de mi actual 6800 XT. Me da más tranquilidad según voy viendo...
Un saludo!!!
eric_14 escribió:Pues será mi equipo, por fuente tampoco creo que sea motivo, tengo una corsair rm750i y la tengo conectada al conector de nvidia pero con dos cables separados de la fuente, no en el mismo (al principio leí que alguno tenía problema si la conectaba todo con el mismo cable).
Lo cierto es que juegos como el insurgency sandstorm que son muy poco demandantes no me acaba de ir bien, tampoco con la 1080 y no veo un motivo claro (bajones a menos de 60 fps cuando antes y ahora tengo equipo para que mantenga entre 80-100 estables).
ViRuSz escribió:eric_14 escribió:Pues será mi equipo, por fuente tampoco creo que sea motivo, tengo una corsair rm750i y la tengo conectada al conector de nvidia pero con dos cables separados de la fuente, no en el mismo (al principio leí que alguno tenía problema si la conectaba todo con el mismo cable).
Lo cierto es que juegos como el insurgency sandstorm que son muy poco demandantes no me acaba de ir bien, tampoco con la 1080 y no veo un motivo claro (bajones a menos de 60 fps cuando antes y ahora tengo equipo para que mantenga entre 80-100 estables).
He seguido probando juegos y he tenido ya en varios juegos, problemas de que la GPU no va al 100% y la CPU funciona sobre el 60-70%
He probado todos estos juegos:
Red Dead 2: Sin problemas CPU al 20-30% y GPU al 99%, media de 70-80 fps
No Mans Sky: Lo he vuelto a probar y la GPU sobre el 70-80% y sobre los 90-100 fps en planetas y 140-160 fps en el espacio.
Forza Horizon 4: CPU 20-30% GPU 99% Media de 120-130 fps
Rise of Tomb Raider: CPU 20-30% GPU 99% Entre 80-100 fps
Watch Dogs 2: CPU 50-60% 7 GPU 60-70% (ha habido picos de GPU al 99%, pero la mayoría del tiempo a 60-70%) 60 fps en exteriores y 80-90 en interiores, pero el juego no se nota nada fluido.
Ghosts Recon Wildlands: Idéntico al Watch Dogs CPU 50-60% 7 GPU 60-70% Media de 60 fps y nada fluido.
Battlefield 1: CPU 60-70% / GPU al 50-70% 90-110 fps (nada que ver con benchmarks que dan 160 fps en arriba)
Battlefield 5: CPU 60-70% / GPU al 60-90% 90-120 fps (en benchmarks que he visto 140-160 fps)
F1 2020: CPU 40% / GPU 70-99% (Este daba 147 fps de media, y lo visto en benchmarks es lo normal)
Shadow of War: CPU 30% / GPU 70-90% Media de 119 fps (por lo que he visto es lo normal)
Metro Exodus Enhaced: Sin problemas CPU 20-30% GPU 99% Media de 90 fps
Todas estas pruebas con un Ryzen 2700x y jugando a 3440x1440.
En definitiva, estoy teniendo problemas con varios juegos que ya había ejecutado en éste PC con la 1080ti. Ya hice el DDU antes de instalar la 3080ti, pero ni con esas algunos juegos no funcionan como deberían..
Haré una instalación limpia de Windows (que ya hace tiempo quería hacerla) y veremos que pasa.
Dibxer escribió:Queria probar hacer el OC Automatico del panel de GeForce Experience en Rendimiento, pero cuando lleva unos 10s me sale esto: "Resultado del ultimo analisis: El ajuste automatico ha sido detenido. Reinicie el analisis"
Alguien sabe a que se debe? Con el afterburner cerrado, y sin OC.
Por otro lado, he vuelto a bajar BF4 y lo tengo limitado a 200 fps, alguien sabe como se quita esta limitacion?
Gracias!
Tycony escribió:En el caso de los Battlefield´s , prueba en configuración una opción que es FUTURE FRAME REDERING , tiene que estar en ON.
Camoranesi escribió:Bueno pues se confirma lo que me temía el domingo, en junio al menos no van a bajar el precio de las gráficas...
Lo que yo no me explico es que con todo el stock que hay sigan los mismos precios sobretodo en la gama baja, de verdad que no me explico como a las tiendas y distribuidores se les permite estafar y especular impunemente por no perder un par de palés de 1660 y 2060 a la venta por 600 euros. Es una vergüenza y es una táctica monopolística que el estado debería investigar.
Camoranesi escribió:Bueno pues se confirma lo que me temía el domingo, en junio al menos no van a bajar el precio de las gráficas...
Lo que yo no me explico es que con todo el stock que hay sigan los mismos precios sobretodo en la gama baja, de verdad que no me explico como a las tiendas y distribuidores se les permite estafar y especular impunemente por no perder un par de palés de 1660 y 2060 a la venta por 600 euros. Es una vergüenza y es una táctica monopolística que el estado debería investigar.