JaviGabber escribió:Exacto, una serie sustituye a la otra y no conviven juntas. Descatalogaran las 3000 y las tiendas puede que hagan alguna oferta putual para quitarse el stock de encima.
SashaX escribió:
¿Por qué dices eso?
neofonta escribió:Porque con la 4000 empiezan una nueva litografía la cual depurarán en esta serie y en cuando lancen la 5000 estará mucho más pulida.
neofonta escribió:Porque con la 4000 empiezan una nueva litografía la cual depurarán en esta serie y en cuando lancen la 5000 estará mucho más pulida.
FranciscoVG escribió:Esta generacion debería ser muy buena, mas que nada por que amd esta muy fuerte y nvidia no puede andarse con tonterías, tambien viene intel, de unos años aqui hemos pasado de tener solo dos opciones siendo nvidia claramente superior a seguramente 3 y habiendo una lucha real algo que lleva sin verse muchos años, si hay una generacion donde claramente tiene que ir fuertes es esta
OK Computer escribió:gojesusga escribió:ya se han filtrado los precios... una 4070 carísima TDP de 300W pero... de rendimiento no hay nada confirmado no? Leí un rumor de que era como una RTX 3080ti? Por huevos tienen que bajar los precios de la serie 3000.
Que yo recuerde y lo mismo me falla la memoria, los precios de las series anteriores no bajan con la llegada de las nuevas, o si lo hacen, es algo marginal y muy puntual.
JaviGabber escribió:neofonta escribió:Porque con la 4000 empiezan una nueva litografía la cual depurarán en esta serie y en cuando lancen la 5000 estará mucho más pulida.
Estrenan arquitectura y litografia nueva, lo que indica que no es ni mucho menos una serie de transicion. Vamos como dice el compañero lo que siempre hace nvidia.FranciscoVG escribió:Esta generacion debería ser muy buena, mas que nada por que amd esta muy fuerte y nvidia no puede andarse con tonterías, tambien viene intel, de unos años aqui hemos pasado de tener solo dos opciones siendo nvidia claramente superior a seguramente 3 y habiendo una lucha real algo que lleva sin verse muchos años, si hay una generacion donde claramente tiene que ir fuertes es esta
Ojala que AMD pueda sacar algo que le haga algo de daño a Nvidia por que el "monopolio" que tiene no es sano. Las filtraciones de kopite7kimi no dan muchas esperanzas...
JaviGabber escribió:neofonta escribió:Porque con la 4000 empiezan una nueva litografía la cual depurarán en esta serie y en cuando lancen la 5000 estará mucho más pulida.
Estrenan arquitectura y litografia nueva, lo que indica que no es ni mucho menos una serie de transicion. Vamos como dice el compañero lo que siempre hace nvidia.FranciscoVG escribió:Esta generacion debería ser muy buena, mas que nada por que amd esta muy fuerte y nvidia no puede andarse con tonterías, tambien viene intel, de unos años aqui hemos pasado de tener solo dos opciones siendo nvidia claramente superior a seguramente 3 y habiendo una lucha real algo que lleva sin verse muchos años, si hay una generacion donde claramente tiene que ir fuertes es esta
Ojala que AMD pueda sacar algo que le haga algo de daño a Nvidia por que el "monopolio" que tiene no es sano. Las filtraciones de kopite7kimi no dan muchas esperanzas...
SashaX escribió:
¿Por qué dices eso?
gojesusga escribió:FrankSikiatra escribió:gojesusga escribió:ya se han filtrado los precios... una 4070 carísima TDP de 300W pero... de rendimiento no hay nada confirmado no? Leí un rumor de que era como una RTX 3080ti? Por huevos tienen que bajar los precios de la serie 3000.
Fuente? No he encontrado nada sobre los precios
Bueno pone estimaciones...
RTX 4000 Lovelace Price Estimations.
RTX 4090 Ti - $2499
RTX 4090 - $1,799
RTX 4080 Ti - $1,399
RTX 4080 - $899
RTX 4070 - $679
RTX 4060 Ti - $529
RTX 4060 - $429
https://twitter.com/GraphicallyChal/sta ... EWq_Iz-jZA
FranciscoVG escribió:
No solo puede si no que ya lo a hecho, esta generacion en condiciones normales amd habria dado un duro golpe a nvidia, las arquitecturas no se miden por la potencia o por las ventas se miden de toda la vida por la eficiencia y en eso amd no solo esta a la altura si no que a llegado a superar a nvidia, esto es lo que hizo tambien a amd superar a intel y por lo que el M1 de apple es el mejor procesador de la actualidad, la eficiencia es lo que te hace ser competitivo y tener fácil escalabilidad
Es evidente que es dificil que amd supere a nvidia pero como se duerma en los laureles les va a ganar mucho terreno sobre todo ahora que incluso se estan poniendo las pilas en lo relacionado al software, tambien va a depender mucho del tema del stock y de los tratos que ambos tengan con TSMC, tambien se podria decir que amd es la menos interesada en esta guerra puesto que tiene un mercado mas diversificado pero serian tontos si pierden la oportunidad
Yuluga escribió:SashaX escribió:
¿Por qué dices eso?
y mejor será la 6000
eric_14 escribió:Solo con el cambio de 8nm de samgung a 7 de tsmc ya podría suponer un cambio notable, o por lo menos eso le ha pasado a snapdragon con su último SOC. Con poco más que mejoren ya tienen el cambio gordo.
Nvidia lo único gordo que no tiene Amd es el dlss (que a penas se puede usar, o yo al menos solo lo he utilizado en cyberpunk, en el resto o va mal o no tiene), del resto están a la altura o mejor, seguramente tendría una Amd si no llega a ser por el stock. Pero faltará ver las diferencias entre rtx4000 vs rx7000, ninguna de las dos empresas se pueden dormir.
hh1 escribió:eric_14 escribió:Solo con el cambio de 8nm de samgung a 7 de tsmc ya podría suponer un cambio notable, o por lo menos eso le ha pasado a snapdragon con su último SOC. Con poco más que mejoren ya tienen el cambio gordo.
Nvidia lo único gordo que no tiene Amd es el dlss (que a penas se puede usar, o yo al menos solo lo he utilizado en cyberpunk, en el resto o va mal o no tiene), del resto están a la altura o mejor, seguramente tendría una Amd si no llega a ser por el stock. Pero faltará ver las diferencias entre rtx4000 vs rx7000, ninguna de las dos empresas se pueden dormir.
Que no se puede usar el DLSS?
Si está en más de 100 juegos....
AMD es superior en rasterizacion ,y no por mucho.Sin embargo, en RT está muy atrás y son DLSS.
Como producto global,es mejor Nvidia.
En tem adrivers ,lo mismo .Me parece Nvidia un punto por delante
En las nuevas ya se verá.
@adri079
Yo pasé de 27" a 32" sin problema.No es tanta diferencia .Te acostumbras rápido.Ambos 1440p.
4K siempre he dicho y diré ,que mientras no se estandarice ,es caro de mantener ,muy caro.
Tuve la 1080Ti en su prime.Dos años duró dando 4K60fps en todo con settings altos
Una gráfica de +900€.
Ahora tengo una 3080Ti.Ni que decir que en dos años ,otra vez a cambiar para mnatenar en la mayoría de juegos 4k +60 FPS.
1200€ de gráfica.
En 4 años ,2100 € +compra de otra nueva de unos 100€ fácil.
Tenemos que en 4 años te has dejado 3100€ fácil(- la venta de las gráficas)
Estamos locos?
Que luego si, algunos juegos los juegas 4K ,otros bajas settings...pero coño,que hablamos de gráficas caras y top.
No compensa para nada.
A parte de que yo prefiero un 1440p sobrado de FPS que un 4K más justo.
Yo he jugado 4k en una Oled de 55" y sinceramente ,no me parece un salto tan apreciable comparado con el 1440p.No es para tanto.
En un monitor de 32",ni te cuento.
Pasando del 4k hasta auqe se estandarice y se mueva sobrado.Es una ruina en gráficas.
FranciscoVG escribió:hh1 escribió:eric_14 escribió:Solo con el cambio de 8nm de samgung a 7 de tsmc ya podría suponer un cambio notable, o por lo menos eso le ha pasado a snapdragon con su último SOC. Con poco más que mejoren ya tienen el cambio gordo.
Nvidia lo único gordo que no tiene Amd es el dlss (que a penas se puede usar, o yo al menos solo lo he utilizado en cyberpunk, en el resto o va mal o no tiene), del resto están a la altura o mejor, seguramente tendría una Amd si no llega a ser por el stock. Pero faltará ver las diferencias entre rtx4000 vs rx7000, ninguna de las dos empresas se pueden dormir.
Que no se puede usar el DLSS?
Si está en más de 100 juegos....
AMD es superior en rasterizacion ,y no por mucho.Sin embargo, en RT está muy atrás y son DLSS.
Como producto global,es mejor Nvidia.
En tem adrivers ,lo mismo .Me parece Nvidia un punto por delante
En las nuevas ya se verá.
@adri079
Yo pasé de 27" a 32" sin problema.No es tanta diferencia .Te acostumbras rápido.Ambos 1440p.
4K siempre he dicho y diré ,que mientras no se estandarice ,es caro de mantener ,muy caro.
Tuve la 1080Ti en su prime.Dos años duró dando 4K60fps en todo con settings altos
Una gráfica de +900€.
Ahora tengo una 3080Ti.Ni que decir que en dos años ,otra vez a cambiar para mnatenar en la mayoría de juegos 4k +60 FPS.
1200€ de gráfica.
En 4 años ,2100 € +compra de otra nueva de unos 100€ fácil.
Tenemos que en 4 años te has dejado 3100€ fácil(- la venta de las gráficas)
Estamos locos?
Que luego si, algunos juegos los juegas 4K ,otros bajas settings...pero coño,que hablamos de gráficas caras y top.
No compensa para nada.
A parte de que yo prefiero un 1440p sobrado de FPS que un 4K más justo.
Yo he jugado 4k en una Oled de 55" y sinceramente ,no me parece un salto tan apreciable comparado con el 1440p.No es para tanto.
En un monitor de 32",ni te cuento.
Pasando del 4k hasta auqe se estandarice y se mueva sobrado.Es una ruina en gráficas.
La diferencia entre 2k y 4k en una tv de 55 pulgadas se nota un huevo, lo que tu seas capaz de apreciar esa diferencia depende mas de la distancia a la que te pongas que de otra cosa
Puede ser mas util 4k en un monitor de 32 pulgadas que en una tv de 65 pulgadas, por que el monitor generalmente lo ves a unos 50cm y la tv fácilmente son 3 metros en el salon
La densidad de pixeles es solo un dato el ojo humano cuanto mas te alejas mas definición pierde, tu puedes ser incapaz de apreciar la diferencia en una tv entre 720p y 8k si te alejas lo suficiente
eric_14 escribió:@hh1 por lo que he podido probar en mis pcs la versión 1.0 del dlss no era usable, a partir de la 2.0 sí, aunque también hay que dan fallos. Luego con la 2 tampoco hay muchos, a esto me refería.
Que todos los que vengan ahora y lo quieran incluir (quitando chapuzas de juegos tipo bf 2042) nos vamos a ver beneficiados y hará que la gráfica aguante bastante más, pero por mí hasta ahora me sigue decepcionando un poco por no poder utilizarlo más.
Prop Joe escribió:eric_14 escribió:@hh1 por lo que he podido probar en mis pcs la versión 1.0 del dlss no era usable, a partir de la 2.0 sí, aunque también hay que dan fallos. Luego con la 2 tampoco hay muchos, a esto me refería.
Que todos los que vengan ahora y lo quieran incluir (quitando chapuzas de juegos tipo bf 2042) nos vamos a ver beneficiados y hará que la gráfica aguante bastante más, pero por mí hasta ahora me sigue decepcionando un poco por no poder utilizarlo más.
DLSS 1.0 hace tiempo que es historia.
De la 2.0 en adelante -que hay más, iban por 2.3 o así en las últimas actualizaciones para mejorar el ghosting- yo no he tenido problemas con DLSS, hay juegos donde está mejor implementado que otros pero en 1440p es para mí indistinguible en Quality en el 100%, y en la mayoría en Balanced se ve aún muy bien bien. En 4K es usable hasta el Performance.
Y no sé dónde lo echas en falta, sale ya con casi todos los Triple A, que es con los que es necesario. Que no lo tengan indies que los mueve una GTX 1050 psé. La clave es que en los juegos demandantes está ya casi siempre presente.
hh1 escribió:FranciscoVG escribió:hh1 escribió:Que no se puede usar el DLSS?
Si está en más de 100 juegos....
AMD es superior en rasterizacion ,y no por mucho.Sin embargo, en RT está muy atrás y son DLSS.
Como producto global,es mejor Nvidia.
En tem adrivers ,lo mismo .Me parece Nvidia un punto por delante
En las nuevas ya se verá.
@adri079
Yo pasé de 27" a 32" sin problema.No es tanta diferencia .Te acostumbras rápido.Ambos 1440p.
4K siempre he dicho y diré ,que mientras no se estandarice ,es caro de mantener ,muy caro.
Tuve la 1080Ti en su prime.Dos años duró dando 4K60fps en todo con settings altos
Una gráfica de +900€.
Ahora tengo una 3080Ti.Ni que decir que en dos años ,otra vez a cambiar para mnatenar en la mayoría de juegos 4k +60 FPS.
1200€ de gráfica.
En 4 años ,2100 € +compra de otra nueva de unos 100€ fácil.
Tenemos que en 4 años te has dejado 3100€ fácil(- la venta de las gráficas)
Estamos locos?
Que luego si, algunos juegos los juegas 4K ,otros bajas settings...pero coño,que hablamos de gráficas caras y top.
No compensa para nada.
A parte de que yo prefiero un 1440p sobrado de FPS que un 4K más justo.
Yo he jugado 4k en una Oled de 55" y sinceramente ,no me parece un salto tan apreciable comparado con el 1440p.No es para tanto.
En un monitor de 32",ni te cuento.
Pasando del 4k hasta auqe se estandarice y se mueva sobrado.Es una ruina en gráficas.
La diferencia entre 2k y 4k en una tv de 55 pulgadas se nota un huevo, lo que tu seas capaz de apreciar esa diferencia depende mas de la distancia a la que te pongas que de otra cosa
Puede ser mas util 4k en un monitor de 32 pulgadas que en una tv de 65 pulgadas, por que el monitor generalmente lo ves a unos 50cm y la tv fácilmente son 3 metros en el salon
La densidad de pixeles es solo un dato el ojo humano cuanto mas te alejas mas definición pierde, tu puedes ser incapaz de apreciar la diferencia en una tv entre 720p y 8k si te alejas lo suficiente
Jugaba a 1,70m y te aseguro que me costaba ver las diferencias.
@eric_14
Cuantos más juegos lo lleven mejor , está claro.
FranciscoVG escribió:hh1 escribió:FranciscoVG escribió:
La diferencia entre 2k y 4k en una tv de 55 pulgadas se nota un huevo, lo que tu seas capaz de apreciar esa diferencia depende mas de la distancia a la que te pongas que de otra cosa
Puede ser mas util 4k en un monitor de 32 pulgadas que en una tv de 65 pulgadas, por que el monitor generalmente lo ves a unos 50cm y la tv fácilmente son 3 metros en el salon
La densidad de pixeles es solo un dato el ojo humano cuanto mas te alejas mas definición pierde, tu puedes ser incapaz de apreciar la diferencia en una tv entre 720p y 8k si te alejas lo suficiente
Jugaba a 1,70m y te aseguro que me costaba ver las diferencias.
@eric_14
Cuantos más juegos lo lleven mejor , está claro.
Bueno claro por que lo estas comparando con un monitor de igual 28 pulgadas, yo solo te digo que esa valoracion que estas haciendo que dependiendo de las pulgadas es mas o menos necesaria la resolucion es absurda, no es lo mismo una tv que un monitor como tampoco es lo mismo un monitor que unas gafas de realidad virtual, las gafas de realidad virtual necesitan una densidad de pixeles altísima para no notar diferencias de resolución, y son pantallas enanas, tambien en un monitor es mas necesario mayor densidad por que generalmente lo tienes a menos distancia que una tv
Hay estudios donde la mayoria de la gente nota el salto a 4k en una pantalla de 20 pulgadas a una distancia de 50-60 cm (que es lo normal en un monitor), como tambien los hay que dicen que la mayoria de la gente no nota la diferencia entre 4k y full hd en una tv de 55 pulgadas si los pones a mas de 3 metros, todo depende de la distancia no se trata de que a mas resolución es mas necesaria
Nomada_Firefox escribió:¿Qué os parece el rumor que indicaria que las 4060 consumen más de 220W? lo cual haria que tuviera un TDP mayor que la 3070.
Yo creo que es posible dado que de todas los demas modelos existen rumores de más alto consumo. Tambien pienso que si bien el consumo por rendimiento quizas sea muy bueno, estas graficas son ineficientes en terminos de gasto energetico.
De hecho creo que toda la industria del hardware informatico para PCs escritorio se esta saliendo de madre con unos consumos cada vez mayores y que todo se debe a los tiempos que tienen para mejorar las arquitecturas. Las CPUs salen cada año, las GPUs cada dos, entre uno y lo otro, seguramente no tengan poco más de un año para mejorar un diseño. Con esos margenes conseguir algo que tenga un gran rendimiento y un consumo aceptable me parece imposible, asi que por eso vemos cosas como esta.
Y a este ritmo tampoco creo que las serie 5000 vayan a ser mejor. El siguiente diseño volveran a reducir el tamaño y volveran a buscar los limites para subir el rendimiendo, pasando más de lo mismo.
Asi que el consumo no va a ser la tonica de los futuros procesadores de escritorio. Ideal para los tiempos que corren.
adriano_99 escribió:Ese mismo rumor también dice que rendiría como una 3080, si eso es así yo no veo mal el rendimiento/consumo.
eric_14 escribió:Yo sigo jugando en 2k , no me planteo ni el 4k. Veremos a ver qué sale.
hh1 escribió:Pues ya se oye más el posible retraso de las 4000....
También le está pasando a AMD con las 7000.
eric_14 escribió:Yo no entendería esos precios, qué juego hay que no vaya sobrado con una 3080/3070 (quitando alguno con mala optimización)? Y no sé si hay alguno anunciado para este año que pinte que vaya a necesitar una 4080. (Igual estoy desactualizado pero creo que no hay mucha cosa).
Con esos precios darían vida a las 3070/3080/4070 pero subir más no sé si le va a compensar a la gente. Y los que ya tengan alguna 30x0 quizás prefieran esperar un tiempo o a otra generación.
En mi caso no creo que entre, igual miraría de cambiar otrasa cosas, como la CPU si hay algún buen salto respecto a las actuales.
Nomada_Firefox escribió:Otro rumor del mismo origen que el de la 4060, indica que la 4080 consumiria 100W más que la 3080.
https://videocardz.com/newz/nvidia-gefo ... n-rtx-3080
Estaba pensando, si dicen que 4060 va a rendir como la 3080, eso seria como un 91% mejor que la 3060 segun esto https://www.techpowerup.com/gpu-specs/g ... 3060.c3682
¿Cuanto va a rendir la 4080? más que una pregunta es un ya lo y es para poner en situación a los usuarios de una 3080, los cuales van a tener dos opciones, una venderlas y la otra encerrarse en su mundo sin ver demasiado lo que sucede por estos lares.
Y es que si esperais otros dos años, cuando querais venderlas, no van a valer ni 300€. Es la pura verdad.
Nomada_Firefox escribió:Otro rumor del mismo origen que el de la 4060, indica que la 4080 consumiria 100W más que la 3080.
https://videocardz.com/newz/nvidia-gefo ... n-rtx-3080
Estaba pensando, si dicen que 4060 va a rendir como la 3080, eso seria como un 91% mejor que la 3060 segun esto https://www.techpowerup.com/gpu-specs/g ... 3060.c3682
¿Cuanto va a rendir la 4080? más que una pregunta es un ya lo y es para poner en situación a los usuarios de una 3080, los cuales van a tener dos opciones, una venderlas y la otra encerrarse en su mundo sin ver demasiado lo que sucede por estos lares.
Y es que si esperais otros dos años, cuando querais venderlas, no van a valer ni 300€. Es la pura verdad.
neox3 escribió:Nomada_Firefox escribió:Otro rumor del mismo origen que el de la 4060, indica que la 4080 consumiria 100W más que la 3080.
https://videocardz.com/newz/nvidia-gefo ... n-rtx-3080
Estaba pensando, si dicen que 4060 va a rendir como la 3080, eso seria como un 91% mejor que la 3060 segun esto https://www.techpowerup.com/gpu-specs/g ... 3060.c3682
¿Cuanto va a rendir la 4080? más que una pregunta es un ya lo y es para poner en situación a los usuarios de una 3080, los cuales van a tener dos opciones, una venderlas y la otra encerrarse en su mundo sin ver demasiado lo que sucede por estos lares.
Y es que si esperais otros dos años, cuando querais venderlas, no van a valer ni 300€. Es la pura verdad.
Lo que se ha dicho es que la 4060 consume watios como una 3080... el resto de momento, es especulación.
Pues yo al final nada, lo del retraso de la serie 4000 ya sale cada vez en mas sitios asiq paso de estarme comiendo los mocos,, como habia vendido la 3080 10 gigas bien, muy bien, me he comprado una 3080ti founders tb muy bien de precio.
La pasare por agua, que queda este modelo super compacto, y a tirar millas, porq esto empieza a no tener buena pinta, ya que hoy he leido que se comenta, especula etc que las amd tb se retrasan ...
Nomada_Firefox escribió:hh1 escribió:Pues ya se oye más el posible retraso de las 4000....
También le está pasando a AMD con las 7000.
Tampoco es que hubiera fechas confirmadas y con el panorama mundial que prisa tienen. Si dentro de un año estamos todos aqui o enterrados debajo de los escombros, aplaudamos, creo que nadie lo puede garantizar. O puede que nos estemos pegando en las tiendas por el pan porque no haya trigo.
@Pegcaero de barrio Como siempre cada usuario es diferente. Si yo pudiera comprar una 4060 con el rendimiento de una 3080 a un precio más economico y sin tener que cambiar mi fuente de alimentación, pues seria muy atractivo el cambio.
Y es muy posible que la serie 4000 sea más economica que ahora la 3000. Es la eterna discusión pero es muy posible que los modelos de gama alta nunca bajen de precio a sus valores de salida y aunque con más consumo, ofreciendo más rendimiento, una 4080 seria mejor.
Lo que si es cierto, lo unico en lo que se puede generalizar, es que el software no han avanzado nada de nada para aprovechar todo esto.
hh1 escribió:No había fecha,pero todos los lanzamientos de gamas nuevas estaban siendo a partir Septiembre las últimas as veces.
Nomada_Firefox escribió:¿Cuanto va a rendir la 4080? más que una pregunta es un ya lo y es para poner en situación a los usuarios de una 3080, los cuales van a tener dos opciones, una venderlas y la otra encerrarse en su mundo sin ver demasiado lo que sucede por estos lares.
Y es que si esperais otros dos años, cuando querais venderlas, no van a valer ni 300€. Es la pura verdad.
JaviGabber escribió:WTF!? Ojala que saquen una 4080 que escupa 200% mas de fps que mi 3080. ¿Que la 3080 se devaluara? Es una obviedad. Yo quiero que haya evolucion y no tener el pensamiento en mi opinion infantil de "que no saquen nada nuevo por que quiero seguir teniendo la mejor GPU"
De hecho no recuerdo una gpu que se haya devaluado menos que la 3080 (bueno y todas las de su epoca) la cual esta cerca de los 2 años y a dia de hoy se puede vender facil casi al precio de salida. Primero por que hoy dia valen mas que cuando salieron y segundo por que no han sacado ni tan siquiera versiones Super.
Si dentro de otros 2 años la tengo que vender por 250€ seria un triunfo (me costo 750€) ¿500 miseros euros (con perdon) por 4 años de disfrute? Yo lo firmo.
Nomada_Firefox escribió:Otro rumor del mismo origen que el de la 4060, indica que la 4080 consumiria 100W más que la 3080.
https://videocardz.com/newz/nvidia-gefo ... n-rtx-3080
Estaba pensando, si dicen que 4060 va a rendir como la 3080, eso seria como un 91% mejor que la 3060 segun esto https://www.techpowerup.com/gpu-specs/g ... 3060.c3682
¿Cuanto va a rendir la 4080? más que una pregunta es un ya lo y es para poner en situación a los usuarios de una 3080, los cuales van a tener dos opciones, una venderlas y la otra encerrarse en su mundo sin ver demasiado lo que sucede por estos lares.
Y es que si esperais otros dos años, cuando querais venderlas, no van a valer ni 300€. Es la pura verdad.
sadistics escribió:si, van a hacer magia y los componentes que no han tenido para la serie 3k los van a meter todos en la 4k y crear un stock del copon con el fin de tirar su gen pasada de precio . Se te ve un poco dolido por pagar 650 plomos por la 3060