Pacorrr escribió:hh1 escribió:Filver escribió:
Es que tengo la manía de que, como el PC lo uso mayormente para jugar, no quiero que consuma más que una consola, entonces para mí es un punto importante, y la única gráfica que me permite tener un consumo total de 200-250W a full es la 4060, hasta que no haya una gráfica que consuma similar y a su vez de un salto de al menos un 50-60% en raster sin IA ni milongas ni me planteo el salto, y visto lo visto se puede ir para 2-3 gen más 🤣
Bueno.
Te puedes ttincar una 4090 y bajándola a esos 250w palma sobre un 6% de rendimiento.
Sigue siendo mejor que una 4080S.
Ojalá fuese como dices, pero no, palma bastante más de un 6%. De serie consume sus buenos 450W en 4K y juegos exigentes, es imposible rascar tanto (tengo una).
hh1 escribió:Pacorrr escribió:hh1 escribió:Bueno.
Te puedes ttincar una 4090 y bajándola a esos 250w palma sobre un 6% de rendimiento.
Sigue siendo mejor que una 4080S.
Ojalá fuese como dices, pero no, palma bastante más de un 6%. De serie consume sus buenos 450W en 4K y juegos exigentes, es imposible rascar tanto (tengo una).
A un 60% que son 268w ,palma un 6,1%
https://elchapuzasinformatico.com/2022/ ... undervolt/
Es más ,dejándola que consuma sobre 325-350w, todavía rinde más que de stock, porque te permite subirle la frecuencia de stock sin problemas.
La 4090 es una auténtica locura haciendo undervolt.
@Ramsa
Es que eso es lo que tienen que hacer de una vez.
Que han tenido mil ocasiones y no lo hacen nunca
500-550€ y a vender
El problema es que ,haciendo eso ,pierden beneficios ,te baja Nvidia la 5070, y ha estás igual, pero ganando menos
Pacorrr escribió:hh1 escribió:Pacorrr escribió:Ojalá fuese como dices, pero no, palma bastante más de un 6%. De serie consume sus buenos 450W en 4K y juegos exigentes, es imposible rascar tanto (tengo una).
A un 60% que son 268w ,palma un 6,1%
https://elchapuzasinformatico.com/2022/ ... undervolt/
Es más ,dejándola que consuma sobre 325-350w, todavía rinde más que de stock, porque te permite subirle la frecuencia de stock sin problemas.
La 4090 es una auténtica locura haciendo undervolt.
@Ramsa
Es que eso es lo que tienen que hacer de una vez.
Que han tenido mil ocasiones y no lo hacen nunca
500-550€ y a vender
El problema es que ,haciendo eso ,pierden beneficios ,te baja Nvidia la 5070, y ha estás igual, pero ganando menos
Que eso no es verdad, puede que se aplique a ciertos juegos o resoluciones que no escalen o algo, pero que la tengo yo desde hace 2 años y pico y consume 430W en 4K real sin reescalados n itrucos. Si le haces undervolt, pierdes más rendimiento que un 6% a menos que el juego no escale o que uses resoluciones que no sean nativas (usando reescalados).
Si es que en ese gráfico pone que de media consume 350W, me río en sus caras El Guardianes de la Galaxia mismo, que me pasé hace poco, te consume 430W sin despeinarse con todo a tope en 4K, y te lo puedo demostrar.
hh1 escribió:Pacorrr escribió:hh1 escribió:A un 60% que son 268w ,palma un 6,1%
https://elchapuzasinformatico.com/2022/ ... undervolt/
Es más ,dejándola que consuma sobre 325-350w, todavía rinde más que de stock, porque te permite subirle la frecuencia de stock sin problemas.
La 4090 es una auténtica locura haciendo undervolt.
@Ramsa
Es que eso es lo que tienen que hacer de una vez.
Que han tenido mil ocasiones y no lo hacen nunca
500-550€ y a vender
El problema es que ,haciendo eso ,pierden beneficios ,te baja Nvidia la 5070, y ha estás igual, pero ganando menos
Que eso no es verdad, puede que se aplique a ciertos juegos o resoluciones que no escalen o algo, pero que la tengo yo desde hace 2 años y pico y consume 430W en 4K real sin reescalados n itrucos. Si le haces undervolt, pierdes más rendimiento que un 6% a menos que el juego no escale o que uses resoluciones que no sean nativas (usando reescalados).
Si es que en ese gráfico pone que de media consume 350W, me río en sus caras El Guardianes de la Galaxia mismo, que me pasé hace poco, te consume 430W sin despeinarse con todo a tope en 4K, y te lo puedo demostrar.
A lo mejor depende el juego en cuestión ,porque yo ,desde luego, tengo otros rendimientos y consumos,más a cirdes a lo que dicen ahí.
Es más ,es muy sencillo.
Ponte uno de mis UV por ejemplo, en un par de juegos,y en dice que te da :
1000mv@2850 MHz o 2825 MHz.
Y tengo otra con 1050mv a 2955mhz ,que rinde más aún.
Es imposible que te consuma 430w y que te rinda menos, cuando de stock te hace unos 2520 MHz de máxima y hablan de turbo de 2850 mhz.y consume 450w.
No sé,es que no tiene sentido o algo me he perdido, porque es la.misma frecuencia turbo consumiendo menos.
Pacorrr escribió:hh1 escribió:Pacorrr escribió:Que eso no es verdad, puede que se aplique a ciertos juegos o resoluciones que no escalen o algo, pero que la tengo yo desde hace 2 años y pico y consume 430W en 4K real sin reescalados n itrucos. Si le haces undervolt, pierdes más rendimiento que un 6% a menos que el juego no escale o que uses resoluciones que no sean nativas (usando reescalados).
Si es que en ese gráfico pone que de media consume 350W, me río en sus caras El Guardianes de la Galaxia mismo, que me pasé hace poco, te consume 430W sin despeinarse con todo a tope en 4K, y te lo puedo demostrar.
A lo mejor depende el juego en cuestión ,porque yo ,desde luego, tengo otros rendimientos y consumos,más a cirdes a lo que dicen ahí.
Es más ,es muy sencillo.
Ponte uno de mis UV por ejemplo, en un par de juegos,y en dice que te da :
1000mv@2850 MHz o 2825 MHz.
Y tengo otra con 1050mv a 2955mhz ,que rinde más aún.
Es imposible que te consuma 430w y que te rinda menos, cuando de stock te hace unos 2520 MHz de máxima y hablan de turbo de 2850 mhz.y consume 450w.
No sé,es que no tiene sentido o algo me he perdido, porque es la.misma frecuencia turbo consumiendo menos.
Pero es que cada tarjeta es diferente. La mía, de stock, hace 2730MHz a 1.05V, yo la tengo a 2745MHz a 0.965V y te digo que con ese undervolt en el Guardianes de la Galaxia me consume 430W a 4K y todos los ajustes al máximo. Si quieres te lo grabo, que no me cuesta nada. Y como ese juego, pasa en más, por eso decir categóricamente que al hacerle undevolt mágciamente reduces mucho el consumo y pierdes poco rendimiento, no se puede decir, porque no es verdad (o es una verdad a medias como mucho), en algún juego puede que pase pero desde luego no en todos.
hh1 escribió:Pacorrr escribió:hh1 escribió:A lo mejor depende el juego en cuestión ,porque yo ,desde luego, tengo otros rendimientos y consumos,más a cirdes a lo que dicen ahí.
Es más ,es muy sencillo.
Ponte uno de mis UV por ejemplo, en un par de juegos,y en dice que te da :
1000mv@2850 MHz o 2825 MHz.
Y tengo otra con 1050mv a 2955mhz ,que rinde más aún.
Es imposible que te consuma 430w y que te rinda menos, cuando de stock te hace unos 2520 MHz de máxima y hablan de turbo de 2850 mhz.y consume 450w.
No sé,es que no tiene sentido o algo me he perdido, porque es la.misma frecuencia turbo consumiendo menos.
Pero es que cada tarjeta es diferente. La mía, de stock, hace 2730MHz a 1.05V, yo la tengo a 2745MHz a 0.965V y te digo que con ese undervolt en el Guardianes de la Galaxia me consume 430W a 4K y todos los ajustes al máximo. Si quieres te lo grabo, que no me cuesta nada. Y como ese juego, pasa en más, por eso decir categóricamente que al hacerle undevolt mágciamente reduces mucho el consumo y pierdes poco rendimiento, no se puede decir, porque no es verdad (o es una verdad a medias como mucho), en algún juego puede que pase pero desde luego no en todos.
No hace falta que me pongas nada ,te creo..
Pues a mí no me pasa eso ,y al del enlace que te puse ,tampoco.
No puedes bajarle ese UV a 950mv con la misma frecuencia?
Aún así ,me parecen muchos 430w para ese voltaje.
Has parado de stock, a bajarle solo ooelwee limti,como te dicen en el enlace que puse ,al 60-70?
Ahí el consumo no va a ervese que dice ,ni e ecoña ,y vas a ver si pierdes mucho rendimiento o no..
Porque ya te digo ,que yo jugando 1440p y DSR4k , los resultados son básicamente los que dicen esa prueba
Evidentemente en 4k sube más el consumo
Ramsay escribió:como la saquen a 500 y rinda como una 4080 se comen el mercado, lastima que no vaya a pasar.
A pesar de que las unidades físicas ya llegan a minoristas seleccionados, el lanzamiento parece retrasarse debido a las negociaciones de precios en curso.
Si bien las cajas con la marca RX 9070 se han visto en los canales minoristas, los desacuerdos sobre los costos han impedido un lanzamiento oficial. El problema principal se deriva del agresivo enfoque de precios de AMD para los modelos RX 9070 y RX 9070 XT
AMD podría ofrecer fondos de marketing o incentivos de devolución de dinero para cerrar la brecha de precios, aunque las negociaciones se han estancado. Recientemente informamos sobre el modelo AMD Radeon RX 9070 XT AIB que cuesta alrededor de $ 549
Pacorrr escribió:hh1 escribió:Pacorrr escribió:Pero es que cada tarjeta es diferente. La mía, de stock, hace 2730MHz a 1.05V, yo la tengo a 2745MHz a 0.965V y te digo que con ese undervolt en el Guardianes de la Galaxia me consume 430W a 4K y todos los ajustes al máximo. Si quieres te lo grabo, que no me cuesta nada. Y como ese juego, pasa en más, por eso decir categóricamente que al hacerle undevolt mágciamente reduces mucho el consumo y pierdes poco rendimiento, no se puede decir, porque no es verdad (o es una verdad a medias como mucho), en algún juego puede que pase pero desde luego no en todos.
No hace falta que me pongas nada ,te creo..
Pues a mí no me pasa eso ,y al del enlace que te puse ,tampoco.
No puedes bajarle ese UV a 950mv con la misma frecuencia?
Aún así ,me parecen muchos 430w para ese voltaje.
Has parado de stock, a bajarle solo ooelwee limti,como te dicen en el enlace que puse ,al 60-70?
Ahí el consumo no va a ervese que dice ,ni e ecoña ,y vas a ver si pierdes mucho rendimiento o no..
Porque ya te digo ,que yo jugando 1440p y DSR4k , los resultados son básicamente los que dicen esa prueba
Evidentemente en 4k sube más el consumo
Si le bajas el power limit, y la tarjeta necesita más power para rendir X, va a pasar igual o incluso peor, porque la tarjeta se autoregula en lugar de ir siempre a X voltaje. Es que lo que tú has puesto se basa en 5 juegos
Y vete a saber si no usaba reescalado o algo, a 4K nativo, juegos exigentes y con RT y toda la pesca, la 4090 se va a más de 400W incluso aunque le hagas undervolt normalito, si le haces undervolt muy bestia sí, bajarás el consumo bastante, pero también el rendimiento, y no me gasté 1869€ para tenerla capada la verdad.
hh1 escribió:Pacorrr escribió:hh1 escribió:No hace falta que me pongas nada ,te creo..
Pues a mí no me pasa eso ,y al del enlace que te puse ,tampoco.
No puedes bajarle ese UV a 950mv con la misma frecuencia?
Aún así ,me parecen muchos 430w para ese voltaje.
Has parado de stock, a bajarle solo ooelwee limti,como te dicen en el enlace que puse ,al 60-70?
Ahí el consumo no va a ervese que dice ,ni e ecoña ,y vas a ver si pierdes mucho rendimiento o no..
Porque ya te digo ,que yo jugando 1440p y DSR4k , los resultados son básicamente los que dicen esa prueba
Evidentemente en 4k sube más el consumo
Si le bajas el power limit, y la tarjeta necesita más power para rendir X, va a pasar igual o incluso peor, porque la tarjeta se autoregula en lugar de ir siempre a X voltaje. Es que lo que tú has puesto se basa en 5 juegos
Y vete a saber si no usaba reescalado o algo, a 4K nativo, juegos exigentes y con RT y toda la pesca, la 4090 se va a más de 400W incluso aunque le hagas undervolt normalito, si le haces undervolt muy bestia sí, bajarás el consumo bastante, pero también el rendimiento, y no me gasté 1869€ para tenerla capada la verdad.
Claro, es que yo te hablo de 4K DLSS.
No se ,es que hoy día no veo el porqué ni usar reescalado para todo.Si se ve igual o mejor y se ganan fps.
4k nativo, no te lo discuto.
Pero que puedes hacer funcionar la 4090 4k DLSS gastando poco más de 300w sin palmar rendimiento, ya te lo digo yo ,que llevo dos años haciéndolo.
Bueno,más bien DSR 4k, pero se supone que gasta similar en recursos.
Pero también puede pasar que baje q y siga dando toda la potencia o perder muy poco en nativo
Yunc4 escribió:@Duron600
549$ serían 660€ con el IVA.
El tema es a ver luego la tienda cuánto te mete de más.
Pero ese precio por una 9070 XT no me desagradaría.
Pacorrr escribió:hh1 escribió:Pacorrr escribió:Si le bajas el power limit, y la tarjeta necesita más power para rendir X, va a pasar igual o incluso peor, porque la tarjeta se autoregula en lugar de ir siempre a X voltaje. Es que lo que tú has puesto se basa en 5 juegos
Y vete a saber si no usaba reescalado o algo, a 4K nativo, juegos exigentes y con RT y toda la pesca, la 4090 se va a más de 400W incluso aunque le hagas undervolt normalito, si le haces undervolt muy bestia sí, bajarás el consumo bastante, pero también el rendimiento, y no me gasté 1869€ para tenerla capada la verdad.
Claro, es que yo te hablo de 4K DLSS.
No se ,es que hoy día no veo el porqué ni usar reescalado para todo.Si se ve igual o mejor y se ganan fps.
4k nativo, no te lo discuto.
Pero que puedes hacer funcionar la 4090 4k DLSS gastando poco más de 300w sin palmar rendimiento, ya te lo digo yo ,que llevo dos años haciéndolo.
Bueno,más bien DSR 4k, pero se supone que gasta similar en recursos.
Pero también puede pasar que baje q y siga dando toda la potencia o perder muy poco en nativo
Pues es lo que estoy diciendo todo el rato, que es a 4K NATIVO SIN TRUCOS. El DLSS estará muy bien y todo lo que queráis, pero YO prefiero nativo real siempre que sea posible, para mí se ve mucho mejor (también depende del juego claro).
Duron600 escribió:Más noticias sobre los precios, por lo que parece AMD si busca precios agresivos, esta teniendo problemas con las negociaciones con los minoristas para el precio final en tienda. Hay un modelo de 9070XT por unos 549$, AMD busca igualar el precio de la 5070 con el de la 9070XT.
más información en el enlace, dejo unos recortes.
TechpowerupA pesar de que las unidades físicas ya llegan a minoristas seleccionados, el lanzamiento parece retrasarse debido a las negociaciones de precios en curso.Si bien las cajas con la marca RX 9070 se han visto en los canales minoristas, los desacuerdos sobre los costos han impedido un lanzamiento oficial. El problema principal se deriva del agresivo enfoque de precios de AMD para los modelos RX 9070 y RX 9070 XTAMD podría ofrecer fondos de marketing o incentivos de devolución de dinero para cerrar la brecha de precios, aunque las negociaciones se han estancado. Recientemente informamos sobre el modelo AMD Radeon RX 9070 XT AIB que cuesta alrededor de $ 549
Saludos
hh1 escribió:Pacorrr escribió:hh1 escribió:Claro, es que yo te hablo de 4K DLSS.
No se ,es que hoy día no veo el porqué ni usar reescalado para todo.Si se ve igual o mejor y se ganan fps.
4k nativo, no te lo discuto.
Pero que puedes hacer funcionar la 4090 4k DLSS gastando poco más de 300w sin palmar rendimiento, ya te lo digo yo ,que llevo dos años haciéndolo.
Bueno,más bien DSR 4k, pero se supone que gasta similar en recursos.
Pero también puede pasar que baje q y siga dando toda la potencia o perder muy poco en nativo
Pues es lo que estoy diciendo todo el rato, que es a 4K NATIVO SIN TRUCOS. El DLSS estará muy bien y todo lo que queráis, pero YO prefiero nativo real siempre que sea posible, para mí se ve mucho mejor (también depende del juego claro).
Dándote la razón , lo que yo decía inicialmente, es que sí es posible jugar connla 4090 con rendimiento top, p ridneoe un 6 ,estando en unos 250w.
Solo tiene que poner DLSS.
Es a lo que iba
Yo no sé cómo algunos piensa que AMD te va a sacar una 9079XT que lucha con la 5070Ti, si está a la altura de esta ,que vale de 900€ para arriba ,en 600 o 660€.
Parecéis nuevos.
Señores ,que es AMD ,especialista en cagarla .
No te la saca 240-300€ más barata ,ni de coña.
Vamos ,eso lo tengo clarísimo.
hh1 escribió:Pacorrr escribió:hh1 escribió:Claro, es que yo te hablo de 4K DLSS.
No se ,es que hoy día no veo el porqué ni usar reescalado para todo.Si se ve igual o mejor y se ganan fps.
4k nativo, no te lo discuto.
Pero que puedes hacer funcionar la 4090 4k DLSS gastando poco más de 300w sin palmar rendimiento, ya te lo digo yo ,que llevo dos años haciéndolo.
Bueno,más bien DSR 4k, pero se supone que gasta similar en recursos.
Pero también puede pasar que baje q y siga dando toda la potencia o perder muy poco en nativo
Pues es lo que estoy diciendo todo el rato, que es a 4K NATIVO SIN TRUCOS. El DLSS estará muy bien y todo lo que queráis, pero YO prefiero nativo real siempre que sea posible, para mí se ve mucho mejor (también depende del juego claro).
Dándote la razón , lo que yo decía inicialmente, es que sí es posible jugar connla 4090 con rendimiento top, p ridneoe un 6 ,estando en unos 250w.
Solo tiene que poner DLSS.
Es a lo que iba
Yo no sé cómo algunos piensa que AMD te va a sacar una 9079XT que lucha con la 5070Ti, si está a la altura de esta ,que vale de 900€ para arriba ,en 600 o 660€.
Parecéis nuevos.
Señores ,que es AMD ,especialista en cagarla .
No te la saca 240-300€ más barata ,ni de coña.
Vamos ,eso lo tengo clarísimo.
Lorena99 escribió:Pero vamos a ver, como va a salir la 9070xt con casi el rendimiento de una 5070 ti a 500 euros? Yo si me creo que una 9070 no xt con rendimiento superior a 5070 no ti si vaya a salir a 500-600, pero la xt no la espereis por menos de 700-800 ni de broma.
Y aburris con el salseo absurdo de que AMD se esperaba otros precios de Nvidia, AMD sabe exactamente que es lo que va a sacar Nvidia y por cuanto mucho antes que Antonio el frutero.
Kako545 escribió:Los que pensáis que AMD es una ONG creo que os vais a llevar un chasco. De ninguna manera AMD va a sacar las 9070xt por 600€ dando el rendimiento de una 5070ti que valdrá 900€. Os compro que puedan sacar en 799€, pero menos no creo.
adriano_99 escribió:Kako545 escribió:Los que pensáis que AMD es una ONG creo que os vais a llevar un chasco. De ninguna manera AMD va a sacar las 9070xt por 600€ dando el rendimiento de una 5070ti que valdrá 900€. Os compro que puedan sacar en 799€, pero menos no creo.
Y dale con la mierda de no ser una ONG.
AMD necesita esos precios para vender, punto.
No se trata de que nosotros queramos nada regalado es que el mercado es el que es.
Si la 5070ti vale 900 y la 9070xt vale 800 no se la compra nadie.
Y es lo que les ha pasado con la serie 6000 y lo que les ha pasado con la serie 7000.
Si la diferencia de precio ronda el 10-15% la gente prefiere nvidia.
AMD no era ninguna ONG cuando te daba 12 hilos ryzen al precio de 4 intel.
Pero era lo que tenían que hacer para vender y coger mercado.
Una vez ya tienes cuota de mercado, una vez te has colocado en la casa de la gente puedes acercarte a los precios de nvidia porque en su mente eres una opción.
Ahora mismo AMD no es una opción para el 95% de la gente.
O rompes el mercado con precio o te comes una mierda no hay mas opción que valga.
tonicab escribió:Lorena99 escribió:Pero vamos a ver, como va a salir la 9070xt con casi el rendimiento de una 5070 ti a 500 euros? Yo si me creo que una 9070 no xt con rendimiento superior a 5070 no ti si vaya a salir a 500-600, pero la xt no la espereis por menos de 700-800 ni de broma.
Y aburris con el salseo absurdo de que AMD se esperaba otros precios de Nvidia, AMD sabe exactamente que es lo que va a sacar Nvidia y por cuanto mucho antes que Antonio el frutero.
Ademas viendo lo que ha pasado con el 9800x3d que a mí en Coolmod me costó 668 euracos, si la 9700xt valiera 650 euros no habría stock y el precio se dispararía y si valiera más de inicio pues sería lo mismo.
Ya somos mayorcitos para creer que va a rendir casi como una 5070ti (mucho menos sin dlss4) y va a valer casi 300 euros menos. Esas dos condiciones si se dan no hay stock por lo que habría que pagar más como el 9800x3d y si hay stock es porque no vale 650 euros.
Es de sentido común. Ya lo veremos pero es demasiado bonito bueno y barato para ser verdad. Barato viendo los precios porque 650-700 euros es un dinero.
hh1 escribió:adriano_99 escribió:Kako545 escribió:Los que pensáis que AMD es una ONG creo que os vais a llevar un chasco. De ninguna manera AMD va a sacar las 9070xt por 600€ dando el rendimiento de una 5070ti que valdrá 900€. Os compro que puedan sacar en 799€, pero menos no creo.
Y dale con la mierda de no ser una ONG.
AMD necesita esos precios para vender, punto.
No se trata de que nosotros queramos nada regalado es que el mercado es el que es.
Si la 5070ti vale 900 y la 9070xt vale 800 no se la compra nadie.
Y es lo que les ha pasado con la serie 6000 y lo que les ha pasado con la serie 7000.
Si la diferencia de precio ronda el 10-15% la gente prefiere nvidia.
AMD no era ninguna ONG cuando te daba 12 hilos ryzen al precio de 4 intel.
Pero era lo que tenían que hacer para vender y coger mercado.
Una vez ya tienes cuota de mercado, una vez te has colocado en la casa de la gente puedes acercarte a los precios de nvidia porque en su mente eres una opción.
Ahora mismo AMD no es una opción para el 95% de la gente.
O rompes el mercado con precio o te comes una mierda no hay mas opción que valga.
Así es ,pro año a año, pierden la oportunidad.
Lo tuvieron a huevo con las 7000 y cagadita.
A ver en este.
También hay que ver el resto que corrren.
Ajustan una 9700XT a 600€ ya yendo con "poco" margen ,y ponte que Nvidia baja la 5070ti 700€ .
Es que los matan.
El.mango de la sartén ,mientras la AMD no sea mejor gráfica ,siempre lo va a llevar Nvidia.
Que ocurrió con la CPUs?
Que Intel dejó de llevar el mango en cuanto a potencia.
adriano_99 escribió:hh1 escribió:adriano_99 escribió:Y dale con la mierda de no ser una ONG.
AMD necesita esos precios para vender, punto.
No se trata de que nosotros queramos nada regalado es que el mercado es el que es.
Si la 5070ti vale 900 y la 9070xt vale 800 no se la compra nadie.
Y es lo que les ha pasado con la serie 6000 y lo que les ha pasado con la serie 7000.
Si la diferencia de precio ronda el 10-15% la gente prefiere nvidia.
AMD no era ninguna ONG cuando te daba 12 hilos ryzen al precio de 4 intel.
Pero era lo que tenían que hacer para vender y coger mercado.
Una vez ya tienes cuota de mercado, una vez te has colocado en la casa de la gente puedes acercarte a los precios de nvidia porque en su mente eres una opción.
Ahora mismo AMD no es una opción para el 95% de la gente.
O rompes el mercado con precio o te comes una mierda no hay mas opción que valga.
Así es ,pro año a año, pierden la oportunidad.
Lo tuvieron a huevo con las 7000 y cagadita.
A ver en este.
También hay que ver el resto que corrren.
Ajustan una 9700XT a 600€ ya yendo con "poco" margen ,y ponte que Nvidia baja la 5070ti 700€ .
Es que los matan.
El.mango de la sartén ,mientras la AMD no sea mejor gráfica ,siempre lo va a llevar Nvidia.
Que ocurrió con la CPUs?
Que Intel dejó de llevar el mango en cuanto a potencia.
No estoy de acuerdo.
Mucho antes de AMD estar por delante de forma clara en rendimiento en juegos ya les habian superado en ventas.
El ryzen 3600 es una de las CPU mas vendidas de la historia y no lo es por ser mejor lo es por tener un precio cojonudo.
Nvidia no va a bajar el precio de la 5070ti porque no lo ha hecho nunca.
Para eso tendrian que sacar la 5070ti super igual que hicieron con la 4080 super.
Pero si haces eso te cargas a la 5070 y te cargas a la 5080 que ya hoy dia tiene poco sentido por lo poco que ofrece respecto a la 5070ti.
labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:
RX 9070 XT 599$
RX 9070 499$
Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€
¿Qué os parece (si se confirma)?
Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.
Se espera que entre mañana y el Viernes se presenten.
labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:
RX 9070 XT 599$
RX 9070 499$
Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€
¿Qué os parece (si se confirma)?
Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.
Se espera que entre mañana y el Viernes se presenten.
labestia72 escribió:¿Qué os parece (si se confirma)?
Duron600 escribió:labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:
RX 9070 XT 599$
RX 9070 499$
Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€
¿Qué os parece (si se confirma)?
Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.
Se espera que entre mañana y el Viernes se presenten.
Yo lo veo así:
La 5070 custom en tienda van a estar cerca de 700€ y las 5070 ti 950€ / 1000€
Entre la 9070xt custom y la 5070ti custom la diferencia será de mas de 200€
Saludos
labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:
RX 9070 XT 599$
RX 9070 499$
Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€
¿Qué os parece (si se confirma)?
Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.
Se espera que entre mañana y el Viernes se presenten.
¿Tienes idea de cómo va el tema de las "founders" de AMD?. Me pone palote hacerme con una 9070xt lo más barata posible.
labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:
RX 9070 XT 599$
RX 9070 499$
Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€
¿Qué os parece (si se confirma)?
Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.
Se espera que entre mañana y el Viernes se presenten.
Kako545 escribió:Los que pensáis que AMD es una ONG creo que os vais a llevar un chasco. De ninguna manera AMD va a sacar las 9070xt por 600€ dando el rendimiento de una 5070ti que valdrá 900€. Os compro que puedan sacar en 799€, pero menos no creo.
almuela escribió:labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:
RX 9070 XT 599$
RX 9070 499$
Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€
¿Qué os parece (si se confirma)?
Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.
Se espera que entre mañana y el Viernes se presenten.
Lo vuelvo a repetir, la 9070xt compite contra la 5070. A igualdad de precio ninguna cuota de mercado le van a quitar a NVIDIA, por mucho 16gb vs 12gb que diga AMD, la gente va a compararlas en rendimiento con RT + rescalado + FG.
almuela escribió:labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:
RX 9070 XT 599$
RX 9070 499$
Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€
¿Qué os parece (si se confirma)?
Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.
Se espera que entre mañana y el Viernes se presenten.
Lo vuelvo a repetir, la 9070xt compite contra la 5070. A igualdad de precio ninguna cuota de mercado le van a quitar a NVIDIA, por mucho 16gb vs 12gb que diga AMD, la gente va a compararlas en rendimiento con RT + rescalado + FG.
HakiGold escribió:almuela escribió:labestia72 escribió:Desde el Foro Chiphell el usuario Napoleón (ya ha filtrado otras noticias sobre AMD) dice que los precios oficiales en Dólares son los siguientes:
RX 9070 XT 599$
RX 9070 499$
Al cambio y tirando por abajo:
RX 9070 XT 720€
RX 9070 600€
¿Qué os parece (si se confirma)?
Para mí nacen muertas, con una diferencia de 50/70€ con las NVIDIA equivalentes no es ni de broma suficiente como para ser interesantes.
Se espera que entre mañana y el Viernes se presenten.
Lo vuelvo a repetir, la 9070xt compite contra la 5070. A igualdad de precio ninguna cuota de mercado le van a quitar a NVIDIA, por mucho 16gb vs 12gb que diga AMD, la gente va a compararlas en rendimiento con RT + rescalado + FG.
no.
La 9070xt va competir donde su rendimiento bruto, todo lo demás en damage control de lo fanáticos de Nvidia.
almuela escribió:@Jester_Box @HakiGold @Pacorrr
Para competir en raster contra la 5080 y 5070ti AMD solo tendría q tirar los precios de la 7900xtx.
Las 9070xt y 9070 no superan a la 7900xtx en raster. Asi que a parte de la mejora en eficiencia, y la equivalente subida en frecuencias, RDNA 4 solo aporta mejoras en RT e IA. Y por lo q se va filtrando, en RT, las 9070xt estan a nivel de las 5070.
Por eso digo q las 9070xt deben competir, y mejorar, en precio a las 5070.
Pq si no es para competir en RT y en rescalado por IA ¿para que va a sacar AMD una nueva gama que iguala en raster a las 7900xtx y 7900xt?
Jester_Box escribió:tonicab escribió:Lorena99 escribió:Pero vamos a ver, como va a salir la 9070xt con casi el rendimiento de una 5070 ti a 500 euros? Yo si me creo que una 9070 no xt con rendimiento superior a 5070 no ti si vaya a salir a 500-600, pero la xt no la espereis por menos de 700-800 ni de broma.
Y aburris con el salseo absurdo de que AMD se esperaba otros precios de Nvidia, AMD sabe exactamente que es lo que va a sacar Nvidia y por cuanto mucho antes que Antonio el frutero.
Ademas viendo lo que ha pasado con el 9800x3d que a mí en Coolmod me costó 668 euracos, si la 9700xt valiera 650 euros no habría stock y el precio se dispararía y si valiera más de inicio pues sería lo mismo.
Ya somos mayorcitos para creer que va a rendir casi como una 5070ti (mucho menos sin dlss4) y va a valer casi 300 euros menos. Esas dos condiciones si se dan no hay stock por lo que habría que pagar más como el 9800x3d y si hay stock es porque no vale 650 euros.
Es de sentido común. Ya lo veremos pero es demasiado bonito bueno y barato para ser verdad. Barato viendo los precios porque 650-700 euros es un dinero.
El marketing de Nvidia os funciona muy bien a algunos en la cabeza, ya os han asentado la idea de que 650 euros es demasiado chollo y que no se lo cree nadie porque es "barato", en fin, si crees que no llega a una 5070 to es que no has visto que hace un mes ya la alcanzaba con drivers verdes, imagínate ahora.
Perfectamente pueden costar 200-300 euros menos, teniendo en cuenta que las Nvidia tendrán el impuesto estafa clientes que ponen siempre, no valdrá 800, valdrá 1000, a poco que la 9070xt salga a 600-650 euros ya es un precio más razonable que cobrar una basura como 1000 euros por ese rendimiento.