sento01 escribió:Caniyan escribió:Pues al final he decidido comprar una gráfica de mierda por lo menos para montar el PC que tengo todos los componentes parados desde diciembre. No estoy dispuesto a pagar 300€ de sobre coste por que si. Cuando encuentre algo a su precio ya comprare gráfica, de momento los juegos en la consola.
Así que este finde voy a montar un flamante 5800x con una pedazo de GT 710 2GB
Voy a fundir el misterio!! No se si el PCIe 4 aguantara tanta potencia, lo mismo me hace cuello de botella el procesador
Menudo año..... Y yo todo contento cuando vendí el año pasado mi 1080Ti por 450€
Y por qué no pillaste otra gráfica? Porque el año pasado había poco stock pero algo había..
loco_desk escribió:Caniyan escribió:Pues al final he decidido comprar una gráfica de mierda por lo menos para montar el PC que tengo todos los componentes parados desde diciembre. No estoy dispuesto a pagar 300€ de sobre coste por que si. Cuando encuentre algo a su precio ya comprare gráfica, de momento los juegos en la consola.
Así que este finde voy a montar un flamante 5800x con una pedazo de GT 710 2GB
Voy a fundir el misterio!! No se si el PCIe 4 aguantara tanta potencia, lo mismo me hace cuello de botella el procesador
Menudo año..... Y yo todo contento cuando vendí el año pasado mi 1080Ti por 450€
Cuidado compañero..... Intenta puentear los otros PCI EXPRESS de la placa con el principal para que fluya la potencia y se reparta por todos a la vez, si no corre el riesgo de EXPLOTAR de tanto gibaflow junto.
Un saludo y siganme para más cyberconsejos
P.D : Me he agenciado un Ryzen 7 3700x para sustituir a mi Ryzen 5 3600. Ahora mismo lo tenía a 4,25ghz con 1.2v si no me equivoco. A ver si me sale mínimo como este, se que con el tiempo, acabaré con un Ryzen 9 5900x, pues igual que noto ahora que el Ryzen 3600 me hace cuello de botella a la RX 6900 XT, veo que aunque sea por TOC acabaré con esa misma sensación con el 3700x.
¿Notais cuello de botella en la 6900 XT con los 3700x?¿Qué frecuencias gastáis?
Un saludo y gracias
Pacorrr escribió:loco_desk escribió:Caniyan escribió:Pues al final he decidido comprar una gráfica de mierda por lo menos para montar el PC que tengo todos los componentes parados desde diciembre. No estoy dispuesto a pagar 300€ de sobre coste por que si. Cuando encuentre algo a su precio ya comprare gráfica, de momento los juegos en la consola.
Así que este finde voy a montar un flamante 5800x con una pedazo de GT 710 2GB
Voy a fundir el misterio!! No se si el PCIe 4 aguantara tanta potencia, lo mismo me hace cuello de botella el procesador
Menudo año..... Y yo todo contento cuando vendí el año pasado mi 1080Ti por 450€
Cuidado compañero..... Intenta puentear los otros PCI EXPRESS de la placa con el principal para que fluya la potencia y se reparta por todos a la vez, si no corre el riesgo de EXPLOTAR de tanto gibaflow junto.
Un saludo y siganme para más cyberconsejos
P.D : Me he agenciado un Ryzen 7 3700x para sustituir a mi Ryzen 5 3600. Ahora mismo lo tenía a 4,25ghz con 1.2v si no me equivoco. A ver si me sale mínimo como este, se que con el tiempo, acabaré con un Ryzen 9 5900x, pues igual que noto ahora que el Ryzen 3600 me hace cuello de botella a la RX 6900 XT, veo que aunque sea por TOC acabaré con esa misma sensación con el 3700x.
¿Notais cuello de botella en la 6900 XT con los 3700x?¿Qué frecuencias gastáis?
Un saludo y gracias
Yo tuve un tiempo la 6800XT con un 3900X con memos a 3800MHz, y a 1440p todo al máximo el Shadow of the Tomb Raider me rendía como un 30% menos que el 5800X en algunos puntos del mapa de la ciudad perdida, casi nada.
joni89 escribió:@Gwyn, @eric_14 y a los que os interese os pongo un pequeño tutorial de lo que hice.
El addon es distill para chorme, está también para firefox, de puede instalar desde aquí:https://chrome.google.com/webstore/detail/distill-web-monitor/inlikjemeeknofckkjolnjbpehgadgge?hl=es
Pasos que seguí:
1. Instalar desde el enlace (igual os pide reiniciar el navegador)
2. Comprobar que os aparece el icono de distill en la parte superior derecha del navegador (es como una gotita)
3. Crear cuenta para habilitar la opción de notificación por correo
4. Crear Alertas, creé dos alertas.
5. Alerta 1: cada 5 segundos con cualquier cambio en la página https://www.amd.com/en/direct-buy/es, pasos:
[spoiler]- Lo primero abrir la web que queremos monitorizar, hacemos click en el icono de distill (la gota) y le damos a la opción de "monitor full page"
- Segundo, marcar el intervalo y correo electrónico, una vez hecho dar a guardar.
6. Alerta 2: cada 7 segundos con cualquier cambio en el elemento que conforma la etiqueta "Out of stock", pasos:- Igual que la alerta anterior, click en el icono y esta vez en lugar de hacer click en "monitor full page", seleccionamos "select parts of page"
- Tendremos que elegir que monitorizar, selecciono el elemento que contiene la etiqueta "Out of stock" para la 6800 y 6800 xt en el ejemplo de la imagen (la verdad que el xpath montado es una hez, tampoco perdí tiempo en mejorarlo, esto podría dar problemas), una vez hecho esto le damos a "guardar selección"
- Por último igual que en la anterior, seleccionamos intervalo y correo, le damos a guardar.
7. Listo, una vez hecho esto ponemos a "on" el addon, haciendo click en el icono y dando al botón on
La pega de esto, hay que dejar el navegador abierto. Lo que hice fue encender el ordenador a las 17:00 (algún compi dijo que solian reponer entre las 17:00 y las 19:00 de los jueves) y habilitar con todo lo anterior. En el caso del jueves, me empezaron a llegar correos sobre las 17:26 cambiando partes de la página, lo que recomendaría sería una vez os empiecen a llegar estos correos meteros de forma manual e ir dándole a refrescar con sesión y datos de tarjeta metidos en la cuenta para en cuanto esté disponible lo que queráis, intentarlo.
Para que os hagáis una idea, me llegó la primera notificación a las 17:26 y la última a las 17:40, sin poder haber revisado el stock "real" haciendo track de cambios entre correos aparentemente la 6800 xt estuvo en stock menos de 5 minutos.
Espero que os sirva y a ver si hay suerte!
En mi caso, era por mera curiosidad por ver como funcionaba esto, ya que conseguí una 6800 xt en pccomponentes el día de salida sin ningún tipo de bot o monitorización de este tipo, debí tener bastante suerte viendo como esta el tema ahora mismo
Entiendo que esto es bastante común y no hay problema, no obstante si desde administración creéis que esto es negativo o incumple alguna norma del foro borro el post y pido disculpas.[/spoiler]
wwwendigo escribió:La gama media a precio de gama top, ver para creer.
6700XT (Navi 22, la mitad del chip Navi 21 en lo más relevante, exprimido a tope, hasta 2/3 en caché, bus). 479$.
6800 (Navi 21, chip capado ad nausea y relajado de frecuencias, 20 CUs extra, and morrr). 579$.
6800XT (Navi 21, chip algo capado, frecuencias moderadas, casi igual que lo máximo de AMD/Nvidia). 649$.
....
O sea, AMD, gracias por mejorar la carambola de nvidia con las gamas medias. Si ya es ridículo vender la 3060 por 329$ que no los encuentras en ningún lado (para empezar son las ensambladoras las primeras que han hinchado los precios, aún recuerdo el anuncio de Gigabyte con su modelo Aorus "tentándome" por 480 eurazos, y la mala respuesta que les di en RRSS por ello), poner a precio de consola "Top" de nueva (de)generación, por casi 500$$$$ una gama media que, aunque sea de un nivel prestacional mayor, con una subida al podio del medio centenar de pavos/oigos/cardos borriqueros, que no los gano todos los días es.... espectacular.
La 6700XT sería una gráfica BUENA si asumiera lo que es y saliera al precio que tendría que salir.
Es simplemente ridículo que la ya de por sí mal posicionada 6800 sólo valga 100 dólares más, con:
4 GB de VRAM extra. Más ancho de banda. Más "infinity" caché. Un 50% más de CUs, TMUs, motores de shaders. Pero sin apretarle el culo con frecuencias más moderadas, que ya subirás tú si quieres. Dudo que la 6700XT tenga mucho margen de OC, excepto que use voltajes que no vemos en las Navi 21.
Si vas a pagar casi 500 napos por una gráfica de gama media, media-alta, te dejas de tonterías y vas por la gama alta por otros 100, o directamente te dejas de ratear y te vas a la 6800XT que son 170$ extra, por una gráfica que está a otro nivel, se mire como se mire.
¿Cómo podemos mirar como "normal" algo como esto, cómo podemos aplaudir que AMD esté subiendo precios NO entre generaciones, NOOOO, sino DENTRO DE UNA MISMA GENERACIÓN y además con los productos más sensibles con el precio?
¿Cómo puede ser que el producto "para las masas" tenga peor relación rendimiento/precio que sus hermanas mayores, esto qué es?
Pero vamos a ver, que te compras la XBOX series X o la PS5 con disco por el precio de esta gráfica.
Que hasta la series X lleva una gpu aparentemente más compleja (más CUs, posiblemente más ROPs y demás, un ancho de banda más alto sí o sí a memoria, no sé si habrá o no misma infinity cache en las consolas, pero compensan de sobra con... todo lo demás), y la PS5 se parece un cojón a ésta pero en versión recortada (32 vs 40 CUs, frecuencias altas pero no tanto).
Pero es que en el lote te veden una cpu octocore Zen 2, 16 GB de VRAM GDDR6, un SSD ultrarrápido, y todo un sistema con controles, cooooooñooooo.
Que se está volviendo ridículo comprar en PC.
Y lo peor de todo es que no se va a vender a ese PVP, que en realidad es sólo el pistoletazo de salida para el sangrado de los incautos que caigan en la trampa, como ha pasado con los risibles precios de las RTX 3060.
Es para mandar a tomar por culo al gaming PC y a las empresas que ¿viven? de él.
M1n3r078 escribió:wwwendigo escribió:La gama media a precio de gama top, ver para creer.
6700XT (Navi 22, la mitad del chip Navi 21 en lo más relevante, exprimido a tope, hasta 2/3 en caché, bus). 479$.
6800 (Navi 21, chip capado ad nausea y relajado de frecuencias, 20 CUs extra, and morrr). 579$.
6800XT (Navi 21, chip algo capado, frecuencias moderadas, casi igual que lo máximo de AMD/Nvidia). 649$.
....
O sea, AMD, gracias por mejorar la carambola de nvidia con las gamas medias. Si ya es ridículo vender la 3060 por 329$ que no los encuentras en ningún lado (para empezar son las ensambladoras las primeras que han hinchado los precios, aún recuerdo el anuncio de Gigabyte con su modelo Aorus "tentándome" por 480 eurazos, y la mala respuesta que les di en RRSS por ello), poner a precio de consola "Top" de nueva (de)generación, por casi 500$$$$ una gama media que, aunque sea de un nivel prestacional mayor, con una subida al podio del medio centenar de pavos/oigos/cardos borriqueros, que no los gano todos los días es.... espectacular.
La 6700XT sería una gráfica BUENA si asumiera lo que es y saliera al precio que tendría que salir.
Es simplemente ridículo que la ya de por sí mal posicionada 6800 sólo valga 100 dólares más, con:
4 GB de VRAM extra. Más ancho de banda. Más "infinity" caché. Un 50% más de CUs, TMUs, motores de shaders. Pero sin apretarle el culo con frecuencias más moderadas, que ya subirás tú si quieres. Dudo que la 6700XT tenga mucho margen de OC, excepto que use voltajes que no vemos en las Navi 21.
Si vas a pagar casi 500 napos por una gráfica de gama media, media-alta, te dejas de tonterías y vas por la gama alta por otros 100, o directamente te dejas de ratear y te vas a la 6800XT que son 170$ extra, por una gráfica que está a otro nivel, se mire como se mire.
¿Cómo podemos mirar como "normal" algo como esto, cómo podemos aplaudir que AMD esté subiendo precios NO entre generaciones, NOOOO, sino DENTRO DE UNA MISMA GENERACIÓN y además con los productos más sensibles con el precio?
¿Cómo puede ser que el producto "para las masas" tenga peor relación rendimiento/precio que sus hermanas mayores, esto qué es?
Pero vamos a ver, que te compras la XBOX series X o la PS5 con disco por el precio de esta gráfica.
Que hasta la series X lleva una gpu aparentemente más compleja (más CUs, posiblemente más ROPs y demás, un ancho de banda más alto sí o sí a memoria, no sé si habrá o no misma infinity cache en las consolas, pero compensan de sobra con... todo lo demás), y la PS5 se parece un cojón a ésta pero en versión recortada (32 vs 40 CUs, frecuencias altas pero no tanto).
Pero es que en el lote te veden una cpu octocore Zen 2, 16 GB de VRAM GDDR6, un SSD ultrarrápido, y todo un sistema con controles, cooooooñooooo.
Que se está volviendo ridículo comprar en PC.
Y lo peor de todo es que no se va a vender a ese PVP, que en realidad es sólo el pistoletazo de salida para el sangrado de los incautos que caigan en la trampa, como ha pasado con los risibles precios de las RTX 3060.
Es para mandar a tomar por culo al gaming PC y a las empresas que ¿viven? de él.
Y para más inri "Nvidia Has a Driver Overhead Problem, GeForce vs Radeon on Low-End CPUs"
wwwendigo escribió:M1n3r078 escribió:wwwendigo escribió:La gama media a precio de gama top, ver para creer.
6700XT (Navi 22, la mitad del chip Navi 21 en lo más relevante, exprimido a tope, hasta 2/3 en caché, bus). 479$.
6800 (Navi 21, chip capado ad nausea y relajado de frecuencias, 20 CUs extra, and morrr). 579$.
6800XT (Navi 21, chip algo capado, frecuencias moderadas, casi igual que lo máximo de AMD/Nvidia). 649$.
....
O sea, AMD, gracias por mejorar la carambola de nvidia con las gamas medias. Si ya es ridículo vender la 3060 por 329$ que no los encuentras en ningún lado (para empezar son las ensambladoras las primeras que han hinchado los precios, aún recuerdo el anuncio de Gigabyte con su modelo Aorus "tentándome" por 480 eurazos, y la mala respuesta que les di en RRSS por ello), poner a precio de consola "Top" de nueva (de)generación, por casi 500$$$$ una gama media que, aunque sea de un nivel prestacional mayor, con una subida al podio del medio centenar de pavos/oigos/cardos borriqueros, que no los gano todos los días es.... espectacular.
La 6700XT sería una gráfica BUENA si asumiera lo que es y saliera al precio que tendría que salir.
Es simplemente ridículo que la ya de por sí mal posicionada 6800 sólo valga 100 dólares más, con:
4 GB de VRAM extra. Más ancho de banda. Más "infinity" caché. Un 50% más de CUs, TMUs, motores de shaders. Pero sin apretarle el culo con frecuencias más moderadas, que ya subirás tú si quieres. Dudo que la 6700XT tenga mucho margen de OC, excepto que use voltajes que no vemos en las Navi 21.
Si vas a pagar casi 500 napos por una gráfica de gama media, media-alta, te dejas de tonterías y vas por la gama alta por otros 100, o directamente te dejas de ratear y te vas a la 6800XT que son 170$ extra, por una gráfica que está a otro nivel, se mire como se mire.
¿Cómo podemos mirar como "normal" algo como esto, cómo podemos aplaudir que AMD esté subiendo precios NO entre generaciones, NOOOO, sino DENTRO DE UNA MISMA GENERACIÓN y además con los productos más sensibles con el precio?
¿Cómo puede ser que el producto "para las masas" tenga peor relación rendimiento/precio que sus hermanas mayores, esto qué es?
Pero vamos a ver, que te compras la XBOX series X o la PS5 con disco por el precio de esta gráfica.
Que hasta la series X lleva una gpu aparentemente más compleja (más CUs, posiblemente más ROPs y demás, un ancho de banda más alto sí o sí a memoria, no sé si habrá o no misma infinity cache en las consolas, pero compensan de sobra con... todo lo demás), y la PS5 se parece un cojón a ésta pero en versión recortada (32 vs 40 CUs, frecuencias altas pero no tanto).
Pero es que en el lote te veden una cpu octocore Zen 2, 16 GB de VRAM GDDR6, un SSD ultrarrápido, y todo un sistema con controles, cooooooñooooo.
Que se está volviendo ridículo comprar en PC.
Y lo peor de todo es que no se va a vender a ese PVP, que en realidad es sólo el pistoletazo de salida para el sangrado de los incautos que caigan en la trampa, como ha pasado con los risibles precios de las RTX 3060.
Es para mandar a tomar por culo al gaming PC y a las empresas que ¿viven? de él.
Y para más inri "Nvidia Has a Driver Overhead Problem, GeForce vs Radeon on Low-End CPUs"
¿Pero qué me estás "container"? Eso lo tengo que ver con detalle, no me fío mucho de hardwareunboxed por mucha razones (mala metodología, trolls del copón, odio contra nvidia, etc), pero habrá que ver de qué va el vídeo y ver si hay algo de mimbres detrás.
Sería raro, porque de forma tradicional es AMD la que tiene una sobrecarga en el driver contra las cpus, y de hecho yo aún la puedo percibir en muchos juegos DX11 o con APIs anteriores, OpenGL, etc (pasa con pocos juegos y en algunas situaciones muy concretas, pero lo tengo más o menos controlado cuándo sucede).
De hecho, ahora que ha salido el tema de conversación, el otro día me quedé con cara de mico viendo que la Radeon Rx 580 no pasaba de 35-40 fps en STALKER Clear Sky, un juego antiguo y DX10, en la zona de la base principal de Clear Sky en los pantanos, siendo una escena "compleja" pero ni de coña justificable y menos con una cpu actual esa tasa de fps. Pero lo que había era claramente una limitación por cpu, la gpu estaba cerca de máximos, es cierto, pero no llegaba, y había un hilo (el juego casi seguro es monohilo) que siempre estaba al 100% en la cpu. Así que blanco y en botella. También tengo controladas ciertas zonas de Fallout 4 donde el rendimiento es bajo y claramente por culpa de cpu, pero en ese caso también pasaba con las nvidia (y la única forma de sobrellevarlo es con mucha potencia por core, no hay más, un Zen 3 o así sería lo mínimo para eliminar ese problema, que ni siquiera es por un driver con sobrecarga en cpu).
A ver el vídeo de hardwareunboxed, entiendo que se refiere a la serie 3000, lo cierto es que AMD ha conseguido, por lo menos en juegos y APIs modernos, con la serie 6000 (y creo que mucho gracias a la infinity cache), unas tasas de fps altísimas en proporción a bajas resoluciones, y también picos máximos o mínimos notables, más conociendo la trayectoria de AMD con el tema de la cpudependencia.
Sería lo que faltaba para tener totalmente el mundo al revés. Ya le echaré un ojo a los trolacos de hardwareunboxed, a ver si tienen razón o están haciendo de las suyas, pero es lo que le faltaba a nvidia, ya. Perder el tema del driver-cpu....
M1n3r078 escribió:Me dejas de pasta de boniato y yo que pensé que era un site seria y hacia testeos objetivos...
Ergo por tu comentario debería presuponer que arriman la sardina al ascua que más calienta? Con el tema polémico del Ray Tracing al final nvidia les pidió disculpas públicamente con el pifostio que se montó en redes sociales.
PepeC12 escribió:@wwwendigo yo lo que dudo es si han probado con distintas versiones del driver de nvidia, a ver si es una version puntual o que.
Porque no solo pasa con Ampere tambien pasa con la gama 2000, tanto con Amd como con intel en cpu.
wwwendigo escribió:Pues nada, son opiniones.
Pero eso no cambia que, de momento, los datos aún quedan por ser validados y, sobre todo, ver si es un patrón o no como dicen en los juegos DX12. Es que probarlos en dos, y basar todo en esa batería de pruebas taaan extensa pero dando vueltas con ese par de títulos, como que no.
Así que a la espera de ver más sobre el tema. Si es algo real saldrán más datos, y si es falso o hay otras razones en juego, ya se verán.
Gwyn escribió:wwwendigo escribió:Pues nada, son opiniones.
Pero eso no cambia que, de momento, los datos aún quedan por ser validados y, sobre todo, ver si es un patrón o no como dicen en los juegos DX12. Es que probarlos en dos, y basar todo en esa batería de pruebas taaan extensa pero dando vueltas con ese par de títulos, como que no.
Así que a la espera de ver más sobre el tema. Si es algo real saldrán más datos, y si es falso o hay otras razones en juego, ya se verán.
wwwendigo escribió:
PD: Y yo sigo aquí, jugando por debajo de 40 fps en muchos puntos de Fallout 4 y una antigualla como Stalker Clear Sky, con una AMD "sobradísima" en potencia, justo por la cpudependencia, drivers, y APIs que éstas sí que sí se comían el rendimiento a base de tirar de monocore y ser ése el limitante. Y ojo, con Fallout 4 sí me pasaba esto con algunas de mis nvidia previas (quizás un poco menos intenso, teniendo en cuenta que tenía peor cpu en ese momento), pero desde luego NO con Stalker, que aún siendo un juego que rinde "extraño" en esas áreas, ni de coña me bajaba a esos 35-40 fps, y estoy hablando de cuando jugué a éste con las nvidia de gráficas de hace tres generaciones y cpus del tipo Sandy Bridge. Eso sí, juegos como The Shadow of Tomb Raider muy bien en cpu y tal, pero... ja. Cpudependencias ahora.
Que no me cuenten historias diciéndome que ahora es justo al revés con un API actual que justamente elimina la cpudependencia a base de ser explícitamente un API multihilo en gestión de llamadas. Si lo vas a publicar y demostrar, demuéstralo completo, no dos casos.
Y los que quieran creer, que crean. Que ya estaban de todas formas medio convencidos. Porque total, todos los demás reviewers son gilipollas y no han hecho ni nada testados con las nvidias últimas con 1080p y 720p buscando la cpudependencia, y no han llegado a esas conclusiones ni de coña.
Pacorrr escribió:No sé de qué se sorprenden algunos, si esto es sabido desde hace mucho tiempo, Nvidia va mejor en DX11 porque metió las command-list en sus drivers para mejorar el overhead, cosa que AMD nunca hizo, y en DX12 que es de bajo nivel y casi todo depende del programador siempre ha ido mejor en AMD, no estamos descubriendo el fuego ni nada parecido. Que no hayan artículos tratando el tema no significa que no sea cierto, y que Hardware Unboxed sólo haya puesto dos juegos de ejemplo, no significa que no hayan más. Probablemente acaben sacando otro vídeo con más juegos para los incrédulos. Siempre hay excepciones, tanto en DX11 en el lado de AMD, como en DX12 en el lado de Nvidia, pero en general es cierto que las AMD son más cpu dependientes en DX11 y las Nvidia en DX12.
Herionz escribió:wwwendigo escribió:
PD: Y yo sigo aquí, jugando por debajo de 40 fps en muchos puntos de Fallout 4 y una antigualla como Stalker Clear Sky, con una AMD "sobradísima" en potencia, justo por la cpudependencia, drivers, y APIs que éstas sí que sí se comían el rendimiento a base de tirar de monocore y ser ése el limitante. Y ojo, con Fallout 4 sí me pasaba esto con algunas de mis nvidia previas (quizás un poco menos intenso, teniendo en cuenta que tenía peor cpu en ese momento), pero desde luego NO con Stalker, que aún siendo un juego que rinde "extraño" en esas áreas, ni de coña me bajaba a esos 35-40 fps, y estoy hablando de cuando jugué a éste con las nvidia de gráficas de hace tres generaciones y cpus del tipo Sandy Bridge. Eso sí, juegos como The Shadow of Tomb Raider muy bien en cpu y tal, pero... ja. Cpudependencias ahora.
Que no me cuenten historias diciéndome que ahora es justo al revés con un API actual que justamente elimina la cpudependencia a base de ser explícitamente un API multihilo en gestión de llamadas. Si lo vas a publicar y demostrar, demuéstralo completo, no dos casos.
Y los que quieran creer, que crean. Que ya estaban de todas formas medio convencidos. Porque total, todos los demás reviewers son gilipollas y no han hecho ni nada testados con las nvidias últimas con 1080p y 720p buscando la cpudependencia, y no han llegado a esas conclusiones ni de coña.
Voy un poco perdido del tema, pero conoces Stalker Anomaly? Con todo el cambio a una versión modernizada del motor, se mejoro bastante el rendimiento. Pero no conozco todas las razones, ni estoy puesto al día con dx12 y como está afectado el overhead. De momento me quedo observando el tema.
Dejo un video sobre overhead y multihilo. A ver qué opináis. 10' 22'' punto donde comenta porque el scheduler de Nvidia puede tener una perdida de rendimiento en multihilo si el procesador está saturado. Creo que esto es a lo que HardwareUnboxed está refiriéndose?
PepeC12 escribió:@wwwendigo por cierto, no son yankis son australianos.
Pacorrr escribió:Hasta donde yo sé, AMD nunca implementó en sus drivers las command-lists porque no lograron hacerlas funcionar. Lo que sí hizo AMD es trabajar bastante con apis de bajo nivel (mantle es el origen de vulkan) desde hace mucho tiempo y de ahí le puede venir la ventaja ahora en DX12, ni idea, pero los juegos cada vez más iran adoptando DX12 (o Vulkan en su defecto) y DX11 quedará como algo obsoleto o para juegos de segunda fila.
Deferred: 150 fpsSo Deferred for single threaded application is slower (at least on my machine). Note that checking the threading support for command list for my graphics card (AMD 6970M) is returning false, so I assume that It is not supported natively by the driver but "emulated" by DX11...
wwwendigo escribió:PepeC12 escribió:@wwwendigo por cierto, no son yankis son australianos.
Peor me lo pintas, son de la Isla de los Cacos...Pacorrr escribió:Hasta donde yo sé, AMD nunca implementó en sus drivers las command-lists porque no lograron hacerlas funcionar. Lo que sí hizo AMD es trabajar bastante con apis de bajo nivel (mantle es el origen de vulkan) desde hace mucho tiempo y de ahí le puede venir la ventaja ahora en DX12, ni idea, pero los juegos cada vez más iran adoptando DX12 (o Vulkan en su defecto) y DX11 quedará como algo obsoleto o para juegos de segunda fila.
Vamos a ver, que no es una cosa de implementar "a tu gusto", es que es parte del API en sí, no es algo que tú decidas usar o no en tu driver gráfico para "usarlo tú", es que es una función usada por los programadores (de juegos) en Direct3D11, si la usan no hay tu tía de "pues yo no la soporto y no la hago", si está en el código tiene que correr, sí o sí, para que por lo menos el dispositivo sea compatible con DX11.
Mira, echando un ojo rápido:
https://www.gamedev.net/forums/topic/61 ... -renderer/
Aquí hay varios usuarios de AMD diciendo que o lo soporta o les entra en duda si "lo emula DX11 (falso)".Deferred: 150 fpsSo Deferred for single threaded application is slower (at least on my machine). Note that checking the threading support for command list for my graphics card (AMD 6970M) is returning false, so I assume that It is not supported natively by the driver but "emulated" by DX11...
La explicación está en el núcleo de lo que él mismo está diciendo, en ese caso AMD "no está soportando" el soporte multihilo de la función command list. Eso no quiere decir que no soporte command lists, las soporta porque es básicamente obligatorio, no la va a "emular" DX11 a nivel de driver, lo que quiere decir es que se ejecutará igualmente, pero no hará uso alguno del multihilo, funcionará como el resto de llamadas del API, en un mismo hilo de ejecución y de forma totalmente secuencial.
De ahí la confusión sobre "emulación" de la función y demás, porque no la usa como se supone que debería ser la forma útil. De todas formas las command lists no se usan demasiado en DX11 y sus juegos, precisamente por el soporte un tanto dudoso y porque parece que hay ciertas dificultades para usarlas bien y obteniendo el beneficio que necesita.
Pacorrr escribió:A ver yo te hablo de lo que sé por lo que se comentaba hace años, en foros de anandtech o en los de guru3d, no recuerdo exactamente, yo obviamente no soy ningún experto. Pero algunos usuarios aseguraban que en el driver de AMD no habían instrucciones para comand lists que lo habían comprobado, pero que sí usaban deferred rendering, pero que las command lists no las pudieron hacer funcionar y en los drivers no estaban presentes, de ahí que en DX11 no tuvieran gran rendimiento en cuello de cpu.
En este hilo un trabajador de AMD contesta que las CL son inútiles dando a entender que no las usan (el usuario pregunta cuándo las van a implementar)
https://www.reddit.com/r/Amd/comments/4 ... ?context=3
Pero es de hace 5 años, ni idea si luego las implementaron o no, yo no tengo constancia,
jordanpucela escribió:A ver si podeis ayudarme.
Llevo ya una temporada que cuando juego al Flight Simulator 2020 que juego en VR con las G2, solo con este juego me pasa, a la hora mas o menos de llevar jugando se me queda la imagen en negro y se sale del juego y me aparece este aviso de Amd.
Que puede ser??
Tengo mi perfil creado y jugando a otros simuladores en VR y juegos en VR que con estas gafas piden muchisimo, me tiro horas sin ningun problema y solo con este juego me sale esto.
A ver si alguno me puede ayudar.
Tambien me he dado cuenta que algunos juegos de monitor no va la grafica siempre fija al 99% sino que muchas veces va a mas del 90% y otras baja al 80 o el 70%. Tengo un Ryzen 5800X, no deberia ir siempre la grafica a tope??
Muchas gracias.
jordanpucela escribió:jordanpucela escribió:A ver si podeis ayudarme.
Llevo ya una temporada que cuando juego al Flight Simulator 2020 que juego en VR con las G2, solo con este juego me pasa, a la hora mas o menos de llevar jugando se me queda la imagen en negro y se sale del juego y me aparece este aviso de Amd.
Que puede ser??
Tengo mi perfil creado y jugando a otros simuladores en VR y juegos en VR que con estas gafas piden muchisimo, me tiro horas sin ningun problema y solo con este juego me sale esto.
A ver si alguno me puede ayudar.
Tambien me he dado cuenta que algunos juegos de monitor no va la grafica siempre fija al 99% sino que muchas veces va a mas del 90% y otras baja al 80 o el 70%. Tengo un Ryzen 5800X, no deberia ir siempre la grafica a tope??
Muchas gracias.
A ver si alguien me puede ayudar con ese error.
Tb ahora q recuerdo, con mi anterior i7 7700k y 16gb de Ram en algunos juegos de monitor como el COD World of War me va a los mismos fps q con el ryzen 5800x y 32gb de RAM. Ese es uno de los juegos q pega bajones en el uso de la GPU, pero por ej RD2 va siempre al 99% la GPU y si q tengo muchos más fps. Juego con un monitor Samsung de 49" 3840x1080 144hz por si sirve de algo.
Pacorrr escribió:jordanpucela escribió:jordanpucela escribió:A ver si podeis ayudarme.
Llevo ya una temporada que cuando juego al Flight Simulator 2020 que juego en VR con las G2, solo con este juego me pasa, a la hora mas o menos de llevar jugando se me queda la imagen en negro y se sale del juego y me aparece este aviso de Amd.
Que puede ser??
Tengo mi perfil creado y jugando a otros simuladores en VR y juegos en VR que con estas gafas piden muchisimo, me tiro horas sin ningun problema y solo con este juego me sale esto.
A ver si alguno me puede ayudar.
Tambien me he dado cuenta que algunos juegos de monitor no va la grafica siempre fija al 99% sino que muchas veces va a mas del 90% y otras baja al 80 o el 70%. Tengo un Ryzen 5800X, no deberia ir siempre la grafica a tope??
Muchas gracias.
A ver si alguien me puede ayudar con ese error.
Tb ahora q recuerdo, con mi anterior i7 7700k y 16gb de Ram en algunos juegos de monitor como el COD World of War me va a los mismos fps q con el ryzen 5800x y 32gb de RAM. Ese es uno de los juegos q pega bajones en el uso de la GPU, pero por ej RD2 va siempre al 99% la GPU y si q tengo muchos más fps. Juego con un monitor Samsung de 49" 3840x1080 144hz por si sirve de algo.
Eso significa que el perfil de oc que tengas no es estable, prueba a subir unos puntos el voltaje o a bajar unos puntos las frecuencias (core, memos o las dos).
Y respecto al uso de gpu en el CoD, no debería bajarte más del 90% de uso al menos cuando yo lo probé a 2560x1440 todo a tope vi eso y se quedaba entre 150-170 fps con una 6800XT, a qué frecuencia va la RAM? Te pasa en más juegos o sólo en ese?
jordanpucela escribió:Subire el voltaje en ese juego xq de temperaturas no pasó de 52° casi nunca.
El S.O es reciclado de cuando tenía el i7 7700k, no lo formatee pero es q no ha dado ni un solo error ni pantallazo azul ni nada, ahora ya no hace falta formatear x estas cosas, pero ya me hace dudar.
Entonces la grafica siempre debería ir al 99%??
Edite mi anterior post con un añadido q no se si has leído q es interesante.
Tu a cuanto llevas la frecuencia, memorias de la gpu y el voltaje x hacerme una idea?
Pacorrr escribió:jordanpucela escribió:Subire el voltaje en ese juego xq de temperaturas no pasó de 52° casi nunca.
El S.O es reciclado de cuando tenía el i7 7700k, no lo formatee pero es q no ha dado ni un solo error ni pantallazo azul ni nada, ahora ya no hace falta formatear x estas cosas, pero ya me hace dudar.
Entonces la grafica siempre debería ir al 99%??
Edite mi anterior post con un añadido q no se si has leído q es interesante.
Tu a cuanto llevas la frecuencia, memorias de la gpu y el voltaje x hacerme una idea?
Hombre no, habrá veces que el juego dé muchos fps la gpu la veas rascarse las bolas, pero en general, en juego modernos, a tu resolución con el equipo que tienes, sí debería irte al máximo la gpu, a menos que capes los fps o pongas vsync claro.
El CoD que dices es el warzone u otro? Yo me refería al warzone, si es otro entonces ni idea, igual es normal no lo sé https://www.youtube.com/watch?v=P64Dniy-qXw&t=37s
Pacorrr escribió:Pues ese usa el mismo motor que el del vídeo que he puesto, no lo tengo, pero no creo que sea normal, ya he visto problemas por usar un sistema operativo reciclado de otro procesador, si ves que no lo arreglas de ninguna manera, formatear no me parece mala idea, igualmente trata de buscar vídeos con un euiqpo similar al tuyo con ese juego a ver cómo va.
Yo tengo mi tarjeta a 2484Mhz 1025mV el core y la VRAM a 2074MHz.
jordanpucela escribió:Pacorrr escribió:Pues ese usa el mismo motor que el del vídeo que he puesto, no lo tengo, pero no creo que sea normal, ya he visto problemas por usar un sistema operativo reciclado de otro procesador, si ves que no lo arreglas de ninguna manera, formatear no me parece mala idea, igualmente trata de buscar vídeos con un euiqpo similar al tuyo con ese juego a ver cómo va.
Yo tengo mi tarjeta a 2484Mhz 1025mV el core y la VRAM a 2074MHz.
El caso es que de Fps voy igual que tú en el COD en relación a mi resolución contra la tuya haciendo el cálculo como te comenté, de echo en algunos mapas llega a 170 fps en mi resolución que en la tuya seria unos 190fps, pero es solo en 1 o 2 mapas
Pacorrr escribió:jordanpucela escribió:Pacorrr escribió:Pues ese usa el mismo motor que el del vídeo que he puesto, no lo tengo, pero no creo que sea normal, ya he visto problemas por usar un sistema operativo reciclado de otro procesador, si ves que no lo arreglas de ninguna manera, formatear no me parece mala idea, igualmente trata de buscar vídeos con un euiqpo similar al tuyo con ese juego a ver cómo va.
Yo tengo mi tarjeta a 2484Mhz 1025mV el core y la VRAM a 2074MHz.
El caso es que de Fps voy igual que tú en el COD en relación a mi resolución contra la tuya haciendo el cálculo como te comenté, de echo en algunos mapas llega a 170 fps en mi resolución que en la tuya seria unos 190fps, pero es solo en 1 o 2 mapas
Lo raro es que te baje el uso de gpu más con una resolución mayor, pero igual es normal en ese juego, por eso te decía que buscases en youtube a ver cómo le va otros. El Horizon Zero Dawn no lo tengo, pero no me suena que tenga bajadas de uso de gpu, me suena que ese tira bien, aunque no lo sé ya te digo que no lo tengo, pero seguro que por youtube hay gente con un 5800X y una 6900XT para comprobarlo.
Pero vaya si es algo puntual y no te molesta a la hora de jugar, pues déjalo correr.
jordanpucela escribió:Pacorrr escribió:jordanpucela escribió:
El caso es que de Fps voy igual que tú en el COD en relación a mi resolución contra la tuya haciendo el cálculo como te comenté, de echo en algunos mapas llega a 170 fps en mi resolución que en la tuya seria unos 190fps, pero es solo en 1 o 2 mapas
Lo raro es que te baje el uso de gpu más con una resolución mayor, pero igual es normal en ese juego, por eso te decía que buscases en youtube a ver cómo le va otros. El Horizon Zero Dawn no lo tengo, pero no me suena que tenga bajadas de uso de gpu, me suena que ese tira bien, aunque no lo sé ya te digo que no lo tengo, pero seguro que por youtube hay gente con un 5800X y una 6900XT para comprobarlo.
Pero vaya si es algo puntual y no te molesta a la hora de jugar, pues déjalo correr.
Yo tengo la 6800xt y con mi monitor no he visto pruebas😢
PepeC12 escribió:Hay más datos del rendimiento de la 6700xt
https://videocardz.com/newz/amd-radeon- ... een-leaked
Ojo que tiene sam activado.
sento01 escribió:PepeC12 escribió:Hay más datos del rendimiento de la 6700xt
https://videocardz.com/newz/amd-radeon- ... een-leaked
Ojo que tiene sam activado.
Interesante. Por cierto...¿Cuando salen todas las reviews oficialmente?
FranciscoVG escribió:
Pues es precisamente lo que digo, la 3060 minando 25mh/s y a sido prácticamente imposible de conseguir y encima a sobreprecio, ya te puedes imaginar la 6700 xt sin ninguna limitación y que mina 43mh/s
Gwyn escribió:
Está lejos de ser "de las mejores para minar", que es lo que decías.