Fortres escribió:Menuda desviación de hilo... Entre la eterna pregunta de si funcionara en mi equipo y ahora que según algunos o tienes un i9 o tendrás cuello de botella tela...
tigerscream escribió:DaNi_0389 escribió:@tigerscream
Amigo lo del video es cuello de botella
Si el cpu no deja ir al 99/100% a la gpu es cuello de botella, punto.
https://hardzone.es/tutoriales/rendimiento/cuello-botella-pc/
En serio, me parece muy bien que vuestras exigencias sean muy elevadas, pero hay mucha gente que no tiene conocimientos en Hardware o informática que da por validas todas las cosas que ponéis y NO, un cuello de botella es algo serio. Yo prefiero llamarlo diferencia de rendimiento, porque en los cuellos de botella clásicos, el elemento en cuestión va al 90-100% todo el rato mientras el resto están prácticamente rascándose los 0o y en ese video se ve que la CPU fluctua entre 50-70%, casi lo mismo que la GPU, entonces si para ti cuello de botella es que la GPU no va al 100% es que tenemos una manera de entender muy distinta esa definición.
Muchos hablan de PC balanceado y si no... cuello de botella, pero como he dicho antes, depende de las exigencias de cada cual, pero cuello de botella se refiere esencialmente a que uno de los elementos LASTRA claramente al resto, en este caso solo lastra a la GPU y NO, lastrar sería si la GPU fuera entre el 20-40% mientras la CPU va al 90-100%.
Por favor, que seáis exigentes a más no poder con los elementos del PC no os convierte en poseedores de la verdad absoluta, yo tampoco la tengo, pero pensad un segundo en que hay mucha más gente que viene aquí y no sabe y os lee y se cree a pies juntillas lo que decís... hacéis gastar a la peña mucho más dinero del que necesita gastar solo porque vosotros queréis tener todo al 100% de rendimiento, algo que es más caro de lo necesario.
kikomanco escribió:elamos escribió:palet escribió:Se que la voy a cagar, pero me voy a pillar la 3070 teniendo un i5 6600k oc 4.5ghz, voy a tener suerte
Yo me voy a pillar una 3080 para poner junto a mi i5 9600k a 4.6 ghz para jugar a 1440p 120 o 144 fps, lo que de de sí y si veo que me quedo corto de cpu el año que viene cuando salga la 11 gen de intel me pillo placa pcie 4.0 y el i7 o i9 mas tocho acompañado de una buena placa pcie 4.0
Vende tu 9600k y le metes un 9900k, es hermano gemelo del 10700k y con eso tienes para los próximos 6 años sin problemas
En el caso de nuestro PC, el cuello de botella surge cuando hay un componente que frena el rendimiento general del sistema porque sus especificaciones están descompensadas. Normalmente, los cuellos de botella se suelen originar porque la CPU ofrece un rendimiento bastante inferior que la GPU, o viceversa. Para que os hagáis una idea, veríamos este fenómeno de este tipo en un i3 combinado con una RTX 2070, por ejemplo.
francisco94 escribió:¿Que tal mi ordenador para una RTX 3070?
PSU: RM750x
CPU: Ryzen 3700x
RAM: 32 GB 3200
Placa base: MSI Tomahawk B450 (no tiene PCIe 4.0, solo 3.0)
SSD: 1tb
Me preocupa que pueda estar desbalanceado, o tener cuello de botella en el CPU o con el PCIe 3.0
AlbertX escribió:A los que siguen pensando que la 3090 rendira un 25% (yo sigo creyendo que nos vamos a decepcionar y ojo soy el primero que espera estar equivocado)
Primero: solo 18% mas de Cuda Cores
Segundo: Mas lentos que los de las 2080
Tercero: Solo 0.5 Gigas en las memorias
Cuarto y para mi mas importante: No les parece raro que la 3070 Consume 220W la 3080 sube a 320W pero la 3090 solo aumenta su consumo a 350W aun teniendo mas del DOBLE de la memoria RAM de la 3080?
Mira que por la cantidad de RT Core y Tensor core adicionales, estoy seguro que en DLSS y Raytracing tenga algun mejor desempeno, pero en linease generales yo sigo diciendo que la diferencia sera cuando mucho 5 u 10%
Que opinan?
@adriano_99 Pero si la grafica ya de plano esta al 100% de uso, estas diciendo que no tiene oportunidad de crecer, que hoy use 70% no significa que en los juegos de manana no ira a 100%, no se eso para mi no tiene logica.
kikomanco escribió:No tienes Fe tú ni nada, el hardware sobre el papel dice que tendrá la 3080 un 16% menos de cuda cores que la 3090 pero un poco más rápidos, entonces si son más rápidos ese 16% ya se acorta a un 12%? +- y si a eso le sumamos que los cudas Cores no escalan linealmente en potencia (más cudas cores nunca representa más potencia) ese 12% lo podemos rebajar a 10%? +- ese será el rendimiento más o menos real entre las 2 tarjetas, el tamaño de una tarjeta a la otra viene por qué el disipador es más grande por qué tiene que refrigerar los 24 módulos de memoria RAM para que no se achicharren al ser una memoria muy rápida y por lo tanto muy caliente, si el TDP de una 3080 a una 3090 son solo de 30w, la 3080 con un poco de overclock en el core y en las memorias va a estar muy cerca de una 3090 a velocidades de stock, incluso la puede igualar, cómo dije antes, el marketing de nvidia funciona de maravilla, renombra la Titán Ampere con el nombre de 3090, se guardan la 3080ti para más adelante y se hinchsn a vender Titán Ampere cuando éstas gráficas están destinadas para otros menesteres, de aquí a 10 meses sacan una 3080ti por 900€ y rendimiento de 3090 y a pasar por caja porta vez, un plan perfecto
pupegbl escribió:Madre mía. “La gráfica debe ir al 100%”
Madre mía...
Daicon escribió:pupegbl escribió:Madre mía. “La gráfica debe ir al 100%”
Madre mía...
al 100%?!!!!! diosssss
va a petarrrrrrr
booommm
adriano_99 escribió:tigerscream escribió:DaNi_0389 escribió:@tigerscream
Amigo lo del video es cuello de botella
Si el cpu no deja ir al 99/100% a la gpu es cuello de botella, punto.
https://hardzone.es/tutoriales/rendimiento/cuello-botella-pc/
En serio, me parece muy bien que vuestras exigencias sean muy elevadas, pero hay mucha gente que no tiene conocimientos en Hardware o informática que da por validas todas las cosas que ponéis y NO, un cuello de botella es algo serio. Yo prefiero llamarlo diferencia de rendimiento, porque en los cuellos de botella clásicos, el elemento en cuestión va al 90-100% todo el rato mientras el resto están prácticamente rascándose los 0o y en ese video se ve que la CPU fluctua entre 50-70%, casi lo mismo que la GPU, entonces si para ti cuello de botella es que la GPU no va al 100% es que tenemos una manera de entender muy distinta esa definición.
Muchos hablan de PC balanceado y si no... cuello de botella, pero como he dicho antes, depende de las exigencias de cada cual, pero cuello de botella se refiere esencialmente a que uno de los elementos LASTRA claramente al resto, en este caso solo lastra a la GPU y NO, lastrar sería si la GPU fuera entre el 20-40% mientras la CPU va al 90-100%.
Por favor, que seáis exigentes a más no poder con los elementos del PC no os convierte en poseedores de la verdad absoluta, yo tampoco la tengo, pero pensad un segundo en que hay mucha más gente que viene aquí y no sabe y os lee y se cree a pies juntillas lo que decís... hacéis gastar a la peña mucho más dinero del que necesita gastar solo porque vosotros queréis tener todo al 100% de rendimiento, algo que es más caro de lo necesario.
No es ser exigentes es no querer tirar dinero.
Si estas pagando por una gráfica que va a tener su rendimiento por debajo del 70% estas tirando cientos de euros a la basura.
La gráfica SIEMPRE debe de ir al 100%.
Lo que no puedes hacer es decir a alguien que esta bien que su 3080 este entre el 50 y 70% de uso porque para eso que se compre una 3070 y va a tener el mismo rendimiento gastando 200 euros menos.
Eso si que es algo mas caro de lo necesario y un muy mal consejo.
AlbertX escribió:Lo veo muy bien, todo depende de que Target busques pero en general me parece perfecto
@DaNi_0389 Pero si el del 2600 Sube la resolucion a 1440p o 4K ya no hay cuello de botella
adriano_99 escribió:No es ser exigentes es no querer tirar dinero.
Si estas pagando por una gráfica que va a tener su rendimiento por debajo del 70% estas tirando cientos de euros a la basura.
La gráfica SIEMPRE debe de ir al 100%.
Lo que no puedes hacer es decir a alguien que esta bien que su 3080 este entre el 50 y 70% de uso porque para eso que se compre una 3070 y va a tener el mismo rendimiento gastando 200 euros menos.
Eso si que es algo mas caro de lo necesario y un muy mal consejo.
paco_man escribió:adriano_99 escribió:No es ser exigentes es no querer tirar dinero.
Si estas pagando por una gráfica que va a tener su rendimiento por debajo del 70% estas tirando cientos de euros a la basura.
La gráfica SIEMPRE debe de ir al 100%.
Lo que no puedes hacer es decir a alguien que esta bien que su 3080 este entre el 50 y 70% de uso porque para eso que se compre una 3070 y va a tener el mismo rendimiento gastando 200 euros menos.
Eso si que es algo mas caro de lo necesario y un muy mal consejo.
Pues en mi caso, la 1080ti va en la mayoría de juegos a 60%, Juego con todo en ultra a 60 fps/2k y no tengo la necesidad de cambiar ni de gráfica ni de monitor. Cuando en un futuro existan juegos con una carga gráfica mayor, pues irá al 80% o al 100%, o sea, seguirá yengo desahogada, consumirá menos electricidad y se calentará menos.
Adriano_99 siempre diciendo barbaridades, aún recuerdo cuando defendía a capa y espada las tarjetas 2XXX, sus precios abusivos y su Ray tracing de pacotilla en cuatro juegos contados. Ahora Nvidia te ha puesto en tu sitio, a ver si así aprendes a no ser fanboy de ninguna empresa.
También decías que la 1080ti ya era una tarjeta obsoleta. Aún la sigo disfrutando, y lo que le queda, paso de "biribiris" hasta que vea una buena oportunidad de cambiar (mayor catálogo de juegos y mejor implementación de RT).
PD: Sin acritud, me caes bien.
AlbertX escribió:@kikomanco Claro, pero es que el tema no es la 2080ti, es la VRAM, yo no uso mi PC solo para jugar, si te fijas tengo un Threadripper 3960X que me rinde muy bien para jugar pero no es el mas rapido del mercado para eso, pero necesitaba un PC que me sirva para EDICION de videos a 4K y demas cosas y el multicore hace mucho y yo he llenado esos 11Gigas de Vram.
Esta es la parte en la que siento que Nvidia nos ha jodido a todos los que tenemos uan 2080ti y lo han hecho completamente intencional para obligarnos a pasar a la 3090.
Y mira que si fuera solo para jugar diria que bueno, pero no todo el que compro una 2080ti lo hizo UNICAMENTE para jugar y como no hay ni anuncio ni idea de para cuando y si sale uan 2080 con 20GB pues alli esta el mayor problema
@DaNi_0389 Honestamente, usa otro juego como ejemplo, porque yo no tomo como referencia ninguna mierda que saque Ubisoft (y no lo digo por la calidad del juego como tal) pero todos sus juegos usan 2 malditos DRM uno que es basicamente una maquina virtual y el otro que es el DENUVO es un mata CPU ese juego con mi Threadripper igual le cuesta mantenerse.
AlbertX escribió:francisco94 escribió:¿Que tal mi ordenador para una RTX 3070?
PSU: RM750x
CPU: Ryzen 3700x
RAM: 32 GB 3200
Placa base: MSI Tomahawk B450 (no tiene PCIe 4.0, solo 3.0)
SSD: 1tb
Me preocupa que pueda estar desbalanceado, o tener cuello de botella en el CPU o con el PCIe 3.0
Lo veo muy bien, todo depende de que Target busques pero en general me parece perfecto
@DaNi_0389 Pero si el del 2600 Sube la resolucion a 1440p o 4K ya no hay cuello de botella
kikomanco escribió:Daicon escribió:pupegbl escribió:Madre mía. “La gráfica debe ir al 100%”
Madre mía...
al 100%?!!!!! diosssss
va a petarrrrrrr
booommm
Sin comentarios, algunos si no ven a la gráfica saltar por los aires no son felices
Nuestro consejo es que abráis el videojuego, o el programa que os da problemas de rendimiento, y lo uséis como siempre. Después de estar 5-10 minutos jugando o trabajando, abrís el administrador de tareas pulsando CTRL+SHIFT+ESC o CTRL+ALT+SUPR.
Idos a la pestaña «Procesos» y observar las columnas de «CPU«, «Memoria» o «GPU«. En caso de que veáis a la CPU al 90%, preocuparos e intentad averiguar por qué ocurre esto. Si es la memoria RAM la que está alrededor de 90% (se verá en rojo), echad un vistazo a los procesos que más RAM están consumiendo para finalizarlos.
V de viciado escribió:Pues yo estoy dudando muy fuertemente si pillar una 3070 o una 2080ti de segundo culo, ya que mi máximo es 2k y con 60 fps me conformo.
Si puedo me espero hasta Black Friday, pero como vea una 2080ti a buen precio me la como con patatas.
d2akl escribió:Pues es lo correcto. Para que se entienda
Lo malo es que siempre vaya al 25-30% por que eso significa 2 cosas:
1.Que el procesador que tienes da pena
2. Que te gastaste una pasta para nada
Si va al 90-100% en los exigentes es que la inversión es la correcta (siempre y cuando el micro vaya igual, si el micro va al 25% y la grafica al 100% es la grafica la que da pena)
Para que se entienda en lenguaje coloquial
adriano_99 escribió:Gwyn escribió:tigerscream escribió:Si no existieran esas versiones en previsión de lanzamiento no habría discusión alguna, pero al ver que los próximos lanzamientos van orientados a 16GB... hace dudar y mucho.
Totalmente de acuerdo.
El argumento este parece "lo que toca" decir ahora para vendernos estas versiones.
Que digas eso lo único que denota es que no conoces absolutamente nada a steve.
goku593 escribió:Pero si es el gurú del foro, ¿como puedes decir eso de la mano derecha de Jensen? Sí. Dice demasiadas barbaridades, si por el fuera, a un usuario target de ofimática le recomendaría una 3090 y un 9900K.
francisco94 escribió:AlbertX escribió:francisco94 escribió:¿Que tal mi ordenador para una RTX 3070?
PSU: RM750x
CPU: Ryzen 3700x
RAM: 32 GB 3200
Placa base: MSI Tomahawk B450 (no tiene PCIe 4.0, solo 3.0)
SSD: 1tb
Me preocupa que pueda estar desbalanceado, o tener cuello de botella en el CPU o con el PCIe 3.0
Lo veo muy bien, todo depende de que Target busques pero en general me parece perfecto
@DaNi_0389 Pero si el del 2600 Sube la resolucion a 1440p o 4K ya no hay cuello de botella
Mi monitor es 1440P/144hz, por lo que ese es mi objetivo.
Tecmok escribió:Gente que monitor recomendais 4K con buenas stats y grandote?
Wanderlei escribió:francisco94 escribió:AlbertX escribió:
Lo veo muy bien, todo depende de que Target busques pero en general me parece perfecto
@DaNi_0389 Pero si el del 2600 Sube la resolucion a 1440p o 4K ya no hay cuello de botella
Mi monitor es 1440P/144hz, por lo que ese es mi objetivo.
Yo creo que la mejor gráfica para 1440p y 170hz como es mi caso es la 3080.
No se porque me da la nariz que la 3070 se quedara en 110-120 fps
adriano_99 escribió:Sabes que no tienes razón cuando lo único que te queda es ridiculizar lo que dice el otro sin absolutamente ningún argumento.
Precisamente si algo estoy diciendo es que la gente no debería de comprarse una 3080 si no tiene un procesador que le saque juego ya que si su uso esta all 70% estas teniendo el rendimiento de una 3070 tirando 200 euros a la basura.
Y sinceramente ya he tenido suficiente demagogia y gente tergiversando todo lo que digo para lo que va de mes así que me piro del hilo y aquí os quedáis recomendando a la gente pcs desbalanceados, pobre del que os escuche.
adriano_99 escribió:goku593 escribió:Pero si es el gurú del foro, ¿como puedes decir eso de la mano derecha de Jensen? Sí. Dice demasiadas barbaridades, si por el fuera, a un usuario target de ofimática le recomendaría una 3090 y un 9900K.
Sabes que no tienes razón cuando lo único que te queda es ridiculizar lo que dice el otro sin absolutamente ningún argumento.
Precisamente si algo estoy diciendo es que la gente no debería de comprarse una 3080 si no tiene un procesador que le saque juego ya que si su uso esta all 70% estas teniendo el rendimiento de una 3070 tirando 200 euros a la basura.
Y sinceramente ya he tenido suficiente demagogia y gente tergiversando todo lo que digo para lo que va de mes así que me piro del hilo y aquí os quedáis recomendando a la gente pcs desbalanceados, pobre del que os escuche.
VanSouls escribió:@francisco94 con un 3700X tienes de sobras y mas, tienes un gran micro
PD: ¿Cuando hablaremos de las Ampere?
Mr_Children escribió:@gwallace a ver cuándo mueve ficha amd, porque seguro que no lo hará hasta noviembre tampoco...
el caso es que prefiero ya nvidia, sobre todo por el tema de emulación.
AlbertX escribió:@kikomanco Nvidia no ha vendido la 2080ti para uso profesional, pero te repito, que la tope de game "para jugar" segun tu propio comentario ahora tiene 1 giga menos de Ram, que la tope de gama de la generacion anterior (Al menos de salida de ambas)
Esto NUNCA habia pasado, NUNCA una generacion posterior su tope de gama para juegos venia con menos RAM que la tope de gama de la generacion anterior.
Ah que mas adelante sacaran quizas quien sabe una 3080ti con mas ram o una 3080 con 20gigas, todo muy bien, pero te repito de salida, ESTO JAMAS HABIA PASADO