supremegaara escribió:Sip, pregúntale a los estudios de animación, que tienen granjas enormes de equipos para procesar su trabajo
https://es.wikipedia.org/wiki/Render_farmVamos que ni puta idea. Podrás renderizar cuatro mierdas en tu casa con una 1060 pero a ver si te crees que el espectro profesional real utiliza los mismos equipos y gpus que nosotros xdddd.
supremegaara escribió:https://wwwhatsnew.com/2016/04/19/80-horas-para-renderizar-cada-frame-en-la-nueva-pelicula-del-libro-de-la-selva/
80 horas cada frame en granjas de procesado pero en vuestras 1060 de 4gb de RAM no tenéis problema y "no se llenan nunca"
Para decir tonterias mejor no comentes.
Primero: Esta gráfica no sirve para renderizar, es para trabajar de forma fluida con el software. Las granjas de renderizado utilizan PROCESADORES XEON y RAM, no se utilizan PARA NADA tarjetas gráficas y mucho menos de esta clase. Un solo procesador XEON de 16 núcleos con 32GB de RAM es mucho mas barato y rápido que una tarjeta gráfica en lo que respecta el renderizado. Y para que sepas, con un HW mediocre puedes realizar escenarios tan complejos como uno profesional de película, la diferencia estará en el tiempo que tomara al HW renderizar el fotograma.
Segundo: 80 Horas por fotograma, eres consciente de lo que escribes? 80 horas... madre mía chaval, tu necesitas pasarte por cientos de páginas sobre diseño 3D pero YA! 80 Horas es lo que tardaría un Dual Core de 2GHz en hacer una imagen 4K con 4096 muestras. Un Quad de 4GHz tardara unas 28 Horas en hacer el mismo frame y una GTX 1060 tardara unas 3 Horas. Una granja (dependiendo de la cantidad que alquiles o tengas) puede tardar horas o segundos. Una granja con 4 Xeons a 1.5GHz y 32 núcleos lo hará en aprox 20 minutos aprox. Otra cosa es la complejidad de la escena y esas 80 Horas que habla de fuente son INCORRECTAS. Cuando hablan de 80 horas que según la fuente oficial son entre 30 y 40 horas por fotograma en 4K (que la fuente que has pasado dice 80 Horas pero sumando tanto render 2D (4K) y 3D (2x2K)). Esas 30 - 40 Horas no son solo de render, también incluye otros procesos como ajustes de imagen (color, contraste) y efectos de post procesado con After Effects o el software que utilicen. En AVATAR se tardaba 1 semana en renderizar 1 segundo de película, pero no solo era 1 segundo de película 4K con todo eso, también se incluía el render en 3D. También hay que tener en cuenta que de la granja que tienen no todo es utilizado para 1 solo fotograma, quizás de 2000 Xeons que tienen solo utilizan 40, el resto lo han de utilizar para otras escenas lo cual lógico que tarde mas tiempo de lo esperado.
Tercero: Igual tendrías que aprender de HW puesto que una GTX 1060 no tiene 4GB, no existe ese modelo.
Cuarto: Ahora te diré que llegar a esos 4GB que dices es muy difícil. La memoria RAM y VRAM que se utiliza en las granjas no es necesario, pasa que el programa guarda la información de cada fotograma que utiliza y no los elimina de la RAM o VRAM ya que puede reutilizar estos datos, al ser cada fotograma diferente esa información se acumula. Como ya puse un fotograma por muy complejo que sea es muy difícil llegar a usar más de 2GB de RAM o VRAM, a menos que seas un manta y no sepas trabajar el modelaje. En Blender hay muchos BenchMark hyperrealistas, ninguno de ellos supera los 1024MB de memoria RAM / VRAM. Ahora si es un un vídeo la información de cada fotograma se ira guardando (las partes nuevas), es un método para ahorrar tiempo recalculando lo que ya tiene, entonces en este caso la misma imagen 4K a 4096 muestras no superara los 2GB de memoria, ahora si que si es una secuencia de vídeo después de 50 fotogramas supere esos 2GB, un vídeo de 1440 fotogramas en 1080 a 256 muestras puede aumentar aprox unos 500MB de uso de memoria. Por eso también dije que en lugar de hacer toda la película entera de principio a fin lo haces por escenas y asi te ahorras tiempo y recursos de HW.
Con todo esto te he dado toda la información correcta. Estas gráficas son para trabajar, no para renders, hasta puedes ver benchmark en youtube de gráficas de este tipo profesional haciendo renders contra gráfica normales y podrás comprobar que no valen para tal función.
No. no hay granjas de GPU, los programas de diseño no tiene tal opción (Quizás en SLI o XFIRE podrás en un PC pero no a modo de granja), tampoco el software 3D esta preparado para ello. Por ello, no intentes darme clases a mi que trabajo en el mundo del diseño 3D desde hace años. Estas gráficas son para trabajar en software de diseño de forma fluida, para renders no valen una mierda. (Hay granjas de GPU, si, pero no son precisamente granjas, como mucho son ordenadores con gráficas en SLI o XFIRE que hacen el render, te sale mucho mas caro que si fueran procesadores y más lentos). Por si te interesa, existen granjas comunitarias, gente que presta su ordenador para renderizar, es gratis pero tienes el riesgo de que te roben el proyecto.
Con esta gráficas podrás poner 1 millón de partículas y la gráfica seguirá como si nada, una 1060 le pondrás 1000 partículas y ya se quedara medio tonta y quizás hasta pete el driver y toque cerrar el programa o reiniciar el ordenador.