ishida_uryuu escribió:BLueALieN escribió:A Knopfler le he visto ya incontables veces ( siempre que viene a España intento no perdermelo) y cada concierto ademas de cojonudo, es distinto, aunque repita algunas canciones, cada version es distinta, cada musico que cambia ( aunque algunos siempre son los mismos) toca diferente, cada espectaculo es unico ( y acojonante!!!). No me veo yo donde esta lo interesante de ir a ver a ¿Un ordenador? en un escenario reproduciendo "sus composiciones", ¿La interaccion con el publico que? ¿La singularidad de cada actuacion donde? ¿Las grupies sin posibilidad de hacer realidad sus fantasias eroticas con los del grupo un recuerdo del pasado? Por favor, que alguien piense en las grupies!!!!!.
Te dejo aquí esto simplemente como dato, creo que responde algunas de tus preguntas:
https://www.youtube.com/watch?v=X11CTE7CmnIUn Saludo.
Como dato, te dire que en tiempos estuve haciendo pruebas con Kagamine Rin, Leon y Lola las cuales son las primeras voces que salieron para Vocaloid
https://es.wikipedia.org/wiki/Vocaloid http://www.vocaloid.com/en/ y te aseguro que el componente humano necesario para hacer cantar a Hatsune Miku ( si no recuerdo mal usaba una de las primeras versiones de Kagamine Rin) es simple y llanamente infernal, tardas menos ( y queda mejor) en hacer que cualquier inutil grabe una linea de voz fuera de tiempo y desafinada y corregir el desastre que en conseguir que cualquier voz de vocaloid suene medio aceptable.
Como curiosidad tecnologica y para estilos donde busques una sonoridad completamente artificial puede valer aunque incluso para voces sinteticas queda mejor usar un morphoder partiendo de una base humana, pero poner como ejemplo una grabacion de un sintetizador vocal, que ademas de necesitar horas y horas de musicos y tecnicos detras para que cante una sola cancion y ademas siempre exactamente igual, cuando se habla de la falta de musicalidad de una IA y la imposibilidad de aprender ciertos conceptos musicales o de hacer cada interpretacion unica, me temo que no responde nada.
Y como dato te comento que el poco software musical que es capaz de hacer voces decentes, esta basado en tecnologia de sampleado lo cual es que basicamente se cogen humanos reales, se graban las voces y luego se reproducen y incluso las librerias de voces mas avanzadas estan terriblemente limitadas a ciertos estilos o simplemente sirven para coros, de ahi a hacerlas cantar solitas va un abismo.
https://www.youtube.com/watch?v=zEcZVBWCihI Ahi tienes un "pequeño" video de Dominus una de las librerias vocales mas avanzadas que hay y "lo facil" que es construir un simple coro de fondo... como dato anecdotico, un minuto de audio en WAV 44.1 khz ocupa unos 10mb, la libreria de Dominus necesita 39gb de voces humanas reales para simplemente poder construir ( con intervencion humana especializada) unos coros de fondo que no suenen a maquina. Ahora echa un calculo cuantas horas de voces humanas reales se han necesitado para unos coros limitados a un solo estilo. Hay instrumentos que se pueden conseguir de forma realista de forma sintetica, otros por sus caracteristicas simplemente no se puede, la voz precisamente es uno de ellos.
Resumiendo, Hatsune Miku no deja de ser un video en formato holografico creado y manipulado por humanos con una voz sintetica creada y manipulada por humanos, que hace exactamente lo mismo cada vez que lo reproducen, Expresividad cero, musicalidad cero, singularidad cero, interaccion con el publico cero, y lo de las grupies despues del concierto en la zona privada del grupo... con un holograma? me temo que cero tambien.
Un saludo.