La cuestión es que CUDA y en particular CUDNN para modelos de aprendizaje profundo se han vuelto el estandar de facto en este área. De esta forma, incluso si se van dando pequeños pasitos a nivel de hardware y de software (pienso en ROCm) los modelos que pueden entrenarse en hardware ya no digo AMD, sino “no-nVidia” son contados y habitualmente con rendimiento bastante más bajo que en tarjetas nVidia de similar precio.
Tensorflow, pytorch, etc por debajo usan eso y siguen la misma línea. Reitero que pequeños pasitos se van dando, de vez en cuando verás una noticia del estilo “X modelo de DL rinde genial en gráficas AMD”, pero si pretendes dedicar recursos a esto es muy recomendable no ponerte palos en la rueda ya de entrada. Quizás en unos años cambie la cosa.
…y antes que comprar una GPU de ninguna marca, piensa que tanto Google con colab como Kaggle ofrecen instancias con GPUs gratuitas con las que se pueden hacer bastantes cosas.
El procesamiento de imágenes “clásico”, con OpenCV y compañía, está siendo devorado por modelos de DL que no necesitan apenas conocimientos previos ni extraer descriptores. Pero vaya para eso no hace falta ninguna GPU de ninguna marca. Y para inferencia tampoco, usar los modelos es rápido incluso en CPU. Lo “caro” es entrenarlos.
Saludos