Es algo muy típico de sistemas antiguos. En mi facultad teníamos un laboratorio en el que usábamos unos terminales Sun corriendo Solaris (se les llama dummy systems, o sea que hazte una idea), y los terminales conectados a un servidor grande. Habría unos 20 en toda la sala. Y bueno, aquello era uno de los sistemas más lentos que he visto en mi vida. El trabajo básico en entorno gráfico de ventanas lo hacía aceptablemente, pero cuando le exigías potencia de cálculo, como por ejemplo temas de verificación de protocolos, para los que hace falta mucha potencia, se venían abajo.
Los terminales eran unas cajitas que iban al lado de los monitores, y tenían lo básico, una tarjeta gráfica mínima, tarjeta de red y poquito más. Sin disco duro, cada terminal usaba una cuota de disco en el servidor. O sea que imagínate si varios terminales deciden escribir a la vez en el disco... un cuello de botella impresionante.
Por eso, y por el tema de que realmente no se le saca una gran ventaja porque hay pcs básicos muy baratos, creo que no sale a cuenta. Además, si un sistema "a medida" se te jode, siempre será más complicado de arreglar que un sistema de pcs, porque puede que ya no fabriquen esos thin clients, o mil cosas más.
Vamos, yo supongo que habrá mejorado mucho el tema desde aquellos sistemas
pero por lo que yo ví, no se lo recomendaría a nadie, salvo a casos muy muy concretos (p ej, si eres administrador de un cibercafé y quieres tener muy controlado hasta qué punto pueden "trastear" los usuarios con el pc, pero vamos, que creo que ni siquiera así compensaría).
saludos