VGA es señal ANALOGA lo que significa que necesita un DAC para convetir la señal de digital a analoga que los crt manejaban, ahora necesitan reconvertir la señal a digital dentro del monitor para poder ser visto, esto implica perdida de precisión en la señal. dvi si es mejor, manda la señal digital sin perdida. eso si, la diferencia puede no ser tan notable.
Realmente el DVI es un conector Híbrido Analogo/Digital, a diferencia de un conector HDMI que es 100% digital. Esta es la razón de que podás encontrar un convertidor DVI-VGA o DVI-HDMI es bien barato y uno convertidor HDMI->VGA sea bastante caro. En el primer caso el conector DVI incluye los pines para las señales análogas VGA de toda la vida como tambien las líneas digitales y el conector simplemente interconecta los pines correspondientes al conector VGA o HDMI correspondiente. Para el caso de un convertidor HDMI-VGA debe de existir un chip intermedio que se encargue de decodificar la señal digital y convertirla a un formato análogo que pueda ser enviado a un monitor por medio del conector VGA.
Una de las cosas que mucha gente no sabe es que un conector DVI también pueden ser 100% digital. Sin embargo prácticamente todas las tarjetas de video modernas incluyen ambas líneas de señal Análoga y Digital así que es muy poco probable que no puedan conectarse a un monitor VGA de toda la vida.
¿Qué es mejor?
Con monitores CRT realmente no hay mucha diferncia si son HDMI o VGA porque al final se termina convirtiendo en una señal "análoga". Los TVs y monitores modernos LCD o Plasmas se benefician del HDMI o del DVI digital ya que no tienen que reconvertir la señal análoga a una señal digital que pueda dibujar en el panel de pixels.
Es decir con un conector VGA en un LCD moderno se realizan dos conversiones, esta conversión en teoría podría afectar la calidad de la imágen.
Digital->Analogo->Digital
En la práctica hasta los cables VGA más baratos son suficientemente buenos para que la interferencia sea poca y la calidad de imágen se afecte de manera muy mínima.
Con DVI digital y HDMI no se realiza ninguna conversión con lo que podrías esperar que la imagen es "copia fiel" (si ignoras las características de color y relación de contraste del panel LCD) de la imagen digital que dibuja la controladora de video.
En la práctica (se los digo yo que tengo una TV/Monitor con puerto VGA y HDMI), las imágenes se ven iguales sin importar que cable usen. Y el que no me crea, le puedo hacer un blind test. (Aclaración: Obviamente estoy hablando de paneles de gama baja, en un panel calibrado para aplicaciones de diseño gráfico y multimedia puede que si se note la diferencia, pero no creo que en nuestro medio haya mucha gente dispuesta a pagar $5,000 o $7,000 para revisar su correo y ver el FB. Y sí lamento bajarlos de la nube, pero su flamante TV de 42'' LED LCD full HD no es un monitor calibrado)
Hay otra ventaja de la señal 100% digital y es que soporta tazas de refresco más altas y resoluciones más altas. Por ejemplo un monitor 3D tiene que mostrar el doble de frames por segundo que uno normal y esto es más facil de lograr cuando el canal es 100% digital.