La potencia de las gráficas, al contrario de lo que muchos usuarios medios piensan, no se mide en mb de memoria, sino en pipelines/mhz de core/mhz de memoria.
No hay más que irse a la serie 4 de nVidia, en concreto a las GeForce 4200/4400/4800titanium. Había 4200titanium con 64mb de memoria que le daban sopas a todas las GeForce 4 mx440 de la época, tanto de 64 como de 128mb, y por qué? pues básicamente por que provenían de distinta arquitectura, las 4X00ti provenian de una evolución de las GeForce 3 ti, mientras que las MX440 no eran más que GeForce 2 con más mhz y algunas novedades...
Con ello lo que quiero decir son dos cosas:
1º) La cantidad de memoria no es significativa a la hora de medir el rendimiento de una gráfica.
2º) Gráficas con menos memoria rinden más que otras debido a su arquitectura.
A partir de cierta cantidad de memoria el rendimiento de las gráficas es incluso menor. Un claro ejemplo son las Fx5200 de 128 y 256mb, dónde las primeras rendían bastante más que las segundas. Esto se debía fundamentalmente a que al aumentar el tamaño de memoria, desciende la velocidad de la misma, por lo que los 128 eran más veloces que los 256 (esto sucede en este caso particular, en otros casos no repercute el aumento de memoria en la velocidad de la misma)
Por otra parte es de recibo destacar que la cantidad "EXTRA" de memoria sólo se emplea en el caso usar altas resoluciones, dónde los datos a redireccionar son mayores, y se agradecen estos mb extras de memoria.
Para tu segunda pregunta, hay un FAQ en el foro de gráficas que te resolverá las dudas.
saludos