Estamos viendo como en los videojuegos van aterrizando diferentes implementaciones basadas en deep learning como el DLSS. En este caso tenemos a una red neuronal que genera frames realistas a partir de frames renderizados en el GTA V, podéis ver el video para ver los resultados del experimento y en su web el paper y algunos ejemplos más.
https://intel-isl.github.io/PhotorealismEnhancement/
¿Creéis que esto podría tener alguna aplicación en videojuegos?¿ nos podremos fiar realmente de los videos de internet en el futuro cuando estas cosas estén maduras, como ya estamos viendo con el deepfake?
En mi opinión el resultado a primera vista es resultón aunque cuando te fijas, como suele pasar con DL, al final salen los detalles bastante emborronados o texturas bastante sencillas en comparación con las del frame de partida renderizado. Aún así en unos años con mas datos y mejor hardware ojo.