#1412 Nah, es relativamente normal, la CPU en muchos juegos da un % bajo al ser un indicador global de todos los núcleos, lo que más pistas suele dar es el % de uso de la GPU. Si este esta bajo y tienes pocos frames en un juego que se ve regulero, mal asunto.
Vamos que si en la foto de #1409 pusiera una CPU más potente y actual con mayor IPC, habría más frames aunque se este tocando los cojones, y tambien subiría el % de la GPU más porque esa CPU sería capaz de estresarla más. Si con mi CPU actual subiera el nivel de detalle o de resolución, daria los mismos o casi los mismo frames en ese punto en concreto, porque la GPU tiene margen de tirar más. ¿Tendría sentido meterle más detalle o resolución? Depende, porque en las zonas que si va a >100 fps y donde si se estresa de verdad decaería más. Lo que si pasaría es que el frame rate sería más regular en el sentido de no dar esos bandazos con un average menor.
Esto explica ciertas versiones de PS4 Pro y One X, en varios juegos dan frames parecidos, pero a más resolución, ya que la CPU no la tocaron y a mayores res el tope a menudo viene de la GPU. Y por eso a su vez, hay juegos que en One X tiran a mayor res que Series S, pero One X no puede poner el modo rendimiento, porque no hay manera de subir los fps mínimos o atenuar los bajones.
Vamos, que hay en escenarios que no es viable subir los mínimos si no es a base de fuerza bruta (IPC CPU) u optimización del software (engine, drivers, API, etc). Hay juegos que bajando los detalles no aumentan el frame rate ni poniendo una GPU superior, básicamente porque la GPU no estaba ni estresada xd