Каждый раз когда поднимается этот вопрос понимаю, что никак не получается окончательно разобраться : )
Если «загрубить», то имеем прямую последовательность из четырёх составляющих — инпут, обсчёт сцены процессором, визуализация обсчитанной сцены видеокартой и вывод визуализированной картинки монитором.
Инпут исключаем из «уравнения», это константа. Обсчёт сцены вымолачивается с герцовкой, которую позволяет мощность процессора — тоже константа. Монитор показывает то, что ему даёт видеокарта — опять константа. Как следствие, всё зависит от видеокарты.
Ограничиваем фреймрейт на 60 и 120 — в том и в другом случае временные затраты на рендер будут одинаковыми, а за основу для рендера будет браться последняя обсчитанная процессором сцена. И разница для 60-герцового монитора будет заключаться в том, что в первом случае на экран будет выводиться целый кадр, а во втором — два кадра «по половинке». Бо́льшая информативность второго случая, на мой взгляд, изрядно сомнительна…
P.S.
Кроме того, припоминается анализ инпут-лага в rF2 — и там разница для «залоченного» на 60, 120 и 180 фреймрейта не была очень уж катастрофичной.