Ich bin mir inzwischen relativ sicher, dass es bestimmte FPS-Wwerte gibt, mit denen der Server am besten läuft. Ich hoffe mal, dass Alfred Reynolds noch auf meine Mail anwortet und mir das bestätigt, aber eigentlich entspricht es der Logik. Ticks werden noch immer nur dann berechnet, wenn ein Frame "gerendert" wird. Wenn Tickrate und FPS nicht zusammenpassen, wird die Tickrate unregelmäßig (vgl. Alias-Effekt - auch wenn's ein etwas indirekter Alias-Effekt ist). Wichtig ist also, dass immer, wenn ein Tick kommen sollte, auch wirklich grad ein Frame da ist. Wenn man sich das ganze zeitlich überlegt, bei Tick 66 liegen 15ms zwischen den Ticks (eigenlich also Tickrate 66.66666...), also sollen alle 15ms ebenfalls Frames kommen. Wenn dazwischen noch welche liegen, schadet (und nützt) das nicht. Frames können nur ganzzahlige Millisekunden-Abstände haben, daraus folgt, die Frames müssen entweder eben alle 15ms (66fps), alle 5ms (200fps), alle 3ms (333fps) oder alle 1ms (1000fps) kommen (ld_preload-Tricks etc. ausgenommen, mit denen auch 7.5ms Abstand zwischen den Frames möglich wären).
Wer also seine Tick66 Server mit 100 fps laufen lässt, macht ihn evtl. schlechter, als wenn er mit 66 fps laufen würde! Dadurch kann es durchaus sein, dass jemand 1000fps für besser befindet, als niedrigere FPS, wenn er eben nicht exakt einen dieser Werte trifft.
Übrigens ist ein bissche höher wahrscheinlich schlechter, als ein bisschen niedriger (zumindest bei 66fps). Wenn der Server sagen wir "nur" mit 65fps läuft, ist die Tickrate auch 65fps und es kommt exakt jeden Frame ein Tick. Wenn die FPS aber sagen wir bei 68fps liegen, wir ca. 1x pro Sekunde ein Frame "ausgelassen" (also kein Tick berechnet), da sonst die Tickrate ja über 66 liegen würde. Damit gibt es plötzlich ein Loch von knapp 30ms zwischen zwei Ticks (statt wie gewollt 15ms).
Zugegebenermaßen haben so die 1000fps einen Vorteil: Wenn dieser "Alias-Effekt" passiert, fällt er nicht so dramatisch aus, denn die Ticks werden nur um +- 1ms hin- und hergeschoben. Die Millisekunde ist dabei wirklich total egal, denn die Clients erhalten ja trotzdem noch immer aktuelle Informationen (Simulation des world snapshots und Versenden an die Clients passiert im gleichen Tick/Frame), nur schwankt die Rate, mit der sie diese Informationen erhalten um 1ms. Die 1ms wird komplett abgefangen durch die Interpolation (lerp ist ja viel größer als 1ms), während die zusätzlichen ~15ms beim Alias-Effekt bei 66fps evtl. nicht mehr abgefangen werden können.
Schlußfolgerung: Bei 1000fps ist es einfacher, einen guten Server hinzubekommen. Wenn man aber alles richtig macht, ist mit einem 66fps-Server das Optimum aus der Engine herauszuholen.