最坏情况操作系统时钟精度?
-
20-09-2019 - |
题
我不确定这个问题是否属于 StackOverflow,但它就在这里。
我需要使用 C# 为一些要从一方传输到另一方的数据生成时间戳,并且我需要知道所有操作系统(Windows、Linux 和 Unix)中系统时钟的最坏情况精度是多少?我需要的是计算出精度,以便所有操作系统都能够验证此时间戳。
例如,Windows Vista 操作系统的时钟分辨率约为 10-15 毫秒。
解决方案
有趣的。主要操作系统在最坏的情况下具有厘秒分辨率(0.01 秒),尽管通常嵌入得更精确。
Linux 在其时间戳中提供高达微秒的分辨率(请参阅 man utime
)取决于计算机的时钟硬件。Windows NT/Win2K/XP/等。提供文件时间戳的毫秒精度(仅使用 NTFS),尽管它考虑了所有系统时间戳 0.000 000 1
秒单位(每秒一千万)。
如果准确的话 和 系统之间需要精确的时间分辨率,GPS 接收器可以轻松实现 100 纳秒的精度 它们工作方式的副作用, ,许多廉价型号的性能也达到 10 ns。 特殊GPS型号 使导出的时间可供外部使用。
不隶属于 StackOverflow