咪表怎么判断时间?
咪表是通过接收GPS的导航信号来确定时间的,它并不是根据塔台发来的信号确定时间的(至少我没有见过这样设计的模拟机) 。如果GPS不能接收到任何可见的卫星,那么它会认为时间是1970年1月1日0时0分0秒(系统初始化时设置的时间);如果能够接收到部分可见的卫星,但不足以被精确地求解出坐标和时间,则会产生约20ns的误差(每颗卫星误差大小不一样,但是都是正态分布的,所以总误差是固定的);如果能接收到所有可见的卫星,并且能够利用它们之间的坐标关系得到一个精确的计算结果,那么时间将不会有误差(对于地球同步轨道上的卫星来说,即使只能看到几颗卫星,也能得出精确的时间,因为几颗卫星的位置变化很快,用微积分可以算出任意时刻的精确位置)
所以说,在市区高楼林立、信号遮挡严重的情况下,米表会显示一个比实际时间慢多少的值是有理论依据的。至于说误差是3-5分钟,那是理论极限情况下的数值。一般来说,在城市中使用时,误差不会超过10秒。 另外说一下楼上的那个答案,“每个时钟芯片都有一个运行参数,由厂商写入的,叫做频率偏差,表示这个时钟芯片每星期能误差多少毫秒”。这个说法是不正确的!现代的集成电路(包括CMOS和BIPOLAR等非电压驱动式集成电路)已经没有“晶体振荡器”这一组件了,更不存在什么“频率偏差”一说。以英特尔的CPU为例进行说明,从奔腾4开始,所有的CPU内都没有集成晶振(CPU的基频是由主板上插着的PCFIA(电脑时间接口卡)提供的),因此也就不存在所谓的“频率偏差”可调。当然,以前的CPU可能有集成晶振,但是晶振的误差是由厂家事先设定的,不可能通过软件修改来调整误差的(否则的话,生产线上来的产品都要重新检验才能出库啊!)