|
发表于 2010-6-25 14:04:22
|
显示全部楼层
继续进行莫名其妙的痴人说梦。
理想情况下,对于一行取样所需要的取样频率是6400次/行,换算成时域为6400/10nS,那么A/D转换器在干这件事的时候的工作频率高达640GHz。显然在目前这是个无法实现的目标。于是,传统的取样-保持技术便登场了。
仍以25楼计算目标为例。传统取样-保持技术是这样工作的:假定被测信号周期为10nS,且是可重复的。通过使用能够获得的pS级开关器件进行取样,每若干个信号周期取样一次,例如100个信号周期。每经过一次取样周期,取样的位置就移位1/6400,然后进行下一个取样操作。这样经过6400X100=640000周期以后,一个完整波形就被读下来了。由于信号周期为10nS,所以完整波形读入所化的时间为6,400,000nS=6.4mS。下一步,再重复前述过程。
在上面这个例子中,取样部件的取样率为1MHz/S,取样速度为取样开关打开的持续时间的倒数,如果取样时间为1nS,则取样速度为1GHz。显然,这个速度越高则取样时间越短,样本的精度也相对要高些。两次取样之间的间隔为100X10nS=1000nS=1uS,普通的高精度A/D转换器完全能够胜任。
由于幅度取样在Y通道实现,X通道的显示就可以从存储器中读取,这样实际上X轴的物理带宽就被固定下来了。Y通道的物理带宽,在这里的情况下只需要1/6.4mS=156.25Hz,这是极端的确情况。
传统取样示波器中最昂贵的部件就是取样器,A/D转换器与它相比已经无足轻重了。不知道现代取样示波器与传统的取样示波器有什么区别?很想获得这方面的知识,也希望这方面的大师们不吝赐教。
|
|