这个问题好像说过了啊!?(复制,粘贴中……)
电视机是美国人发明的,经过一番标准化,最早的电视制式是NTSC(National Television Standards Committee),主要在北美、日本、台湾等使用60Hz交流电的地区被使用,场频60Hz,30帧/秒(彩色视频图像为29.97帧/秒),每帧525条扫描线,隔行扫描,其中除去同步及其他用途的扫描线若干外,用于显示电视信号的扫描线有480条。电视画面一直是按照横竖4:3的比例显示的。
后来经过改进,又出现了PAL(Phase Alternation by Line)制式的标准,应用于50Hz供电的地区,如中国、英国、欧洲、非洲和中东等地区。场频50Hz,25帧/秒,每帧625条扫描线,用于显示电视信号的扫描线有576条。
最早的个人电脑如Apple是使用电视机作显示器的,当时的电脑由于容量速度等原因,显示画面比较粗糙,所以采用了电视扫描线数480线的一半,即水平240线,垂直按照4/3的比例自然是320。这就是当时的CGA显示分辨率:320x240。
后来随着计算机技术的不断发展,电脑显示器也同电视机越来越分化,像素越增越多,但像素仍然是按照4/3来分割的,如:640x480、800x600、1024x768、1152x864等等。
为了使电视信号数字化,人们制定了一系列标准。用于电视扫描线不能随意改变,视频图像垂直取样数只能按照576线(PAL制)或1/2、1/4等分即288、176等像素数,而水平方向则可以有较多选择,因而可有720x576、704x575甚至有480x576这样水平像素少于垂直像素的奇怪组合(这就是SVCD的标准),PAL制VCD画面采用352x288像素标准。
在电视工业中,分辨率分为水平分辨率和垂直分辨率,在大多数情况下两者是相等的,因此在技术指标中一般仅给出水平分辨率,其度量单位电视线也往往简称为线。从前面的定义中可知, 这种分辨率是以人眼的感觉为标准的,因此要靠大量的实验统计才能得出。按我们国家现行的电视标准,宽高比为4:3,扫描行数为625行。去掉扫描逆程期, 有效扫描行数是576行,相应的有效像素为768×576(720×576),因此768×576(720×576)也是电视图像与数字图像相互转换的标准。但此时的分辨率也可说是电视系统的极限分辨率, 为625×0.7=438线。
由此也可看出,有效像素数与分辨率中的黑白条纹数并不是1∶1的对应关系。影响分辨率的因素有很多,通常以电视设备中亮度信号的频带宽度×8 0线/MHz来估算分辨率的大小。比如,我们广泛使用的视频捕捉卡,其模拟信号的带宽最好的也就是5MHz,因此其分辨率也就是400线。电视设备的分辨率总的来说是较低的, 家用VHS型录像机的分辨率仅
略高于250线,电视机与计算机显示器也无法相提并论,电视机的点距(相当一光点直径)一般为0.6mm~0.8mm,其DPI值在40以下,一台29英寸电视机的分辨率仅在4 10线左右。
总的说来,设备分辨率反映了硬件设备处理图像时的效果,图像分辨率指标的高低反映了图像清晰度的好坏。认清设备分辨率和图像分辨率的关系, 在图像处理中选择合适的设备分辨率值和图像分辨率值,既能保证图像质量,又能提高工作效率和减少投资。
希望对你有帮助~~