衛星遙感圖像的成像原理和普通圖像有哪些差異呢? | 知乎問答精選

 

A-A+

衛星遙感圖像的成像原理和普通圖像有哪些差異呢?

2019年07月21日 知乎問答精選 暫無評論 閱讀 1 ℃ 次

【知乎用戶的回答(2票)】:

這個問題怎麼說好呢,相機成像原理都是一樣,就是傳感器接受到外界光子,要麼形成電壓信號,要麼形成電流信號,然後轉換成我們所熟悉的pixel。

我覺得題主應該是想問遙感的圖片和普通照相的圖片有什麼區別吧。簡要解釋一下,普通相機基本是採用三色圖,也就是RGB,紅綠藍,有個很典型的東西叫做Bayer Filter(圖片來自wiki)

就是有的pixel專門接受綠色光,有的專門接受紅色,有的專門接受藍色。一個小tip:因為人眼的關係,紅色filter:綠色filter:藍色filter=1:2:1,這樣的圖片對於我們人眼來說很容易辨識的。通過這樣的filter,相機再把圖片處理成最終我們在digital camera上看的彩色圖。就是有的pixel專門接受綠色光,有的專門接受紅色,有的專門接受藍色。一個小tip:因為人眼的關係,紅色filter:綠色filter:藍色filter=1:2:1,這樣的圖片對於我們人眼來說很容易辨識的。通過這樣的filter,相機再把圖片處理成最終我們在digital camera上看的彩色圖。

至於說遙感圖片,這個是需要區分波段的,VNIR(可見光到近紅外),SWIR(短波紅外),MIR(中波紅外),LIR(長波紅外),為什麼要這樣區分,因為在不同波段下,光的性質會有不同,材料對光的反應也會不一樣,因此sensor的材料要相應進行改變,比如VNIR的sensor用的是silicon,SWIR的sensor用的是HgCdTe。那麼為什麼遙感需要不同波段的信息呢,一個最主要的原因,茫茫世界光靠可見光的顏色我們人是分不出來不同物質的。同樣是綠色,氣球和森林,光憑肉眼如何區分,再加上從萬里高空看下來,甚至連氣球都看不見了。於是我們需要借助不同波段下,物質對光的反應來區別它們。因此遙感的圖片是一個三維的data,既兩維的空間和一維的波段。而且這些圖片基本都是採用灰度圖片,只告訴你數值,關於顏色和灰度圖請參考我的這個回答如何讓正常的人眼看到更寬廣的色域範圍? - 知乎用戶的回答。因此遙感圖片會比普通圖片包含更多的信息

如果還有不理解的部分,請追問

【知乎用戶的回答(1票)】:

簡單說,不喜請繞路,不喜歡跟人吵

成像原理肯定是差不多的:

1.成像的範圍不同(一個大一個小一個遠一個近)

2.地物特點不同(這個顯然)

3.影像圖像降質的因素不同,因而降質特點也不同(普通相機主要關心的是曝光什麼的,降質的話突出一個防抖,拿相機的時候手容易抖,噪聲,out of focus或者motion blur這些降質;遙感圖像穿過了那麼多介質,外太空、大氣層、散射、衛星相對地球運動,發射時產生誤差,光學儀器本身的誤差,肯定是有自己的特點和一套理論的)。

4.其他的就比如遙感圖像成像是多光譜或者高光譜傳感器,會有一些多光譜、高光譜圖像,有多個波段,這時候就可以考慮一個光譜的特點,解混啥的,這個肯定是三波段彩色自然圖像不具備的

總結的話,由於確實成像原理沒啥大區別,很多圖像處理的東西就可以直接拿過來遙感用,但是遙感圖像本身是有很多特點值得研究的,這一套我推薦你去看看這個組:

張良培教授的個人網站

over

【知乎用戶的回答(0票)】:

謝邀。

衛星遙感正如國家的高分衛星,其採用的是微波遙感,利用微波散射特性成像。一般圖片成像我就不解釋了,估計都懂

標籤:-光學 -光學儀器 -遙感圖像處理 -衛星遙感 -成像原理


相關資源:





給我留言