1, a74拍4k60都係有crop
2, 你可以咁講
3, 好唔好主要都係睇需求,a7s3塊12MP cmos iso表現係好,但都有後期裁切空間不足/上唔到6k/8k嘅問題
btw 拍片裁切問題關乎佢採樣方式多過係遷就Super35
而每部機每種格式用邊種採樣就關乎散熱/processor/設計/成本等
當然同一部機兩者都有(eg FF 4k60p+crop 4K60p)俾用家揀就最好
https://www.techbang.com/posts/53279-crack-video-myth-video-with-the-camera-image-size-is-really-focused-on-it
片幅越大,錄影就越好嗎?
影像品質取決於片幅,這句話對「拍照」來說或許是正確的(但非絕對),因為大尺寸的感光元件理論上可以獲取更多光線,並且像素密度可以做到更低,使得低光源高感度雜訊更少。舉例來說,全片幅相機在色彩深度、動態範圍、寬容度、高感度表現上通常都會優於小片幅的相機,但對錄影來說,片幅越大是不是畫質越好呢?
答案是「不一定」
我們在用相機拍照時,使用的是感光元件全部的有效畫素,但在錄影時卻並非如此。舉例來說,一台 2,000 萬畫素、具備 Full HD 錄影功能的單眼相機,它在錄影並不是全部的畫素都在工作。以 Full HD 畫質來說,整個畫面總共也才 1920 x 1080=約 207 萬畫素而已,意味著這台相機雖然有 2,000 萬的有效畫素,但在錄影時僅僅只會輸出約十分之一的畫素,而若是 4K 畫質的錄影也僅有 3840x2160=約 829 萬畫素,仍佔不到一般數位相機的一半畫素。
取樣方式是重點
因此,相機在處理錄影時的邏輯有幾種,其一是隔行採樣(Line-Skipping),相隔幾個 Pixel 取一個畫素作為真實的像素點輸出,這是目前較多數的取樣方式。其二是像素合併(Pixel Binning)相鄰幾個 Pixel 合併成一個畫素輸出,這兩種方式的差異在於感光元件對錄影的取樣多寡,前者是僅利用最低限度的的像素去完成錄影,較多的像素點資訊會被犧牲,後者則是運用較多的像素點,所輸出的影像資訊也較齊全。
另一種方式是像素裁切(Sensor Cropping),相機只取畫面較中央的畫素做錄影輸出,錄影出來的畫面會讓人有種較「拉近」的感覺,這是因為錄影裁切了畫面中央,因此給人錄影畫面可以拍較遠的錯覺。許多裝置都是用此原理在錄影的,例如 iPhone 一般錄影以及 Canon 5D Mark IV 的 4K 錄影畫面皆有經過裁切,另一方面 Sony 的 Super 35mm 格式也是經過裁切的格式(等同於 16:9 的 APS-C)。