001꿈2001 2K (1080 FHD)의 해상력만 놓고 본다면,
파나소닉은 동영상의 센서 활용 방식이 다른 업체 기종들과 달라서 우수한 편입니다.
4K 기종부터는 파나가 소니나 삼성에 비해 열세가 되었다고 할 수도 있습니다만... ^^2015-12-01 17:14 신고
002아타 4K라고 해봐야 800만화소뿐이 안됩니다.
마포센서도 다 안쓰고 크롭되죠.
동영상은 사진과 다른영역이죠.
겨우 800만 화소지만 지속적으로 찍어 이어서 영상을 만드는것은 꽤나 어려운 작업입니다. 센서발열도 많고 정보 처리량도 무시무시 해지죠.
근데 크롭만큼 큰 센서를 모두 읽어서 4k로 만드는 삼성 NX1은 정말 괴물인것입니다. 2015-12-01 17:33 신고
003워프짱™ 파나소닉은 포서드에서 라이브뷰 기술을 개발하면서 마이크로포서드에서는 사진기+동영상을 목표로 개발을 했습니다.
그래서, 센서뿐만 아니라 렌즈부터 세세한 부분까지 동영상을 염두해두고 설계했어요....
그리고, FHD는 1920 x 1080으로 약 200만화소밖에 안됩니다. 마포센서의 시작은 12MP였고, 16M까지 올라갔는데... 저 상황에서 센서일부만을 사용하는 라인스키핑을 했더라면 경쟁력 자체가 없었죠. 그래서 GH시리즈에서 픽셀비닝이라는 방식으로 센서전체를 활용하는 방식을 사용합니다.
이는 GH1, GH2로 이어졌고, 그 하위 기종들은 평범한 라인스키핑방식이어서 실제로 동영상도 화질은 고만고만했습니다. 이후 GH3에서 멀티에스펙트를 포기하고 그냥 마이크로포서즈 센서를 쓰기 시작하면서, GH2센서의 사골도 끓이기 시작했죠.
GH2센서는 멀티에스펙트 기능을 거세당한체 G5, G6까지 사용됩니다. 그래서 최초로 GH시리즈가 아닌 하위기종에 픽셀비닝이 보급되었고, GH3에서 소니센서를 수혈하면서까지 버티던 파나소닉은 GX7에 이르러서 자사의 센서로 그제서야 GH3 소니센서와 비등비등한 센서를 내놓게 되었고, 여기에 픽셀비닝을 탑재합니다.(GH3는 여러가지 면에서 아직까지 약간 미스테리로 남아있습니다.)
그리고, GX7센서와 같은듯 약간은 다른 GH4센서도 발표합니다.(이것도 사실 미스테리입니다) 이후에 GX7 센서를 쓴 하위 라인업들이 발표되면서 파나 마포에서는 전체적으로 FHD나 HD에서는 모두 픽셀비닝을 사용합니다. GX7, GM1, GM1S, GM5, G7으로 사골을 끓이죠. 거기에 LX100도 하이브리드지만 GX7의 센서를 사용하고, 렌즈의 이미지써클을 줄여서 멀티에스펙트를 구현합니다.
거기에다가 GX7의 센서를 사용한 G7과 LX100은 UHD 4K도 지원합니다.(도대체 GH4와 무슨차이가?)
여기까지가 파나 마포기기들이 동영상이 좋다고 회자되던 스토리입니다. FHD때 처음 도입한 H264코덱도 GH1때는 누더기 코덱이라 불렸다가, 뒤로 가면서 계속 개선되었고, 렌즈들도 HD 마크를 달고 출시되었으며, 이제는 몇몇 렌즈말고는 HD를 굳이 달지 않아도 기본적으로 영상 녹화시에 AF소음이 녹음되지 않습니다.
하지만, 이때까지 쌓았던 명성은 UHD시대에 들어서면서 반대로 역공을 당했죠.
4:3의 16MP센서는 16:9로 잘랐을때 약 12MP정도 됩니다. UHD 4K는 8.3MP나 되는 화소가 필요하기 때문에 픽셀비닝의 2x2는 꿈도 꿀수 없습니다.
전화소 읽어오기&리사이즈도 12MP정도에서는 픽셀비닝처럼 그다지 효과도 없습니다. 그렇다고 라인스키핑을 쓸수도 없죠. 결과적으로 센서의 중앙부분 8.3MP만 사용할 수 있어서 크롭 4K라는 오명을 씁니다.
NX1이 잘치고 나온 부분이 이런 부분입니다. NX1은 28MP센서를 개발했으며, 16:9화각에서 24MP정도로 2x2는 부족하지만, 리사이즈시 충분할 정도의 화소를 갖고 있습니다. 그리고, 파나와는 다르게 센서단 픽셀비닝은 하지 않았기 때문에 전화소 읽어오기&리사이즈의 대역폭 부담은 다분히 모두 이미지 프로세서가 지게 됩니다. 즉, 24MP의 화소를 초당 30프레임으로 센서에서 읽어내서 리사이즈를 해야할 만큼 강력한 성능의 이미지프로세서도 개발했죠.
여기서 픽셀비닝(센서단)의 장점을 언급하자면, 센서단에서 리사이즈가 되면 프로세서로 보내지는 데이터의 량은 딱 해상도 만큼으로 줄어들게 됩니다.
FHD의 경우에는 센서가 16MP라도 픽셀비닝모드를 쓰면 실제로 받아오는 데이터는 2MP가 되고, 4K의 경우에도 8.3MP를 처리할 정도의 성능만 있으면 됩니다. 가짜색 어쩌구 하는 이야기도 있는데 파나의 픽셀비닝이 가짜색이나 모아레&앨리아싱으로 문제된적은 없습니다.
다만, 16MP의 한계에 갖혀있던 센서특성상 UHD는 픽셀비닝을 할수가 없었던 거죠. 그러니 당연히 더 높은 프로세싱 성능을 요구하는 전화소 읽어오기&리사이즈도 도입할 수 없었습니다.
파나의 동영상이 좋고, 파나의 4K/30p 활용 기능들도 참 좋습니다만, 화질적으로는 UHD에서는 경쟁사에 비해 뒤쳐져 있습니다.
그래서 파나도 센서테크에 사활을 걸고 있는걸로 보이고, 그 차이를 좁힐 수 있는 방법은 벌써 2년전부터 개발하고 있는 후지화의 합작인 유기센서입니다.
005신포도파나소닉은 오랫동안 캠코더를 만들어왔습니다. 그 경험으로 카메라는 동영상 대신 사진을 촬영하도록 만들면 되겠지 했다가 크게 망하고, 캠코더와 카메라는 다르다고 인식하고 라이카와 제휴합니다.
이것을 반대로 말하면 카메라와 캠코더는 다르다는 것도 될 겁니다. 디지털 카메라를 만들어온 회사라면 코덱을 얹어 동영상으로 저장하게만 하면 된다든지 그런 간단한 문제가 의외로 아니라는 것이지요. 2015-12-02 08:55 신고
신포도[워프짱™] 디지털카메라가 처음 선을 보이던 시절의 이야기입니다. 파나소닉은 90년대말 카메라 사업의 실패 이유를 1. 카메라 기술은 캠코더 기술과 다르다, 2. 카메라는 브랜드가 중요하다. 두 가지로 결론을 내리고 라이카와 제휴합니다(2001년).2015-12-04 00:10 신고
"이것을 반대로 말하면 카메라와 캠코더는 다르다는 것도 될 겁니다. 디지털 카메라를 만들어온 회사라면 코덱을 얹어 동영상으로 저장하게만 하면 된다든지 그런 간단한 문제가 의외로 아니라는 것이지요. "
파나소닉 미러리스가 동영상으로 명성을 얻게된건 2009년 GH1 출시이후입니다. 이후에 GH2, GH3를 거쳐서 GH4까지 오면서 동영상은 파나소닉이란 명성을 얻은거구요. 말씀하신 90년대말이랑은 너무 동떨어져요.
그리고 미러리스전까지 카메라와 캠코더는 센서도 같은걸 쓰지 않았습니다. 파나소닉은 3CCD를 썼고, 이후에도 한동안 3MOS를 썼죠. GH2이후에 AF100에서 GH2센서를 이용한 캠코더를 발매했었고, 이것도 시원하게 망해서 한동안 후속기가 없다가 올 중순이후에 GH4센서를 사용한 DVX-200을 발표했구요.
90년대말 카메라사업 당시에는 맞는 말일수 있지만, 파나가 사진기용 카메라에서 동영상으로 명성을 얻기 시작한건 한참후이기 때문에 별로 상관관계가 없습니다.
그렇게 되기까지의 간략 과정을 제가 위에서 댓글로 달아놓은거구요.
캠코더용 센서들은 해상도가 낮아서 사진기용으로 쓰기 어려웠습니다. 사진기용 센서는 CCD시절에는 발열문제로 라이브뷰를 사용할수 없었고, CMOS로 전환되고 발열문제가 해결되며 라이브뷰가 시작되었죠. 그리고 이 라이브뷰를 통해서 사진기용 센서도 동영상용으로 쓸수 있다는 점이 확인되었고, 사진기용 고화소 센서를 동영상용 저화소로 사용하는데 대안 방식들이 사용되기 시작했습니다.2015-12-04 13:38 신고
베이어패턴을 사용하는 이미지센서들은 사실 모두 2x2 인터폴레이션을 하는 중이기도 합니다.
픽셀비닝은 단순히 그냥 인접화소를 혼합한다는 의미이고, 이를 혼합할때 베이어패턴 특성상 2 x 2부터 효과가 있습니다.
이를 프로세서단에서 센서의 데이터를 다 읽어온후에 리사이즈 할때 2x2형태로 해도 되고 3x3형태로 해도 됩니다. 또는 고유 알고리즘으로 리사이즈시 모아레나 앨리아싱이 없도록 잘 하기만 해도 됩니다.
다만, 이럴경우에는 전화소 데이터를 읽어오기 때문에 센서의 리드아웃 스피드 대역폭에 제약을 받습니다. 이를 감당할 수 있는 빠른 리드아웃 센서와 이미지 프로세서가 있다면 전혀 문제가 안돼는 내용입니다. 여기에 해당되는 센서와 이미지 프로세서가 NX1에 사용된 28MP센서와 이미지 프로세서입니다.
A7R II의 경우에는 42MP라는 고화소의 리드아웃스피드를 향상시키기 위해서 DRAM 버퍼를 넣었지요.
다만, 픽셀비닝으로 일컬어지는 파나소닉의 리사이즈 방식은 센서단에서 행해지며, 아예 센서에서 데이터를 가져올때 픽셀비닝 모드를 선택할 수 있습니다. 그래서 센서단 픽셀비닝이라고 불리우며, 16MP센서 기준 FHD는 2x2, HD는 3x3 비닝이라고 스펙상 기록되어 있습니다.
픽셀비닝이나 리사이즈나 사실 나타나는 효과는 비슷합니다. 둘다 리사이즈 효과를 내기 때문입니다.
다만, 픽셀비닝 모드의 장점은 센서단에서 리사이즈를 하기 때문에 가져오는 데이터량이 FHD기준 2MP, UHD 4K기준 8.3MP만 가져오면 되기 때문에 같은 대역에서는 데이터량이 적어서 롤링셔터가 감소하는 효과가 나타납니다.(4K는 현재 화소수가 너무 적어 픽셀비닝을 못하고 있습니다.)
그 밖에도 픽셀비닝이나 리사이즈는 동영상에서 고감도노이즈 성능이 1스톱정도 향상되며, 해상력의 증가도 가져옵니다. 모아레와 앨리아싱은 단순히 여기서만 통제되는건 아니고, 로우패스필터와 밀접한 관계가 있는걸로 추정됩니다.
전화소 읽어오기는 픽셀비닝 처럼 2x2나 3x3이외에 여러가지 방식을 쓸수도 있기 때문에 단순히 픽셀비닝으로 부르기에는 좀 맞지 않는거 같습니다. 다만 두 방식다 효과는 비슷하다는 점이 중요합니다.
다만 전화소읽어오기 without 픽셀비닝이란 용어는 파나소닉의 동영상과 차별화하기 위해서 붙인 마케팅용어 정도로 이해하는거 더 맞는거 같습니다. 그 옆에 적혀 있던 전화소읽어오기 with 픽셀비닝이란 말은 앞뒤가 맞지 않거든요.2015-12-04 23:33 신고
회원정보
아이디 : ggum2001
닉네임 : 꿈2001
포인트 : 9363 점
레 벨 : 정회원(레벨 : 8)
가입일 : 2009-06-04 20:16
포토앨범보기 쪽지보내기