파나소닉은 컨트라스트AF + DFD AF방식을 사용하는데, 그러다보니 사진/영상에서의 속도가 다릅니다. 그 이유는 사진의 경우에는 사진을 찍기 전까지는 프레임레이트 부스팅을 해서 AF에 사용할수가 있습니다. 현재 마포 & 풀프 둘다 바디에서 프레임레이트 부스팅을 모두 480Hz로 하고 있습니다. A9는 60Hz라고 자랑하고 있죠. 이렇게까지 부스팅을 하는 이유는 컨트라스트AF 기반이기 때문에 마지막 촛점을 맞출때 10정도가 필요합니다. 그래서 프레임레이트 부스팅을 해서 속도를 높이는 방식입니다. 그런데, 영상의 경우에는 프레임레이트가 고정됩니다. 부스팅을 쓸수가 없는거죠. 그래서 사진과 영상에서의 AF속도가 차이가 납니다.
또한 컨트라스트AF의 특징은 프레임내의 피사체와의 거리와 관계없이 그냥 컨트라트스가 높은쪽에 촛점을 맞춥니다. 그래서 멀티포인트(225)로 AFC를 할 경우 의도하지 않는 곳에 AF가 맞는경우가 꽤 있습니다. 놓치는 경우도 있구요.... 그래서 이점을 보완하는게 센서위상차와 DFD AF입니다. 센서위상차와 DFD는 하는 역할은 같지만, 구조가 하드웨어 vs 소프트웨어로 나뉘기 때문에 장단점이 있습니다. 쓰려다보니까 너무 많네요...
뭐 다 생략하고... 컨트라스트AF는 촬영자가 생각하는 촛점이 맞아야하는 구간과 실체 촛점이 맞는 컨트라스트 높은 구간이 다를수 있다는 점이 문제입니다. AFS일때는 프레임을 살짝 옮겨서 내가 원하는곳에 촛점이 맞으면 다시 구도를 잡고 촬영이 가능하지만, AFC에서는 답이 없습니다. 그래서 딥러닝 AI AF를 통해서 우선 검출하는 촛점을 늘이는게 중요합니다. 그래야 촛점 정확도가 높아지니까요...
듀얼픽셀의 위상차포인트나 센서위상차의 위상차포인트, 그리고 DFD AF도 모두 거리만 검출이 가능하지, 검출된 물체를 판별은 할수 없습니다. 그래서 라이브뷰를 사용하는 모든 AF시스템은 컨트라스트AF를 기본으로 같이 동작하며, 자꾸 딥러닝 AI AF를 개발하고 있습니다.
링크에 동체추적 20연사에 관한 내용이 있습니다.
파나소닉은 컨트라스트AF + DFD AF방식을 사용하는데, 그러다보니 사진/영상에서의 속도가 다릅니다. 그 이유는 사진의 경우에는 사진을 찍기 전까지는 프레임레이트 부스팅을 해서 AF에 사용할수가 있습니다. 현재 마포 & 풀프 둘다 바디에서 프레임레이트 부스팅을 모두 480Hz로 하고 있습니다. A9는 60Hz라고 자랑하고 있죠. 이렇게까지 부스팅을 하는 이유는 컨트라스트AF 기반이기 때문에 마지막 촛점을 맞출때 10정도가 필요합니다. 그래서 프레임레이트 부스팅을 해서 속도를 높이는 방식입니다. 그런데, 영상의 경우에는 프레임레이트가 고정됩니다. 부스팅을 쓸수가 없는거죠. 그래서 사진과 영상에서의 AF속도가 차이가 납니다.
또한 컨트라스트AF의 특징은 프레임내의 피사체와의 거리와 관계없이 그냥 컨트라트스가 높은쪽에 촛점을 맞춥니다. 그래서 멀티포인트(225)로 AFC를 할 경우 의도하지 않는 곳에 AF가 맞는경우가 꽤 있습니다. 놓치는 경우도 있구요.... 그래서 이점을 보완하는게 센서위상차와 DFD AF입니다. 센서위상차와 DFD는 하는 역할은 같지만, 구조가 하드웨어 vs 소프트웨어로 나뉘기 때문에 장단점이 있습니다. 쓰려다보니까 너무 많네요...
뭐 다 생략하고... 컨트라스트AF는 촬영자가 생각하는 촛점이 맞아야하는 구간과 실체 촛점이 맞는 컨트라스트 높은 구간이 다를수 있다는 점이 문제입니다. AFS일때는 프레임을 살짝 옮겨서 내가 원하는곳에 촛점이 맞으면 다시 구도를 잡고 촬영이 가능하지만, AFC에서는 답이 없습니다. 그래서 딥러닝 AI AF를 통해서 우선 검출하는 촛점을 늘이는게 중요합니다. 그래야 촛점 정확도가 높아지니까요...
듀얼픽셀의 위상차포인트나 센서위상차의 위상차포인트, 그리고 DFD AF도 모두 거리만 검출이 가능하지, 검출된 물체를 판별은 할수 없습니다. 그래서 라이브뷰를 사용하는 모든 AF시스템은 컨트라스트AF를 기본으로 같이 동작하며, 자꾸 딥러닝 AI AF를 개발하고 있습니다.
라이브뷰 AF에서의 미래는 그래서 딥러닝 AI AF인 것이기도 하구요.