그림 (참고1)
카메라 모듈 내의 레지스터에서 구간화(binning), 수평방향 뒤집기(horizontal flip), 수직방향 뒤집기(vertical flip), 일부분 무시하기(line skipping) 같이 기본적인 연산들을 수행한다 (1:Registers). 특히 구간화는 디지털 신호로 변환되는 과정을 거치기 전에 수행되어 노이즈를 줄여 주는 데 큰 역할을 한다. 이렇게 한 번 카메라 자체 레지스터에서 처리된 1개의 행 픽셀값들이 케이블을 통해 스트리밍되어 GPU 의 CSI-2 인터페이스로 이동한다. Unicam component 는 이 1개의 행에 해당하는 조각을 RAM 에 쓰게 된다 (2:Unicam→RAM). 이러한 조각들을 모아 주고([Photogrammetry Assembling complete frame buffers from these lines](https://janghoo.notion.site/Assembling-complete-frame-buffers-from-these-lines-cf2855cbfc044a1bac7c8f1eaa68c94f)), 다양한 후처리를 해준 뒤 다시 RAM 에 넣어주는 것은 온전히 ISP**(3:Image Signal Processor)**의 몫이다 (언뜻 언젠가 컴퓨터구조, 임베디드 수업에서 많은 스마트폰 제조사들의 사진의 색감이나 화질들이 다른 것은 이 ISP 의 영향이 크다고 하셨던 교수님의 말씀이 떠올랐다. Iphone 의 ISP SW 가 굉장히 뛰어나다고.) (참고2).
ISP 가 하는 후처리의 종류는 굉장히 다양하다. Digital gain 값을 bayer pattern 에 적용하여 디지털화된 값을 증폭시키는 것 (참고4) 이나 화이트밸런스 (참고5), 렌즈왜곡 (참고6) 제거, 샤프닝 (참고7), 밝기, 대비, 채도조절, 해상도조절 (참고8:맨 마지막에 수행되는 해상도조절), 색상처리처럼 우리에게 잘 알려진 연산들은 대부분 이 단계에 해당한다 (참고3:이렇게 유명한 것들 외 ISP 가 수행하는 작업들에 무엇이 있는지 확인해 보자).
이렇게 ISP 블럭을 지나 RAM 에 다시 적재된 데이터는 영상의 행 파편이 아니라 완전한 영상의 형태라고 할 수 있다. 이때 영상의 포맷은 우리가 흔히 알고 있는 RGB 형태일수도 있고, YUV 형태일수도 있다. 우리는 평소 RGB 형태의 정보를 행렬 형태로 읽어들여 다양한 작업을 한 경험이 있지 않은가! 드디어 반가운 데이터 포맷을 마주할 수 있는 순간이다. 우리가 picamera api 의 capture()
과 같은 계열의 영상 취득 메서드를 통해 단순히 단일 영상을 얻고자 한다면, DMA 를 통해 (참고11:DMA 와 영상 요청에 대한 callback 과정) CPU RAM 으로 데이터를 넘기고 우리는 변수에 값을 받아볼 수 있게 된다**(4:GPU RAM→DMA→CPU RAM)** (참고9).
하지만 우리는 RAW 영상을 얻는 것이 아니라, 인코딩된 결과를 얻어야 할 때도 있다. 대표적으로 영상이 아니라 동영상을 얻어야 할 때, 모든 RGB 값들을 하나하나 쌓아 동영상을 만들지 않고, H264, MJPEG, MPEG 같은 과정을 통해 인코딩을 하게 된다 (참고14:인코딩과 코덱). 동영상뿐 아니라 JPEG 와 같은 포맷으로 인코딩시키려는 영상도 마찬가지이다. H264 블럭 또는 JPEG 블럭은 인코딩을 위해 특별히 설계된 하드웨어이다. JPEG 블럭은 DCT(참고12:Discrete cosine transform) 에 특화된 하드웨어 디자인일 것이고, H264 블럭은 연속된 영상에서 움직임을 포착하는 것에 특화된 하드웨어 디자인일 것이다 (이영렬 교수님은 이런 것을 주로 다루시면서 발명하고 특허도 내고 하고계시는것이겠군). 이런 블럭들을 통과한 영상을 다시 RAM 에 저장한다 (5:JPEG,H264 block). 인코딩된 영상은 마찬가지로 DMA 를 통해 (참고11:DMA 와 영상 요청에 대한 callback 과정) CPU RAM 으로 넘겨주게 된다 (6:GPU RAM→DMA→CPU RAM) (참고10).
마지막으로 VCHI 를 통해 (참고11:VCHI) CPU 와 정보를 주고받으며 (7:Linux-VCHI-VPU) 앞서 글에서 언급한 JPEG/H264 블록, ISP 블록, Unicam 블록을 동등하게 제어하는 역할은 VPU 에서 돌아가고 있는 GPU 용 OS VCOS 의 역할이다 (참고13).
카메라 이미지센서에서 ADC 를 거치기 전 binning 을 하는 이유가 무엇인가?
카메라 대수 (resolution: HD), 영상처리 디바이스 스펙, 데이터 압축 여부, 통신장치 스펙, 통신망, 지역의 상관관계
라즈베리파이의 경우에는 카메라케이블을 통해 연결하는 MIPI CSI 의 대역폭이 1.x Gbps 정도로 제한되어 있다. 그렇다면 USB 3.0 혹은 USB 2.0 케이블을 통해 카메라를 연결해도 동일한 제약조건을 받게 되는건가?
MIPI CSI 케이블이 아닌 USB 3.0 혹은 USB 2.0 케이블을 통해 카메라를 연결한다고 하더라도 라즈베리파이의 비디오 스트림 VideoCore GPU 처리 파이프라인을 그대로 통과하게 되는 것인가?
MIPI CSI 가 한 덩어리이고 USB 를 통한 카메라 연결은 MIPI 와 아무런 연관이 없는건가?
참고
- The diagram below depicts a more accurate representation of the GPU side of the BCM2835 SoC.
- In the diagram, an H264 video is being recorded. The components that data passes through are as follows: 1. Starting at the camera module, some minor processing happens. Specifically, flips (horizontal and vertical), line skipping, and pixel binning are configured on the sensor’s registers. Pixel binning actually happens on the sensor itself, prior to the ADC to improve signal-to-noise ratios. See hflip, vflip, and sensor_mode. 2. As described previously, frame lines are streamed over the CSI-2 interface to the GPU. There, it is received by the Unicam component which writes the line data into RAM. 3. Next the GPU’s image signal processor (ISP) performs several post-processing steps on the frame data.
- (1) Transposition: If any rotation has been requested, the input is transposed to rotate the image (rotation is always implemented by some combination of transposition and flips). (2) Black level compensation: Use the non-light sensing elements (typically in a covered border) to determine what level of charge represents “optically black”. (3) Lens shading: The camera firmware includes a table that corrects for chromatic distortion from the standard module’s lens. This is one reason why third party modules incorporating different lenses may show non-uniform color across a frame. (4) White balance: The red and blue gains are applied to correct the color balance. See awb_gains and awb_mode. (5) Digital gain: As mentioned above, this is a straight-forward post-processing step that applies a gain to the Bayer values. See digital_gain. (6) Bayer de-noise: This is a noise reduction algorithm run on the frame data while it is still in Bayer format. (7) De-mosaic: The frame data is converted from Bayer format to YUV420 which is the format used by the remainder of the pipeline. (8) YUV de-noise: Another noise reduction algorithm, this time with the frame in YUV420 format. See image_denoise and video_denoise. (9) Sharpening: An algorithm to enhance edges in the image. See sharpness. (10) Color processing: The brightness, contrast, and saturation adjustments are implemented. (11) Distortion: The distortion introduced by the camera’s lens is corrected. At present this stage does nothing as the stock lens isn’t a fish-eye lens; it exists as an option should a future sensor require it. (12) Resizing: At this point, the frame is resized to the requested output resolution (all prior stages have been performed on “full” frame data at whatever resolution the sensor is configured to produce). See resolution.
- deer.b3.1.1.3. [info] title:
카메라의 gain