총 152 건
3D 기본 교육 - 기본 용어 정리 안녕하세요 화인스텍 마케팅 팀입니다. 화인스텍 블로그를 찾아주셔서 감사합니다. 오늘은 머신비전 3D 검사 기본 용어에 대해 포스팅하겠습니다. 1. 데카르트 좌표 머신비전 3D 검사를 볼 때 가장 기본인 좌표입니다. 데카르트 3D 좌표계라고 하는데 이름은 어렵지만 아래 이미지와 같이 AutoCad 는 물론 3D Tool에서 항상 보던 그 녀석입니다. <사진 1> 데카르트 좌표 X, Y, Z 축의 하나의 점으로 표현하여 위치를 나타냅니다. 2. Depth Map(Height Map, Range Map, 깊이 맵) 이미지의 각 픽셀에 세 번째 좌표가 Gray value로 표현된 2D 이미지입니다. 픽셀 값은 물리적 높이 값이 아닌, 광 삼각 측량의 레이저 라인 프로파일의 변위를 나타내고 Calibration 단계를 거쳐 Point Cloud, ZMap으로 변환하는데 사용됩니다. Depth Map은 아래와 같은 이미지입니다. <사진 2> Depth Map Image 3. Point Cloud Data(PCD) 스캔 된 객체를 나타내는 3D 점 좌표의 집합이라고 생각하시면 됩니다. 3D Processing에 사용됩니다. <사진 3> Point Cloud Data(PCD) 4. Mash 3D Point Cloud Data 점들을 연결하여 3D 표현으로 만드는 표현방식입니다. 단어 그대로 그물망처럼 점을 이어 표현하는 방식입니다. <사진 4> Point Cloud Data 와 Mash 표현 5. ZMap 3D 데이터 표현 방식 중 다른 방식입니다. 2.5D Image라고 부르기도 합니다. 메트릭 및 Calibration이 적용된 이미지이며, 픽셀 값에 물리적 높이 값이 적용되어 있습니다. ZMap에서는 우리가 일반적으로 사용하는 2D Processing 가능합니다. <사진 5> ZMap 6. LLE(Line Laser Extraction) 카메라 센서로 획득된 레이저 프로파일로 Depth Map을 생성할 수 있습니다. LLE 알고리즘에 따라 정확도가 달라질 수 있는 점은 숙지하셔야 합니다. <사진 6> LLE 생성 과정 아래 EURESYS에서 출시한 Coaxlink LLE Framegrabber에 알고리즘이 탑재되어 있습니다. <사진 7> EURESYS Coaxlink Quad 3D-LLE CoaxPress Interface Camera만 있다면 3D Camera처럼 사용이 가능합니다. 무료 소프트웨어 #머신비전 3D 무료소프트웨어 를 소개해 드릴까 합니다. 1. ImageJ Software 간단한 이미지 분석이 가능한 무료 소프트웨어이며, 16Bit Image View 가 가능합니다. 실제로 3D Depth Map Image는 16Bit 이미지로 윈도 기본 뷰어에서는 제대로 보이지 않습니다. <사진 8> ImageJ 이미지 뷰어 차이 2. CloudCompare Software 3D 포인트 클라우드 데이터 프로세싱 무료 소프트웨어입니다. 3D (Point Cloud Data) 확장자 : .PCD .PLY .CSV .XYZ … 등 지원을 합니다. <사진 9> CloudCompare Software CloudCompare는 3D 포인트 클라우드 프로세싱 소프트웨어입니다. 3D 포인트 클라우드 데이터를 편집하고 랜더링하기 위한 기본 도구 세트를 제공하며 통계 계산, 색상, 거리 측정, 리샘플링 등의 고급 기능도 제공하는 소프트웨어입니다. 오픈소스 프로젝트이며 무료 소프트웨어이기 때문에 누구나 사용할 수 있습니다. 머신비전 3D 검사 기본 용어에 대해 살펴봤습니다. 도움이 되셨길 바라며, 다음 포스팅 때 뵙겠습니다.
2022.05.17머신비전 3D 검사 광 삼각법 사용 예시 안녕하세요? 화인스텍 마케팅 팀입니다. 화인스텍 블로그를 찾아주셔서 감사합니다. 이번 시간은 3D 기본 교육 중 광삼각법 사용 예시에 대해 포스팅하겠습니다. 머신비전 3D 검사 중 광 삼각법 중 크게 아래와 같이 나눌 수 있습니다. Standard Reverse Specular Look Away Dual-Head Sensor Dual Laser 하나씩 순차적으로 알아보겠습니다. 1. Standard <사진 1> Standard 장점 1. Resolution Z에 대해 간단한 계산식. 2. DOF 큰 렌즈가 필요하며 Z Range 낮음. 3. 일반적으로 많이 사용함. 2. Reverse <사진 2> Reverse 장점 1. Z Range가 증가하여 물체가 높을 경우. 2. Resolution Z 계산이 복잡함. 3. 정확도가 중요할 때 사용함. 3. Specular <사진 3> Specular 장점 1. 어두운 물체에 적합함. 2. 정반사로 인해 측정 오류 발생 가능성 있음.(빛이 포화) 3. 어두운색 질감의 물체에 사용함. 4. Look Away <사진 4> Look Away 장점 1. 최고의 측정 높이 분해능 제공. 2. Occlusion(음영) 발생 가능성 높음. 3. 반사가 심한 물체에 사용. 5. Dual Laser or Dual Head Sensor <사진 5-1> Dual Laser <사진 5-2> Dual Head Sensor 장점 1. Occlusion(음영) 영역 스캔 문제 해결. 듀얼 헤드 센서의 경우 문제가 있다면 두 개의 이미지를 하나로 합쳐야 하는데 정확히 합칠 수가 있느냐의 문제가 있습니다. 하드웨어에서 먼저 잡아야 하겠죠? 머신비전 3D 검사 이미지를 합치는 라이브러리도 많이 나와있으며 일체형 제품이 나오기도 합니다. 라이브러리 : EYE VISION
2022.05.12라인 스캔 카메라와 조명 (Illumination of Linescan Camera) 안녕하세요. 화인스텍 마케팅 팀입니다. 화인스텍 블로그를 찾아주셔서 감사합니다. 오늘은 머신비전 조명 중 라인 스캔 카메라와 조명 (Illumination of Linescan Camera)에 대해 포스팅하도록 하겠습니다. 2개 파트로 나눠서 포스팅하겠습니다. 오늘은 라인 스캔 조명의 사용방법이고 두 번째 시간에는 조명의 종류에 대해 포스팅하겠습니다. 라인 스캔 카메라는 조명과 카메라의 셋업에 따라 이미지가 매우 다르게 나타납니다. 아주 좁은 영역을 보는 것이기 때문에 광량의 차이도 매우 큽니다. 아래 몇 가지 예시를 들었는데요 어디까지나 예시일 뿐 실제 자재에서 테스트는 꼭 하셔야 합니다. <그림 1> 라인 스캔 카메라와 조명 (Illumination of Linescan Camera) Type-01 움푹 패어진 곳이나 스크래치 등을 검사할 때 가장 기본적인 구조입니다. 기구적으로 카메라 측에 부착해서 검사 대상의 움직임에 크게 간섭이 없습니다. <그림 2> 라인 스캔 카메라와 조명 (Illumination of Linescan Camera) Type-02 위 세팅은 물체의 반사가 좋을 경우에 미세한 스크래치 혹은 이물까지 검사가 가능한 구조입니다. <그림 3> 라인 스캔 카메라와 조명 (Illumination of Linescan Camera) Type-03 위 경우는 검사체가 반사가 좋을 경우 참고 이미지라고 보시면 됩니다. 정반사되는 평면은 하얗게 이미징 되고 불량 부분은 음영이 지게 됩니다. <그림 4> 라인 스캔 카메라와 조명 (Illumination of Linescan Camera) Type-04 위 경우는 Areascan 조명의 종축 조명처럼 사용하는 것입니다. 표면의 문자나 마크 인식할 때 유용하게 사용합니다. <그림 5> 라인 스캔 카메라와 조명 (Illumination of Linescan Camera) Type-05 위 경우는 (반)투명한 제질 같은 경우 빛이 평면을 통해 들어가서 스크래치 나 이불 부분에서 밝게 빛나게 하는 것입니다. 아크릴 조형물 같은 데서 이것을 이용해 효과를 보기도 하죠^^ <그림 6> 라인 스캔 카메라와 조명 (Illumination of Linescan Camera) Type-06 이 구조는 백라이트 구조이며, 구조상 조명 설치 공간이 협소하여 아랫부분에서 위로 조사가 어려울 경우 뉘어놓은 형태입니다. 일반적으로 라인조명의 내부 구조상 길쭉하기 때문에 이런 것도 검토하시면 좋습니다. 전반사 미러를 통해 백라이트로 사용하며, 빛이 통과하는 자재에 사용 가능하고 문자나 패턴 등의 불량을 볼 때 사용합니다. 어떠신가요? 도움이 되셨나요? 실제 자재로 테스트하면 좋겠지만 이해를 돕기 위해선 그림이 더 나을 것이라 판단되어 위와 같이 표현해 드렸습니다. 머신비전에서 조명을 선택할 때 꼭 명심하셔야 할 사항은 위 내용은 예시일 뿐 실제 자재에서 꼭 테스트하신 뒤에 진행하셔야 합니다. 끝까지 읽어주셔서 감사합니다. 그럼 다음 시간에 또 만나요~
2022.05.12빛의 파장과 카메라 이미지 안녕하세요? 화인스텍 마케팅 팀입니다. 화인스텍 블로그를 찾아주셔서 감사합니다. 이번 포스팅은 빛의 파장에 따른 카메라 이미지에 대해 포스팅하겠습니다. 렌즈의 색수차에 대해서는 아래 글을 참고해 주세요. 우리가 일상에서 만나는 조명은 대부분이 백색입니다. 형광등, LED 조명 등, 태양은 사람 눈에 보이는 가시광과 그 외의 파장도 갖고 있는 것은 모두 알고 있는 사실이죠. 조명의 색에 따라 색을 판단하기 어려운 경우도 있죠 노래방의 파란 형광등이나, 빨간 정육점의 빨간 형광등이 그 예죠 빨간 형광등은 고기를 더 빨갛게 보이게 해서 고기가 신선해 보이도록 눈속임하죠. 우리가 검사를 하기 위해 검사 대상체를 보는데 조명이 중요합니다. 하지만 필터를 사용하여 우리가 원하는 마크나 이물을 더욱더 쉽게 찾아낼 수 있습니다. 아래 이미지를 한번 볼까요? <그림 1> 파란 물체 어렸을 때 분명 배운 내용입니다. 하지만 이걸 써먹을 줄을 몰랐습니다. 파란 물체는 빨간색, 녹색은 흡수하고 파란빛을 반사시키기 때문에 저희 눈에 파란색으로 보이는 거죠? <그림 2> 빨간 물체 빨간 물체 또한 위와 마찬가지입니다. 빨간색은 반사하고 나머지는 흡수하죠 <그림 3> 흰색 물체 흰색 물체는 모든 빛을 반사하기 때문에 하얗고 <그림 4> 검정 물체 검정 물체는 모든 빛을 흡수하기 때문에 까맣습니다. 아래 이미지처럼 파란 배경에 빨간색 원을 찾아내고 싶다면 아래 경우로 사용할 때 확실하게 찾을 수 있을 것입니다. <그림 5> 블루필터 사용 블루필터를 사용하면 파란 배경에는 파란광만 물체에 도달하고 파란색 부분만 반사하기 때문에 빨간원은 까맣게 배경은 하얗게 나옵니다. <그림 6> 레드 필터 사용 레드 필터를 쓰면 위와 같이 원이 하얗게 나올 것입니다. 어떤 검사를 할 때 배경색과 검사할 색도 같이 검토한다면 여러분은 다른 사람들 보다 더 나은 비전 설루션을 제공할 수 있을 것이라 생각이 듭니다. 어떠신가요? 이번에는 어릴 때 배웠던 것을 리마인드 하여 머신비전에 활용하는 시간을 가지게 되었습니다. 다음에 더 나은 포스팅으로 인사드리겠습니다.
2022.05.12Sony Pregius Gen 3 안녕하세요 화인스텍 마케팅 팀입니다. 화인스텍 블로그를 찾아주셔서 감사합니다. 이번에 포스팅할 내용은 SONY Pregius 3세대 센서입니다. ?Pregius는 SONY CMOS Global Shutter의 상표입니다. <그림 1> SONY PREGIUS STARVIS는 SONY CMOS Rolling Shutter의 상표입니다. <그림 2> SONY STARVIS Starvis 로고는 액션캠이나 그 외 영상 저장 장치의 설명서에서 많이 보실 수 있습니다. Pregius 세대 (Gen) 셀 사이즈(Cell Size) 1세대 5.86 μm 2세대 3.45 μm 3세대 4.5 μm 글 작성 시점(2018~2019년)에 가장 많이 사용되는 셀 사이즈는 3.45 μm 입니다. 그럼 Pregius 3세대에서는 어떤 기능이 추가되었을까요? Low latency self-trigger 모드 Low latency self-trigger 모드를 활용하면, ROI 1개는 감지 ROI로, 다른 1개는 캡처 ROI로 지정할 수 있습니다. ROI 1. 감지 영역 내에서 물체가 감지 ROI 2. 시스템은 캡처 영역에서 해당 물체의 영상을 획득 글로는 좀 어렵죠? 아래 이미지를 통해 한 번 더 확인해보시죠 <그림 3> Low latency self-trigger Mode Sensing Zone에 이미지가 들어오면 Trigger가 발생하고 Image Capture Zone의 이미지가 캡처됩니다. 라이브러리에서 해야 하는 기능을 센서에서 할 수 있게 되었군요 좋네요 그럼 두 번째 기능 Dual Trigger Mode 이 기능은 ROI 2개 영역에 서도 다른 밝기로 촬상 하는 것입니다. 이것도 이미지 보시면 이해하기 쉬우실 겁니다. <그림 4> Dual Trigger Mode 보기와 같이 이미지 촬영 시 지정된 ROI 영역에 각각의 다른 노출을 가져갈 수 있습니다. 지금까지 한 영역에서 노출을 다르게 두 번 찍어야 했다면 이미지를 두 번 찍거나 조명을 두 번 켜거나 이미지 프로세싱을 통해 바꿔야만 했지만 이제는 카메라가 그 역할을 합니다. 이미지 프로세싱이 아닌 단 한 번의 Trigger로 노출(Exposure)을 늘려서 말이죠^^ 지금까지 새로워진 기능에 대해 이야기했는데 성능도 조금 향상이 되었다고 합니다. Read Noises는 낮고 양자효율(Quantum efficiency)는 높게 유지됩니다. 아래 그래프에서 IMX174 / Pregius Gen 1 IMX250 / Pregius Gen 2 IMX420 / Pregius Gen 3 입니다. 대부분의 성능이 높게 평가됩니다. <그림 5> 센서별 테스트 그래프 저희 화인스텍의 최신 정보를 받아보고 싶으시면 marketing@fainstec.com으로 메일 주세요^^ 이상으로 포스팅을 마치겠습니다.
2022.05.11라인 스캔 카메라(LINESCAN CAMERA) 안녕하세요 화인스텍 블로그를 찾아주셔서 감사합니다. 오늘은 머신비전 카메라 중 크게 나눠서 Areascan Camera, Linescan Camera가 있는데 Area Camera는 모두가 접하고 있는 카메라(휴대폰, DSLR, 미러리스 등) 이기 때문에 따로 이야기하지 않겠습니다. 센서 부분만 보시면 될 것 같고요. Linescan Camera(라인스캔카메라)에 대해 알아보도록 하겠습니다. Linescan Camera(라인스캔카메라)는 우리가 흔히 쓰는 스캐너와 같다고 보시면 됩니다. 한 줄로 길게 찍는 거죠 <그림 1 > 라인 스캔 카메라와 영역 스캔 카메라의 구조 Linescan Camera(라인스캔카메라)는 아래 상황에 적합합니다. 1. 시료가 멈추지 않고 지나가야 하는 경우 2. Area Camera로는 커버가 되지 않는 경우 3. 한 방향의 조명에서만 영향을 받는 경우 4. 기타 Area Camera로 어려운 경우 Linescan Camera(라인스캔카메라)는 센서의 종류에 따라 Mono : Single, Dual, Quad, TDI(Time Delay Integration) Color : Bayer, Bilnear, Trilinear, 3-Sensor(3 Chip), 4-Sensor(4 Chip), Quad linear 로 나누어집니다. <그림 2> Mono Sensor의 차이 Mono Linescan Camera의 경우 라인의 수가 많을수록 그 수만큼 오버랩 하여 값을 가져오기 때문에 같은 조명, 같은 속도에서 더 좋은 이미지를 가져올 수 있습니다. HDR의 다중노출 기술과 비슷하다고 생각하면 됩니다. <그림 3> Color Linescan Sensor의 종류 위 이미지는 Color Linescan Camera(컬러 라인 스캔 카메라) 센서의 종류입니다. Linear 방식은 Mono Dual line 과 비슷합니다. RGB 값을 오버랩 합니다. 3-Sensor만 프리즘 방식으로 RBG를 분리하며, NIR이 포함된 4-Sensor 타입도 있습니다. 프리즘 방식의 이미지 퀄리티가 가장 좋습니다. 지금까지 Linescan Camera(라인스캔카메라)에 대해 알아봤습니다. 다음에는 Linescan Camera(라인스캔카메라)와 떨어질 수 없는 엔코더를 알아보도록 하겠습니다.
2022.05.11GIGE Camera 기본 셋업 안녕하세요 화인스텍 마케팅 팀입니다. 지난번에 인터페이스의 종류에 대해 알아봤었습니다. 그중에 GIGE Camera(Gige 카메라)에 대해 포스팅하도록 하겠습니다. 화인스텍에서 취급하는 카메라 위주의 설명이겠지만 표준으로 제작된 만큼 모든 랜카드와 공유 가능한 내용입니다. EMVA(European Machine Vision Association)에서 GenICam 표준을 정했으며, 머신비전 카메라 제조사에서는 GIGE, USB, Coaxpress 인터페이스는 대부분 GenICam 표준으로 제작을 합니다. 왜냐하면 카메라와 장치의 plug & play 처리를 위한 기반이며, 인터페이스에 상관없이 모든 종류의 장치(주로 카메라)에 대한 범용 프로그래밍 인터페이스 제공하기 때문입니다. 머신비전 NIC 사용 전 꼭 해야하는 설정 3가지!! - 동영상으로 보기 https://youtu.be/oQGCp70s0LI 머신비전 NIC 사용 전 꼭 해야하는 설정 3가지!! - 사진으로 보기 www.fainstec.com Driver 설치 드라이버 설치는 꼭 제조사에서 제공하는 올바른 드라이버 설치해야 합니다. 윈도 기본 또는 임의의 드라이버 설치 시 문제가 생길 수 있으며, 많은 사람을 힘들게 할 수 있습니다. NIC의 경우에도 산업용 GigE 보드 제조사에서 제공하는 Chipset 드라이버를 설치해야 합니다. 아래 이미지는 제가 사용하는 노트북이며 당연히 1개만 잡혀있습니다. <사진 1> 제어판 장치 관리자 <사진 2> (왼쪽) 정상적인 설치, (오른쪽) 비정상적인 설치 설치가 완료되면 필수로 거쳐야 하는 셋업이 있습니다. 1. 점보패킷 2. 수신버퍼 3. 인터럽트 조절속도 점보 패킷(Jumbo Packet) 패킷의 크기가 작으면 CPU 호출 횟수가 높아져 부하가 높아집니다. 최대 9KB로 높게 설정을 권장합니다. 수신 버퍼(Receive Buffers) 수신된 프레임 데이터를 OS에서 읽어 가기 전까지 보관하는 역할을 하는데요 크기가 커지면 OS에서 인터럽트 처리가 늦어졌을 때 패킷 로스를 줄일 수 있습니다. 최댓값 2048로 설정이 필요하며, 혹시라도 2048이 되지 않더라도 최댓값으로 해주시면 됩니다. 인터럽트 조절 속도(Interrupt Moderation Rate) 인터럽트가 자주 발생하면 문제가 있을 때 CPU 반응 속도가 빨라집니다. 반응 속도가 빠른 만큼 CPU 부하가 커지기 때문에 발생 빈도를 낮추는 설정이 필요한데요 최대(Extreme)로 설정해 주시면 됩니다. 아래 창을 한번 보실까요? <사진 3> 이더넷 속성 이더넷 속성에서 구성을 클릭합니다. <사진 4> NIC 속성 구성 - 고급 탭 안에서 조금 전 이야기한 모든 설정을 바꿀 수 있습니다. 위에 이야기했던 용어가 드라이버마다 조금씩은 다를 수 있지만 비슷한 용어를 찾아 셋업 하시면 됩니다. 한글로 표기된 경우도 있습니다. 제 노트북에는 점보패킷이 아니고 점보 프레임으로 나와있군요 보통 9KB MTU인데 제 노트북은 4KB MTU 가 최대 값입니다. 그래서 많은 사람들이 데스크톱을 사용하죠 ^^ NIC의 하드웨어적으로 GIGE Camera(Gige 카메라)를 사용할 준비가 끝났습니다. FILTER DRIVER 카메라 제조사마다 GigE SDK 제공 시 필터 드라이버를 제공하는데 PC에 이것저것 설치되는 것이 싫다고 해서 건너뛰시면 안 됩니다. SDK를 설치하면서 꼭 같이 설치하셔야 합니다. 필터 드라이버는 네트워크의 부하를 줄이고 데이터 스트리밍을 향상시키기 때문에 별다른 이유가 없다면 반드시 설치하여 사용하시기 바랍니다. <사진 4> Pleora에서 제공하는 Filter Driver Manager GIGE Camera(Gige 카메라)를 사용할 준비가 끝났습니다. 이제 즐기시기 바랍니다 ^^ 이상 포스팅을 마치겠습니다.
2022.05.11멀티 센서의 종류 안녕하세요? 화인스텍 마케팅 팀입니다. 화인스텍 블로그를 찾아주셔서 감사합니다. 이번에는 멀티 센서의 종류에 대해 포스팅하도록 하겠습니다. 일반적인 카메라는 센서(CCD, CMOS)가 하나씩 들어있습니다. 멀티 센서(Multi Sensor)는 말 그대로 여러 센서가 카메라 하나에 들어가 있는 것을 이야기합니다. 센서의 수와 파장 종류에 따라 나눠지게 되는데요 목적에 따라 아래와 같이 구성되어 있습니다. 목적 Bayer Mono Red Green Blue NIR HDR ●● HDR ●● 컬러, 투과 검사 ● ● 컬러 검사 ● ● ● 컬러, 투과 검사 ● ● ● ● HDR High Dynamic Range 기술은 스마트폰에도 들어있는 기술입니다. 스마트폰에서는 다중노출이라고 표현이 되기도 합니다. 여러 장의 사진을 찍어 사진을 보정하는 기술입니다. 그래서 움직이는 피사체는 촬영하지 말라고 코멘트가 나옵니다. HDR은 아주 간단히 애기하면 어두운색은 더 어둡게 밝은 색은 더 밝게 색상은 더 또렷하게 하는 기술이며, 그것을 이루기 위해 제조사들은 그들만의 방법으로 구현합니다. 위 표에서 HDR기능은 컬러(Bayer) 혹은 흑백(Mono) 센서 2장이 다른 설정값으로 이미지를 찍고 두 장을 합성하여 결과를 나타냅니다. <사진 1> HDR Image 이해도 밝은 이미지와 어두운 이미지를 합쳐 어두운 그림자 부분과 과노출 부분의 표현도 가능합니다. 이로써 케이블의 음각 문자도 쉽게 읽을 수 있군요 R+G+B 센서는 이전 포스팅에서 말씀드린 것과 같이 3장의 센서가 아래와 같이 이미지 정보를 받아 색감이 좋습니다. <사진 2> 3-Multi Sensor 이 구조에서 NIR 파장 센서가 추가되면 4-Sensor Camera가 됩니다. NIR 파장대 특성상 투과 성질이 있죠 비닐 포장지와 같이 투과가 잘 되는 제품의 인쇄 부분이나 투과하여 내부 이물을 동시 검사할 때 사용합니다. JAI 카메라에 멀티 센서(Multi Sensor) 라인업이 많이 준비되어 있습니다. Area Camera 모델 센서 CCD CMOS Mono Color 메가 해상도 이미지 서클 셀 사이즈 프레임 인터페이스 마운트 AP-1600T-PGE 1/2.9" 3CMOS CMOS Color 1.5 1456 x 1088 1/3" 3.45 x 3.45 24.2 GIGE C AP-1600T-PMCL 1/2.9" 3CMOS CMOS Color 1.5 1456 x 1088 1/3" 3.45 x 3.45 126.1 CAMERALINK C AP-1600T-USB 1/2.9" 3CMOS CMOS Color 1.5 1456 x 1088 1/3" 3.45 x 3.45 78.8 USB 3.1 C AP-1600T-USB-LS IMX273 CMOS Color 1.5 1456 x 1088 1/2.9" 3.45 x 3.45 78.9 USB 3.1 C AP-1600T-USB-LSX IMX273 CMOS Color 1.5 1456 x 1088 1/2.9" 3.45 x 3.45 78.9 USB 3.1 C AP-3200T-PGE 3CMOS CMOS Color 3.2 2064 x 1544 1/1.8" 3.45 x 3.45 12 GIGE C AP-3200T-PMCL 3CMOS CMOS Color 3.2 2064 x 1544 1/1.8" 3.45 x 3.45 55.6 CAMERALINK C AP-3200T-USB 3CMOS CMOS Color 3.2 2064 x 1544 1/1.8" 3.45 x 3.45 38.3 USB 3.0 C AP-3200T-USB-LS IMX265 CMOS Color 3.2 2064 x 1544 1/1.8" 3.45 x 3.45 38 USB 3.1 C AP-3200T-USB-LSX IMX265 CMOS Color 3.2 2064 x 1544 1/1.8" 3.45 x 3.45 38.3 USB 3.1 C AT-030MCL ICX424AL CMOS Color 0.3 659 x 494 1/3" 7.4 x 7.4 120 CAMERALINK C AT-200GE ICX274AL CMOS Color 2 1620 x 1220 1/1.8" 4.4 x 4.4 15 GIGE C Linescan Camera 모델 센서 CCD CMOS Mono Color K 해상도 이미지 서클 셀 사이즈 라인 레이트 인터페이스 마운트 LQ-201CL 4 CMOS LINE SENSOR CMOS Color 2 2048 x 1 28.67mm 14 x 14 33 CAMERALINK F, M52 LQ-401CL 4 CMOS LINE SENSOR CMOS Color 4 4096 x 1 28.67mm 7 x 7 18 CAMERALINK F, M52 LT-200CL 3 CMOS LINE SENSOR CMOS Color 2 2048 x 1 28.67mm 14 x 14 30 CAMERALINK F, M52 LT-400CL 3 CMOS LINE SENSOR CMOS Color 4 4096 x 1 28.67mm 7 x 7 16 CAMERALINK F, M52 SW-2001Q-CL 4 CCD LINE SENSOR CMOS Color 2 2048 x 1 28.67mm 14 x 14 19 CAMERALINK F, M52 SW-2001T-CL 3 CCD LINE SENSOR CMOS Color 2 2048 x 1 28.67mm 14 x 14 19 CAMERALINK F, M52 SW-4000M-PMCL JAI CUSTOM MADE SENSOR (APS-C) CMOS Mono 4 4096 x 1 30.72mm 7.5 x 7.5 200 CAMERALINK F SW-4000Q-10GE 4 high-speed CMOS line sensors CMOS Color 4 4096 x 1 30.72mm 7.5 x 10.5 74 GIGE F SW-4000T-10GE 3 CMOS PRISM CMOS Color 4 4096 x 1 30.72mm 7.5 x 7.5 97 GIGE F, M52 SW-4000T-MCL CMOS line sensors CMOS Color 4 4096 x 1 30.72mm 7.5 x 10.5 67.7 CAMERALINK F SW-8000M-PMCL JAI CUSTOM MADE SENSOR (APS-C) CMOS Mono 8 8192 x 1 30.72mm 3.75 x 5.78 100 CAMERALINK F WA-1000D-CL 2 InGaAs Line sensors CCD Mono 2 1024 x 1 25.6mm 25 x 25 39 CAMERALINK M52 지금까지 멀티 센서(multi sensor)의 종류에 대해 포스팅했습니다. 도움이 되셨죠? 그럼 다음 포스팅 때 뵙겠습니다.
2022.05.11Bayer Color VS 3-Sensor Color 안녕하세요 화인스텍 마케팅 팀 입니다. 화인스텍 블로그를 찾아주셔서 감사합니다. 이번 포스팅은 Bayer Color 카메라와 멀티센서 Color 카메라의 이미지를 비교하도록 하겠습니다. 구조적으로 먼저 설명드리면 Bayer Color Sensor는 아래와 같은 이미지 입니다. <사진 1> Bayer Color Sensor 멀티센서는 아래와 같이 프리즘으로 RGB 파장을 나눠 3장의 센서에 데이터를 넘겨줍니다. <사진 2> Multi Color Sensor Bayer Color Camera의 경우 한 픽셀에 RGB 값중에 하나의 필터에 맞는 하나의 값만 가져올 수 있지만 Multi Sensor Camera의 경우 R,G,B 값을 모두 가져올 수 있습니다. 색감이 뛰어나며, 분해능에 대해 손실이 없습니다. 인쇄물, 바이오, 의료 산업에는 Multi Sensor Camera를 우선 검토하는 것이 맞습니다. Bayer Color Camera의 경우 필터 배열로 인해 직선이 제대로 표현되지 않을 수도 있습니다. 아래 그래프는 Bayer Color Camera 와 Multi-Sensor Color Camera의 파장 차이 그래프이니 참고해주시면 됩니다. <사진 3>Bayer-Mono Camera <사진 4> Prism Base Color Camera <사진 4> Prism Base Camera의 파장별 감도 그래프는 <사진 3> Bayer Color Camera 파장별 감도 그래프에 비해 RGB 별 겹쳐지는 구간이 매우 적습니다. 이것이 가장 중요한 부분이고 실제 RGB가 가공되지 않은 데이터를 사용할 수 있다는 이야기 입니다. 하지만 카메라 원가에 가장 큰 영향을 미치는 이미지 센서가 3개로 가격이 높은 편입니다. 대표적으로 프리즘 베이스 카메라는 JAI 사 에서 공급을 하고 있습니다. 이상으로 이번 포스팅을 마치겠습니다. 다음에는 멀티 센서의 종류로 알아보도록 하겠습니다.
2022.05.10Mono Sensor and Color Sensor 안녕하세요 화인스텍 마케팅 팀입니다. 오늘 포스팅 내용은 가시광선에서의 흑백 카메라 센서와 컬러 카메라 센서에 대해서 포스팅하겠습니다. 모노 센서와 컬러 센서의 큰 차이점은 컬러 필터가 센서 앞에 있느냐, 없느냐입니다. 아래 이미지 보시면 이해되실 거에요. <사진 1> Mono Sensor <사진 1> 과 같이 Mono Sensor는 필터가 없어 여과되지 않고 모든 파장이 픽셀에 들어갑니다. <사진 2> Bayer Sensor <사진 2> 와 같이 Bayer Color Sensor는 컬러필터를 통과하면서 해당되는 파장만 픽셀에 들어갑니다. <사진 2> 보시면 Bayer Color Filter의 색 비중은 빨간색이 25%, 파란색이 25%, 녹색이 50% 입니다. 사람의 눈이 녹색을 가장 많이 받아들인다고 하여, 필터도 그렇게 만들어졌습니다. 하지만 Bayer Color Camera의 경우 빨간 패턴 있는 곳에 파란 물체가 들어오면 어떻게 될까요? 파란 물체가 빨갛게 표현되겠죠? 그래서 주변의 녹색과 파란색 픽셀의 값을 계산하여 빨간색 값을 적용합니다. 나머지 색상들도 마찬가지입니다. 우리 주변의 DSLR, 휴대폰, 등 대부분 Color 카메라는 위와 같이 보정이 되어서 표현된다고 보시면 됩니다. 추가로 말씀드리면 카메라의 셀 사이즈가 클수록 이미지가 밝다는 것은 바로 저 Micro lens 부분인데 물리적으로 빛을 더 많이 받고 그로 인해 Photodiode에 더 많은 에너지를 담기 때문에 감도가 더 좋아지는 것입니다. 이상으로 이번 포스팅을 마치겠습니다.
2022.05.10