전체(9)
short-wave infrared (SWIR)은 특정 물질 및 대기 입자에 있어 가시광 대역과는 차별화된 고유한 물리적 특성을 지니고 있습니다. 이에 따라 궤도 위성부터 고해상도 위성영상에 이르기까지 다양한 유형의 위성에 탑재되어 활용되어 왔습니다. 현재 SWIR 카메라 시장은 계속해서 성장하고 있습니다. 특히 인공 지능 및 딥러닝 기술과의 결합으로 인해 SWIR 이미징의 데이터 분석 및 응용 분야가 확장되고 있습니다. 이처럼 다양한 산업에 사용되어 온 SWIR이 어떤 특성을 가지고 있는지, 현재 머신비전 SWIR 카메라 어떻게 어플리케이션에 활용되고 있는지, 마지막으로 이러한 SWIR이 앞으로 어떻게 확장되어 사용되어질 것인지, 화인스텍과 함께 알아볼까요? SWIR 이란? 화인스텍 SWIR 백서 Infrared spectrum SWIR은 Short-Wave Infrared 파장을 뜻합니다. SWIR 파장은 일반적으로 900nm에서 1,700nm의 범위에 걸치며 인프라레드(적외선) 스펙트럼 중 중간 파장대에 해당합니다. 인프라레드(적외선) 영역에는 각각 SWIR, MWIR, 그리고 LWIR 대역 모두 포함되어 있으며 각각 파장대에 따라 단파적외선, 중파적외선, 장파적외선으로 나누어집니다. 또한 각각의 파장 범위 따라 고유한 특성이 있기 때문에 각각 다른 용도로 활용하고 있습니다. SWIR 대역은 긴 파장에 의해 특정 대기입자를 투과하는 특성을 가집니다. 따라서 연기, 악천후, 야간 장거리 등 가혹한 조건에서 표적 지정, 거리 측정 또는 이미지 획득에 유용하게 사용됩니다. 또한 SWIR 카메라를 사용하면 플라스틱, 유리, 세라믹 등의 불투명한 재료를 통과하여 내부 구조를 관찰하거나, 빛이 통과하는 재료의 화학적 성질을 분석하는 데 유용합니다. Q. SWIR 카메라의 이미징 획득, MWIR와 LWIR 뭐가 다를까? MWIR(Mid-Wave Infrared)와 LWIR(Long-Wave Infrared)은 사물 자체에서 방출되는 빛을 감지하여 이미징 합니다. 반면 SWIR은 물체가 반사하는 가시광과 유사한 파장의 광선을 통해서 이미징을 획득합니다. SWIR 카메라의 두 종류 센서: InGaAs / CQD sensor SWIR 카메라 센서는 InGaAs(Indium Gallium Arsenide) 센서와 CQD (Colloidal Quantum Dot) 센서 기술을 기반으로 합니다. InGaAs 센서는 인디움(Indium), 갈륨(Gallium), 비소(Arsenic) 등의 반도체 물질로 만들어진 센서입니다. CQD 센서는 Colloidal Quantum Dot 기술을 기반으로 하며, 이는 나노입자의 층을 사용하여 적외선을 감지하는 방식입니다. 화인스텍 SWIR 백서 swir 센서 특징 두 센서에 관한 구성 요소는 아래 포스팅에 자세히 나와 있습니다! InGaAs(Indium Gallium Arsenide) 센서와 CQD (Colloidal Quantum Dot) 센서 유형은 각각의 고유한 특성에 따라 산업 및 어플리케이션에 선택되어 사용됩니다. InGaAs 센서는 고감도와 낮은 노이즈를 필요로 하는 응용 분야에 적합하고, CQD 센서는 넓은 파장 범위와 상대적으로 저렴한 가격이 요구되는 경우에 유용합니다. 아래는 SWIR 카메라 제조사들의 SWIR 이미징을 통한 어플리케이션 이미지입니다. [ InGaAs Sensor 어플리케이션 이미지 ] 화인스텍 swir 백서 sentech swir camera application [ CQD Sensor 어플리케이션 이미지 ] 화인스텍 swir 백서 emberion swir camera application SWIR 카메라를 제조하는 대표적인 회사는 Sentech, Xenics, Emberion이 있습니다. SWIR 카메라 제조사들의 각각의 독특한 특징과 다이나믹 레인지를 확인해보세요! SENTECH 400-1,700 nm의 광범위한 대역폭과 높은 감도의 SWIR 카메라 InGaAs 광전자소자를 사용한 SenSWIR 센서 통합형 열전냉각 요소를 활용한 노이즈 감소 열 처리에 최적화된 설계 다양한 인터페이스 호환(GigE, Camera Link,USB) XENICS 900-1,700 nm의 파장대의 SWIR 카메라 300Hz의 높은 프레임 지원 25µm의 큰 픽셀의 InGaAs 센서를 탑재하여 저조도 환경에서도 검사 가능 표준 인터페이스 호환(Camera Link Base, USB3) EMBERION 400-2,000nm의 넓고 유연한 스펙트럼 범위 광범위한 다이내믹 범위 (HDR) 최대 400fps의 빠른 속도 노이즈에 최적화된 ROIC 다양한 인터페이스 호환(GigE, Camera Link) SWIR 적용 가능한 산업 및 최신 동향 SWIR 기술은 야간 레이저 검사, 자율주행 자동차를 위한 LiDAR센서 기술, 자동화된 산업 과정 통제, 국방 방위 등에 활용되어 왔습니다. 업계에서는 반도체 제조에서 금속 접점을 검사하거나 태양전지의 균열을 감지하며, 폐기물, 플라스틱, 작물 등에 SWIR 카메라 이미징을 활용하여 식별하는데 사용합니다. 이외에도 SWIR은 아래와 같이 식음료, 제조, 의류와 의료산업, 마지막으로 광산과 광통신 산업에서 SWIR 특징을 활용하여 다양한 비전 솔루션을 제공하고 있습니다. SWIR 카메라의 적용가능한 산업 SWIR 적용 어플리케이션 1. 식품 품질 관리 2. 제조 산업 3. 섬유 수분 감지 4. 의료 영상 5. 메탄가스 식별 6. 태양광 패널 검사 7. 광산 광물 8. 광통신 9. 자동차 산업 10. 스마트폰 산업 SWIR 카메라의 기술력은 여러 산업의 요구 사항을 바탕으로 급속도로 발전하고 있습니다. 더 넓은 밴드갭 조절이 가능한 소자 개발, FHD급 이상의 SWIR 이미지 센서 개발, 퀀텀닷-OLED, CMOS 결합을 통한 새로운 센서 개발 연구 등 앞으로 SWIR 카메라의 시장 영향력은 더욱 확대될 전망입니다. SWIR 카메라의 다양한 제품이 궁금하시다면 화인스텍 홈페이지를 통해 알아보세요!
2024-05-09AT가 최근 출시한 ECS Series는 고성능 고정밀 3D 스캐너 C6 시리즈의 한 라인이며 가격대비 고효율 성능으로 3D센서의 솔루션을 제공하는 제품입니다. AT사는 ECS를 출시함으로써, 기존에 고가의 3D 센서를 구매하기 어려웠던 고객들에게 합리적인 가격과 동시에 고급 3D 기술을 제공합니다. AT(Automation Technology)는 맞춤형 3D 특수 이미징 센서 기술을 전문으로 하는 회사입니다. Automation Technology는 지능형 적외선 카메라, 고정밀 3D센서 및 독특한 센서 솔루션을 제공해왔습니다. AT는 2022년 자체 센서 칩 설계와 새로운 WARP(Widely Advanced Rapid Profiling) 기술을 통해 빠른 3D 센서를 출시하여 고속 3D 스캐너 라인업을 갖추었으며, 세계 최초 스마트 IR 카메라인 열화상 카메라를 출시하여 자동화 및 모니터링을 위한 안정적인 솔루션을 제공해왔습니다. | AT C6-2040-ECS Series 특징과 기술사양 | ECS SERIES AT C6-2040-ECS Series 1. 가격 대비 성능 비율 다양한 산업에서 요구되는비용 효율적인 3D 센서 2. 통합 간편화를 위한 인터페이스 표준 사용 GigE Vision, GenlCam* 및 3rd party 소프트웨어 지원 3. 다양한 업종에 적용 가능 식품 산업, 물류 및 로봇 비전에 이상적 ECS Series 시리즈는 Eco Compact Sensor의 약자로 안정적인 성능과 함께 경제적인 비용으로 하이테크 3D 센서 기술을 구현하기 때문에 비용 효율성이 최대 장점입니다. 또한, 표준화된 GigE-Vision/GenICam 인터페이스로 소프트웨어를 빠르게 연결할 수 있어 신속한 머신 비전 애플리케이션을 구축할 수 있습니다. 즉, ECS Series는 품질에 제한을 두지 않는 동시에 비용과 효율성이 최우선인 프로젝트에 가장 이상적인 제품이라고 말 할 수 있습니다. *GenICam은 "Generic Interface for Cameras"의 약자로, 카메라 및 비전 시스템에서 사용되는 표준 인터페이스입니다. - AT C6-2040-ECS Series 기술사양 - Resource - AT 위의 기술 사양에서 보시는 것처럼 ECS 시리즈는 광삼각법 원리를 기반으로 작동하며 한번의 스캔으로 물체의 2,048개의 포인트를 출력하고 최대 43kHz의 높은 속도로 빠르고 정확한 데이터 수집을 제공합니다. ECS는 660nm 파장의 2M등급의 레이저를 지원하기 때문에 안정적입니다. 660nm 파장의 레이저는 가시광선의 대역에 속하기 때문에 다양한 재료에서 좋은 성능을 발휘합니다. ECS는 최대 속도가 43 kHz이기 때문에 빠르게 데이터를 획득할 수 있습니다. 이는 고속 생산 라인에서도 효과적으로 사용될 수 있습니다 그리고 2048개의 포인트는 세밀한 데이터 표현을 가능하게 하여, 복잡한 형상이나 표면 특성을 정확하게 분석합니다. 추가로 ECS는 CS6에서 제공되는 Multipart, Multipeak, Region search and Region tracking 기능을 제공합니다. 사용자는 이 기능들을 사용하여 데이터 분석을 편리하게 조작할 수 있습니다. MULTIPART 여러 데이터 세트의 동시 출력 이 기능은 픽셀 형식이나 알고리즘과 관계없이 최대 10개의 서로 다른 데이터 세트를 동시에 출력할 수 있습니다. 또한, 높이 데이터 외에도 반사율이나 산란과 같은 추가 데이터를 제공하여 테스트 대상을 사실적으로 표현하게 합니다. MULTIPEAK 반사 물질을 방해 없이 스캔 이 기능은 레이저 삼각측량을 사용하여 왜곡 없는 3D 프로필 데이터 스캔을 얻을 수 있습니다. 만약 반사율이 높은 테스트 표면에서 레이저 반사가 발생하는 경우 이를 구별하고 피크 데이터가 포함된 최대 4개의 프로파일을 별도로 출력할 수 있습니다. REGION SEARCH AND REGION TRACKING 레이저 라인의 안전한 감지 및 분류 이 기능은 레이저 라인을 안정적으로 찾아 결정하고 실시간으로 이를 감지하고 그에 따라 조정합니다. 이를 통해 전체 스캔 높이를 활용하여 스캔 속도를 높입니다. ECS 시리즈는 콤팩트한 디자인 덕분에 다양한 산업에 제약 없이 활용이 가능합니다. ECS 3D 스캐닝에 적합한 산업은 식품, 물류, 로봇 비전 산업입니다. 식품 산업에서는 포장의 총 높이, 부피를 측정하거나 품질을 위한 질감, 색상, 신성도 검사 등 외관검사를 진행할 수 있습니다. 또한, 포장물품의 불량 검사에도 적용할 수 있습니다. 물류 검사에서는 패키징의 크기 및 두께 측정, 위치 및 방향을 파악하거나 표면 검사에 사용할 수 있습니다. 마지막으로 로봇 비전에서는 부품의 방향 정보를 제공하여 로봇이 움직일 수 있도록 유도하거나 로봇이 부품을 정렬할 수 있도록 안내합니다. 이를 통해 입체적인 표면 검사를 진행할 수 있습니다. AT C6-2040-ECS에 관한 자세한 정보를 확인하고 싶으시다면 화인스텍 홈페이지에 있는 Data Sheet를 확인해보세요!
2024-02-19오늘은 전자제어장치 핀 커넥터 검사에 최적화된 Automation Technology사의 3D 스캐너 C6 Compact Sensor 시리즈에 대해 소개해 드리겠습니다. Automation Technology는 독일의 3D 이미징 솔루션 전문 기업으로 20년 이상의 3D 센서 개발 및 산업 적용 경험을 바탕으로하는 글로벌 기업입니다. https://www.automationtechnology.de/cms/en/ 전자제어시스템 커넥터 핀 검사 일반적으로 한 대의 자동차를 완성하기 위해서는 보통 70-100개 이상의 MCU 기반의 분산처리형 전자제어장치(ACU, ECU)가 들어간다고 합니다. 해당 전자제어장치는 전원변환장치, 모터제어장치, 배터리관리시스템, 차량제어장치, 충전 컨트롤러, 안전 및 보안 시스템 등 다양한 기능이 정확하게 작동될 수 있도록 해야 하기 때문에 한 치의 불량도 허용할 수 없는 완성도 높은 전자제어장치가 장착되어야 합니다. 특히나 더 많은 전자제어장치가 필요한 전기차 수요의 급증으로 많은 공급업체에서 전자제어장치 컨텍터 핀 검사의 요구 또한 확대되고 있습니다. 제어장치 핀 커넥터 부분 - Image resource from Bosch motorsport 컨넥터 리드라고도 불리는 핀은 모듈간의 연결을 담당하기 때문에 규격에 맞는 완벽한 생산이 요구되고, 동시에 생산 라인에서 불량 검사는 필수입니다. 그렇다면 이러한 전자제어장치 커넥터 핀의 불량 유형은 어떤 것들이 있을까요? 핀의 불량은 크게 △ 핀 휨 △ 핀 잘림 △ 핀 과삽입 △ 핀 미삽입 △ 피치 등이 있습니다. Automation Technology사의 3D 스캐너 시리즈 Compact Sensor C6는 제어장치 커넥터 핀 검사에 최적화된 모델로 출시한 제품으로 일체형 커넥터부터, Pressfit을 사용한 커넥터까지 다양한 핀 검사를 빠르고 정확하게 수행하는 모델입니다. Automation Technology 3D Compat Sensor를 활용한 핀 커넥터 검사 Automation Technology 3D Compat Sensor를 통한 커넥터 핀 검사는 음영 지역을 최소화 할 수 있는 자체 기술이 있으며, 커넥터 핀의 유무 검사, 핀 단차, 휨 등의 불량 검사에 탁월한 성능을 보여줍니다. " Pre-Calibrated Compact 3D Sensor " C6 시리즈는 소형 사이즈 모델임에도 제품을 구성하는 기술들이 집약적으로 포함되어 있으며, 생산 시 요구되는 모든 캘리브레이션 작업을 진행 후 제작하기 때문에 추가적인 캘리브레이션 작업이 필요하지 않다는 점이 큰 특징입니다. " 공정 TACT TIME을 효과적으로 단축시키는 Multi Region 기술 " Automation Technology 3D Compact Sensor C6의 또 하나의 큰 장점은 바로 공정 시간(Tact Time)을 효과적으로 단축시킬 수 있다는 점입니다. Multi Region이라는 독자적 기술을 통해 측정하려는 영역을 지정하여 검사를 진행하고, 불필요한 영역을 제거하여 프레임레이트(fps)를 증가시키는 기술입니다. 대량으로 전자제어장치 핀 커넥터를 검사하는 라인에서 실제 검사 속도를 비교해본 결과, 불 필요한 영역을 제거했을 때 2배 가까운 빠른 공정 시간 단축이 될 수 있다는 점을 확인했습니다. " Advanced Triangulation Algorithms " Automation Technology 3D Compact Sensor C6 카메라는 보다 높은 품질의 3D 데이터를 얻기 위해 4개의 알고리즘을 사용하여 최적의 Peak값 위치를 설정할 수 있습니다. AT사의 Compact Sensor C6 시리즈는 다양한 커넥터 핀 검사 및 모든 어플리케이션에 적용 가능하도록 라인업이 구성되어 있습니다. 좀 더 자세한 사항은 화인스텍 홈페이지에서 확인 가능합니다. http://fainstec.com/main/product_view.asp?p_idx=5582
2023-09-221. Fast Boot 설정 방법 Windows에서 설정 방법 시작 메뉴에서 '전원 및 절전 설정'을 검색해 실행합니다. '추가 전원 설정'을 클릭합니다. '전원 단추 작동 설정'을 클릭합니다. '현재 사용할 수 없는 설정 변경'을 클릭합니다. '빠른 시작 켜기(권장)'을 체크 해제하고 '변경 내용 저장'을 클릭합니다. Bios에서 Fast Boot 설정 방법 ※Bios 진입 및 설정은 메인보드마다 차이가 있기 때문에 참고만 부탁드립니다. 윈도우 진입 전, F2 또는 DEL를 클릭하여 Bios에 진입합니다. (메인보드 제조사 마다 차이가 있음) Boot 메뉴에서 Fast Boot을 Disable로 설정고 Save 후 재부팅 합니다. 3. 전원 관리 설정 윈도우 검색창에 '전원 관리 옵션 선택'을 검색해 실행합니다. 현재 설정을 확인합니다. [고성능]으로 설정되어 있지 않다면, '추가 전원 관리 옵션 표시'를 펼쳐줍니다. [고성능]으로 설정을 진행합니다. '고성능'의 라디오버튼을 클릭하고 '설정 변경'을 클릭하면 옵션 변경이 진행됩니다. '설정 변경'을 클릭하면 아래와 같은 창이 나타납니다. 디스플레이 끄기 설정을 [해당 없음]으로 선택합니다. 추가적인 옵션을 변경하려면 '고급 전원 관리 옵션 설정 변경'을 클릭합니다. 현재 전원 옵션이 [고성능]으로 설정되어 있음을 확인 할 수 있습니다. 추가적인 설정이 필요한 부분에서 설정을 진행하면 됩니다. 기본값을 복원하려면 '전원 관리 옵션 기본값 복원'을 클릭해 복원을 진행하면 됩니다. 2. Windows Defender 방화벽 설정 변경 윈도우 검색창에 'Windows Defender 방화벽'을 검색해 실행합니다. 'Windows Defender 방화벽을 통해 앱 또는 기능 허용'을 클릭합니다.
2023-09-151. 개요 Automation Technology 의 Compact Sensor 제품을 사용하는 방법은 아래 그림과 같이 간단하게 도식화 할 수 있습니다. 본 문서는 각 과정에서 카메라의 파라미터를 어떻게 설정해야 하는지를 설명합니다. 그림 1. Compact Sensor 를 이용한 데이터 취득 흐름 2. 영역 설정(AOI) Compact Sensor 에는 CMOS 센서가 탑재되어 있습니다. 일반 Area 카메라처럼 AOI 의 크기를 낮출수록 출력 속도가 빨라집니다. 따라서 불필요한 영역을 AOI 로 제외해 출력속도를 높이는 것이 일반적입니다. 그림 2. Calibrartion Target 을 스캔하는 모습 먼저, 스캔하고자 하는 물체를 스테이지에 올려놓고 2D 영상을 취득합니다. 2D 영상 취득을 위해서는 아래와 같이 파라미터를 변경합니다. 위와 같이 설정하면 전체 해상도 기준으로 영상을 취득하게 됩니다. 그림 3. 전체 해상도로 취득 된 데이터 취득 된 화면에서 필요한 영역만큼 마우스로 Drag & Drop 하여 AOI 영역으로 설정합니다. 그림 4. 필요한 부분만 AOI 영역으로 지정 그림 5. AOI 가 설정 된 데이터 출력 위 그림과 같이 설정하면 변경 된 AOI 정보를 아래의 파라미터에서 확인할 수 있습니다. 그림 6. AOI 가 적용된 파라미터 목록 마지막으로 아래의 파라미터를 설정하여 프레임 속도를 높입니다. 1 을 입력하면 AOI 크기에 맞는 값이 자동으로 계산되어 집니다. 3. 영상 비율 AOI 영역 설정이 완료되면, 영상 비율이 1:1이 맞는지 확인하는 작업이 필요합니다. 즉, X축 분해능과 Y축 분해능을 맞춰야 한다는 의미입니다. 모션 스테이지를 사용하는 경우 엔코더(Encoder) 신호를 카메라에 입력하면 쉽게 설정이 가능하지만, 그렇지 않은 경우에는 영상을 보면서 대략적으로 맞춰야 합니다. 먼저, 데이터 취득을 3D 모드로 변경합니다. N 값은 취득할 세로 라인수 만큼 입력합니다. 3.1 엔코더(Encoder) 신호를 받는 경우 카메라는 엔코더 신호의 Rising, Falling Edge 에서 트리거로 인식되며, 엔코더의 A 상만 받는 경우와 A 상, B 상 모두 받는 경우에 따라 'N'값 계산이 달라집니다. ※ 주의사항 1. 아래에서 설명하는 계산 식은 이상적인 방식이며, 정확하게 비율이 맞지 않을 수 있습니다. 원근감 때문에 시료와의 거리에 따라 dx가 달라지기 때문입니다. 따라서 Divider 값 계산 후 Motion 속도 또는 Divider 의 조정이 필요합니다. ※ 주의사항 2. Trigger Overrun 은 카메라의 속도보다 빠른 속도로 엔코더 신호가 입력될 때 발생합니다. 해당 파라미터는 Overrun 이 발생하면 true, 발생하지 않으면 false 를 표시합니다. Overrun 발생 시 카메라의 속도를 높여야 하며, AOI 크기를 더 이상 낮추지 못해 속도를 높이지 못하는 경우에는 Overrun 을 감안하고 데이터를 취득할 수 있습니다. ① A 상만 받는 경우. 이 경우에는 카메라는 엔코더 펄스 당 2번 트리거로 인식됩니다. 예시) Encoder Pitch 2.5um, dx 18.6um 인 경우. 2.5um/2 = 1.25um, dx/1.25um = 14.88 ≒ 15 (정수형) ② A상, B 상 모두 받는 경우. 이 경우에는 카메라는 엔코더 펄스 당 4번 트리거로 인식됩니다. 예시) Encoder Pitch 2.5um, dx 18.6 um 인 경우. 2.5um/4 = 0.625um, dx/0.625um = 29.76 ≒ 30 (정수형) 3.2 엔코더(Encoder) 신호를 받지 않는 경우 엔코더 신호를 받지 않는 경우에는 획득한 데이터를 보면서 모션 속도 또는 카메라의 속도를 조절하여 비율을 맞춰야 합니다. 일반적으로 모션 속도는 고정되어 있으니 카메라의 속도를 조정하여 비율을 맞춰야 합니다. 비율이 맞지 않으면 N 값을 늘리거나 줄여서 속도를 변경할 수 있습니다. 만약, AOI 크기 때문에 더 이상 N 값을 줄일 수 없다면 AOI 크기를 더욱 낮춰야 합니다. 그림 7. 비율이 맞지 않는 모습. 모션 속도보다 카메라 속도가 빠른 경우. 그림 8. 카메라 속도를 낮추어 비율을 맞춘 모습. 4. 알고리즘 선택 3D 알고리즘에는 TRSH / MAX / COG / FIR PEAK 4가지가 있습니다. 반사가 심한 재질의 경우 FIR PEAK 알고리즘이 사용되며, 일반적인 경우에는 COG 알고리즘을 사용합니다. 물론 이 두 알고리즘으로 정확한 데이터 확보가 되지 않는다면, TRSH 및 MAX 데이터도 취득해 봐야 합니다. 5. 데이터 최적화 광삼각법 3D 어플리케이션은 반사된 빛을 처리하기 때문에 난반사에 영향을 많이 받습니다. 즉, 3D 데이터를 깔끔하게 얻기 위해 최적화 작업이 필요합니다. 3D 데이터의 방해가 되는 요소로는 반사 빛이 너무 강하거나 노출 시간이 긴 경우, 시료의 재질, 질감 등이 있습니다. 아래 목록은 밝기 억제와 노이즈 제거에 도움이 되는 파라미터입니다. 각 파라미터의 권장 값은 없으며, 상황에 따라 적절한 파라미터 조정이 필요합니다. ① Multi Slope Saturation Threshold (HDR) HDR 파라미터는 어두운 부분에는 영향을 주지 않고, 포화되는 부분에만 밝기를 억제하는 기능으로 매우 유용합니다. 보통 60% 기준으로, 너무 밝은 부분이 있으면 점차적으로 줄여서 설정합니다. ② Exposure Time Exposure Time은 프레임 전체의 밝기에 영향을 줍니다. 출력 속도에 영향을 주지 않도록 Frame Interval보다 짧게 설정하며, 이 값도 점차적으로 조정하며 설정합니다. ③ AOI Threshold AOI Threshold를 높이면 난반사 지점의 불필요한 데이터를 제외시킬 수 있습니다. 하지만 불필요한 데이터가 필요한 데이터와 비슷한 레벨에 위치한다면 제외시킬 수 없습니다. 이 파라미터는 기본값 기준으로 점차적으로 증가시켜 불필요한 데이터가 없어지는지 확인하며 설정합니다. ④ Light Brightness 레이저 밝기의 세기를 조정합니다. 밝기가 너무 세면 반사 정도가 심해 불필요한 데이터가 취득될 수 있습니다. 이를 방지하기 위해 100%에서 점차적으로 줄여가며 데이터의 변화를 확인합니다. 6. 데이터 채널 데이터 채널인 DC0~DC2를 선택하여 2D 이미지와 3D 데이터 출력이 가능합니다. 선택된 카메라 모드에 따라 출력되는 DC0~DC2의 데이터가 달라지므로, 필요한 채널을 확인해야 합니다. (카메라 모드 및 FIR 설정에 따라 출력되는 데이터 채널 내용은 카메라 매뉴얼의 ‘The Data Channel Assignment DC0, DC1 and DC2’ 항목을 참고해주세요.) 카메라 모드를 3D 알고리즘으로 선택하면 16bit 데이터로 출력됩니다. 만약, COG 또는 FIR PEAK로 선택하면 DC2는 Subpixel이 적용된 16bit 데이터가 출력되며, 이 데이터를 calibration 적용하여 metric 데이터 및 point cloud로 변환하여 사용할 수 있습니다.
2022-10-271. 기능 소개 • AOI-Search 모드의 동적 버전. • 3D 실시간 이미지 취득 중에도 동작 • 경사면이 있는 물체 스캔 시 유용한 기능 • AOI OffsetY 값이 실시간으로 변경된다. • 경사면이 잇는 물체를 스캔하기 위해서는 넓은 영역의 AOI가 필요 • 2D Image 모드에서는 동작 불가 • 3D 모드에서만 사용 가능. • 실시간 적용 가능하며 P,I,D는 기본 값을 권장 (PID Controller에 관한 이론적인 내용은 링크 참고) 알고리즘(Algorithm) • Min(Minimum) • 레이저 라인이 AOI의 최소 위치에 배치. • Range • 레이저 라인의 최소, 최대 위치가 감지되고 평균 값으로 AOI 내에 배치. • Mean • 레이저 라인의 유효한 선이 감지되어 AOI 내에 배치. Column Evaluation Mask • AOI 너비가 센서 너비보다 작은 경우, 속도 증가를 위해 설정이 필요. • 가로 방향에 대한 Mask 설정. 2. 적용 과정 3DExplorer AOI-Tracking • AOI-Tracking 파라미터 설정. • AOI-Tracking 결과.
2022-10-27임베디드 비전 구성품은 수많은 어플리케이션에 통합되고 있습니다. 이러한 모든 어플리케이션의 공통점은 더 많은 기능을 컴팩트하게 통합해야 한다는 것입니다. Teledyne FLIR는 이러한 시스템을 신속하게 프로토타입화 할 수 있는 TX2용 Quartet™ Embedded 솔루션을 도입했습니다. 이 커스텀 캐리어 보드를 사용하면 전체 대역폭에서 최대 4대의 USB3 머신 비전 카메라를 쉽게 통합할 수 있습니다. 이 보드는 NVidia Jetson 딥러닝 하드웨어 가속기가 포함되어 있으며, Teledyne FLIR의 Spinnaker® SDK가 사전 설치되어 있습니다. 검사, 모바일 로봇, 교통 시스템 및 다양한 유형의 무인 차량과 같은 시스템을 현장에서 구현하는 것은 큰 장점이 될 수 있습니다. 그림 1: 4가지 어플리케이션에 적용된 프로토타입 이 글에서는 Quartet 보드로 무엇을 할 수 있는지 강조하기 위해 동시에 4개의 어플리케이션을 실행하는 ITS(교통 시스템)를 개발하는 단계를 소개해드리겠습니다. 그 중 3개는 딥 러닝을 사용합니다. 어플리케이션1: 딥 러닝을 이용한 번호판 인식 어플리케이션2: 딥 러닝을 이용한 차량 유형 분류 어플리케이션3: 딥 러닝을 이용한 차량 색상 분류 어플리케이션4: 앞 유리창 투과(빛 반사 상황) 구매 목록: 하드웨어 및 소프트웨어 구성품 1. 프로세싱을 위한 SOM(System on Module) TX2용 Teledyne FLIR Quartet 캐리어 보드에는 다음과 같이 구성되어있습니다. - 전용 USB3 컨트롤러가 있는 TF38 커넥터 4개 - Nvidia Jetson TX2 모듈 -Teledyne FLIR의 강력하고 사용하기 쉬운 Spinnaker SDK가 사전 설치되어 Teledyne FLIR Blackfly S 보드 레벨 카메라와의 플러그 앤 플레이 호환성 보장 - Nvidia Jetson 딥 러닝 하드웨어 가속기는 단일 컴팩트 보드에서 완전한 의사 결정 시스템을 가능하게 함 그림 2: Blackfly S board level, FPC cable, TX2가 포함된 Quartet 임베디드 솔루션 2. 카메라 및 케이블 - Teledyne FLIR Blackfly S USB3 보드 레벨 카메라 3대: 최신 CMOS 센서가 적용되어 있고, 케이스 버전과 동일하게 풍부한 기능을 지원하며 Quartet과의 호환성이 높음 - 커스텀 카메라 1대: Sony IMX250MZR 편광 센서가 탑재된 Blackfly S USB3 보드 레벨 카메라 - 케이블: TF38 FPC 케이블로 전력 및 데이터를 단일 케이블로 전송하여 공간 절약 그림 3: FPC 케이블이 연결된 Blackfly S 보드 레벨 카메라 3. 조명 : 번호판의 모션 블러를 방지하기 위해 충분한 광량을 제공하는 LED 조명 3.1 - 어플리케이션1 딥 러닝을 이용한 번호판 인식 개발 시간: 견고하고 빠른 실행을 위해 2-3주 소요 학습 이미지: LPDNet 사용 번호판 인식을 위해 Nvidia의 기성품인 LPDNet(License Plate Detection) 딥 러닝 모델을 사용하여 번호판의 위치를 ??감지했습니다. 그리고 문자와 숫자를 인식하기 위해 Tesseract 오픈 소스 OCR 엔진을 사용 했고 카메라는 Sony IMX267 센서가 탑재된 Blackfly S 보드 레벨 8.9MP 컬러 카메라(BFS-U3-88S6C-BD)를 사용 중입니다. 성능 및 속도를 높이기 위해 번호판 감지에 대한 관심 영역(ROI)을 제한하고, 견고성을 향상시키기 위해 추적(Tracking)을 적용했습니다. 해당 번호판의 문자와 번호판에 바운딩 박스가 표시됩니다.. 그림 4: 번호판의 문자 및 번호판에 바운딩 박스가 표시되는 영상 3.2 - 어플리케이션2 딥 러닝을 이용한 차량 유형 분류 개발 시간: 이미지 수집 및 어노테이션(Annotation)을 포함하여 최대 12시간 학습 이미지: ~300 차량 유형 분류를 위해 전이 학습(Transfer learning)을 사용하여 SUV, 세단 및 트럭과 같은 세 가지 장난감 자동차에 대해 자체 딥 러닝 객체 감지 모델을 학습했습니다. 다양한 거리와 각도에서 촬영한 약 300개의 트레이닝 이미지를 수집했고 카메라는 Sony IMX250 센서가 탑재된 Blackfly S 보드 레벨 5MP 컬러 카메라(BFS-U3-51S5C-BD2)를 사용 중 입니다. 장난감 자동차의 바운딩 박스에 어노테이션을 추가하는데 약 3시간이 소요됐습니다. 자체 SSD MobileNet 객체 감지 모델을 트레이닝하기 위해 전이 학습을 수행했으며, Nvidia GTX1080 Ti GPU에서 반나절 정도 소요됐습니다. GPU 하드웨어 가속기를 통해 Jetson TX2 모듈은 딥 러닝 추론을 효율적으로 수행하고 해당 차량 유형과 함께 자동차에 바운딩 박스를 출력할 수 있습니다. 그림 5: 바운딩 박스와 사전 설정된 차량 유형, 식별된 신뢰도 점수가 표시되는 영상 3.3 - 어플리케이션3 딥 러닝을 이용한 색상 분류 개발 시간: 색상 분류, 통합 및 테스트를 위해 ‘차량 유형 어플리케이션’ 모델을 재사용하여 2일 추가 소요 학습 이미지: ‘차량 유형 어플리케이션’과 동일한 300개 이미지 재사용 차량 색상 분류를 위해 위와 동일한 딥 러닝 객체 감지 모델을 실행하여 차량을 감지하고, 바운딩 박스에 대한 이미지 분석을 통해 색상을 분류했습니다. 해당 차량 색상과 함께 자동차에 바운딩 박스가 표시됩니다. 카메라는 Sony IMX252 센서가 탑재된 Blackfly S 보드 레벨 3MP 컬러 카메라(BFS-U3-32S4C-BD2)를 사용 중 입니다. 그림 6: 바운딩 박스 및 미리 설정된 색상 유형이 식별된 영상 3.4 - 어플리케이션4 앞 유리창 투과(빛 반사 상황) 앞 유리를 통해 HOV차선을 모니터링하고 안전 벨트 착용 여부를 확인하고 심지어 운전 중 휴대폰 사용 여부까지 확인하는 등 교통 관련 어플리케이션에 빛 반사 제거 기능은 매우 중요합니다. 이를 위해 Blackfly S USB3 보드 레벨 카메라와 5MP Sony IMX250MZR 편광 센서를 결합하여 커스텀 카메라를 만들었습니다. 이 보드 레벨 편광 카메라는 표준 제품이 아니지만, Teledyne FLIR에서는 다양한 센서를 쉽게 교체하여 커스텀 카메라 옵션 제공이 가능하여 빛 반사 제거 기능을 보여주는 커스텀 카메라 옵션을 제공하였습니다. 고정된 장난감 자동차의 빛 반사 감소를 보여주기 위해 쿼드 모드(Quad mode), 빛 반사 감소 모드와 같은 다양한 "편광 알고리즘" 옵션을 제공하는 Teledyne FLIR의 SpinView GUI를 통해 카메라 이미지를 간단히 스트리밍했습니다. 그림 7: Spinnaker SDK는 쿼드 모드, 빛 반사 감소 모드와 같은 다양한 “편광 알고리즘” 옵션을 제공하여 고정된 장난감 자동차의 빛 반사 감소를 보여줍니다. 쿼드 모드는 4개의 서로 다른 편광 각도에 해당하는 이미지를 보여줍니다. 전반적인 시스템 최적화 4개의 각 프로토타입은 독립적으로는 잘 작동하지만, 모든 딥 러닝 모델이 동시에 실행될 때 전반적인 성능이 상당히 좋지 않다는 것을 알았습니다. Nvidia의 TensorRT SDK는 Jetson TX2 모듈과 같은 Nvidia 하드웨어용 딥 러닝 추론 옵티마이저(Inference optimizer) 및 런타임을 제공합니다. 이 TensorRT SDK를 사용하여 딥 러닝 모델을 최적화하여 성능이 약 10배 향상되었습니다. 그리고 모든 어플리케이션이 실행 중일 때 발열이 심해 TX2 모듈에 방열판을 부착했습니다. 결과적으로 차량 유형 식별에서 14fps, 차량 색상 분류에서 9fps, 자동 번호판 인식에서 4fps 그리고 편광 카메라에서 8fps까지 4가지 어플리케이션을 모두 실행할 때 좋은 프레임 속도를 달성했습니다. Quartet Embedded Solution 및 Blackfly S 보드 레벨 카메라의 사용 용이성과 신뢰성 덕분에 비교적 짧은 시간 내에 프로토타입 개발을 완료하였습니다. Spinnaker SDK가 사전 설치된 TX2 모듈은 TF38 연결을 통해 전체 USB3 대역폭에서 안정적으로 스트리밍할 수 있는 모든 Blackfly S 보드 레벨 카메라와의 플러그 앤 플레이 호환성을 보장합니다. Nvidia는 TX2 모듈에서 개발 및 최적화를 용이하게 하는 많은 툴을 제공합니다. Quartet은 이제 flir.com은 물론 flir.com 사무실과 글로벌 대리점들을 통해 구매하실 수 있습니다. 제품 링크 : Blackfly S 보드 레벨 카메라 : http://www.fainstec.com/main/search.asp?schStr=BD2 Blackfly S 편광 카메라 케이스 버전 : http://www.fainstec.com/main/search.asp?schStr=51S5P-C Quartet보드: http://www.fainstec.com/main/search.asp?cate=%EB%B3%B4%EB%93%9C&o_idx=125&schStr=Quartet
2022-09-16깊이 측정을 위한 커스텀 임베디드 스테레오 시스템 깊이 측정 시스템 개발을 위한 3D 센서 옵션에는 다양한 옵션들이 있는데요, 카메라가 있는 스테레오 비전, 라이다 및 TOF센서가 대표적입니다. 그리고 각 옵션에는 장단점이 있습니다. 그중 스테레오 비전 시스템은 일반적으로 비용이 저렴하고 실외에서 사용하기에도 충분히 견고하며 고해상도 컬러 포인트 클라우드를 제공합니다. 오늘날 시장에서 사용할 수 있는 다양한 기성 스테레오 시스템이 존재하지만, 정확도, FOV, 해상도 등과 같은 요인에 따라 시스템 엔지니어가 특정 어플리케이션 분야의 요구 사항을 해결하기 위해 커스텀 시스템을 구축해야 하는 경우도 있습니다. 먼저 스테레오 비전 시스템의 주요 파트를 설명한 다음 기성 하드웨어 부품 및 오픈소스 소프트웨어를 사용하여 커스텀 스테레오 카메라를 만드는 방법에 대해 설명 하도록 하겠습니다. 커스텀 시스템의 구성은 임베디드에 초점을 맞추기 때문에 호스트 PC 없이도 실시간으로 모든 장면의 Depth Map을 계산할 수 있습니다. 스테레오 비전 개요 스테레오 비전은 두개의 다른 시점에서 촬영한 두 이미지의 정보를 비교하여 디지털 이미지에서 3D 정보를 추출하는 것입니다. 두 이미지 평면에서 물체의 상대적 위치는 카메라에서 물체까지의 거리 즉 깊이에 대한 정보를 제공해줍니다. Figure 1 – 스테레오 비전 시스템 개요 스테레오 비전 시스템의 개요는 위 이미지와 같으며 다음과 같은 주요 단계로 구성됩니다. 1. 캘리브레이션 – 카메라 캘리브레이션의 경우 두가지 의미가 있습니다. Instrinsic(내부적인) 캘리브레이션의 경우는 이미지 중심, 초점 거리 및 왜곡 파라미터를 말하며, Extrinsic(외부적인) 캘리브레이션은 카메라의 실제 위치 등을 말합니다. 컴퓨터 비전 프로그램에서 특히 깊이와 같은 이미지의 메트릭 정보가 필요한 경우 캘리브레이션 단계는 매우 중요합니다. 캘리브레이션 단계에 대해서는 아래 캘리브레이션 섹션에서 자세히 설명 드리겠습니다. 2. 렉티피케이션 – 스테레오 렉티피케이션은 이미지 평면을 양쪽 카메라의 중심 사이의 선과 평행한 공통 평면으로 조정하는 프로세스를 말합니다. 렉티피케이션 이후 해당 포인트가 평행하게 놓여 있게 되므로 매칭에 소요되는 시간이 줄어들기 때문에 꼭 필요한 과정으로 인식되고 있습니다. 이 단계는 커스텀 시스템을 구축하기 위해 제공된 코드로 실행 가능합니다. Figure 2 – Stereo Rectification 예시 3. 스테레오 매칭 – 왼쪽과 오른쪽 이미지 사이에 픽셀을 일치시켜주는 과정을 스테레오 매칭이라고 하며, Disparity image(불균형한 이미지)를 생성하게 됩니다. SGM(Semi-Global Matching) 알고리즘은 커스텀 시스템을 구축하기 위해 제공되는 코드에 사용됩니다. 4. Triangulation(삼각측량) – 삼각 측량은 두 이미지에 투영 된 3D 공간의 점을 결정하는 과정을 말합니다. Disparity image(불균형한 이미지)는 3D 포인트 클라우드로 변환됩니다. 설계 예제 스테레오 시스템의 설계 예제를 살펴보겠습니다. 다음은 빠르게 움직이는 물체가 있는 동적 환경인 모바일 로봇 어플리케이션에 대한 요구 사항입니다. ROI 크기는 2m, 카메라에서 목표물까지의 거리는 3m, 원하는 정확도는 1cm입니다. 깊이 오차는 다음과 같은 요인에 따라 ΔZ=Z²/Bf * Δd에 의해 주어집니다: Z = 범위 B = Baseline(기준선) F = focal length(픽셀 단위의 초점 거리로, 카메라 시야 각 및 이미지 해상도와 관련 있습니다) 처음에 언급한 요구 사항을 충족할 수 있는 다양한 설계 옵션들이 있는데, 원하는 FOV와 WD에 따라 특정 센서에 대한 렌즈의 초점 거리를 정할 수 있습니다. Baseline(기준선)으로 위의 공식을 사용하여 3m에서 예상 깊이 오차를 계산하여 요구되는 정확도를 충족하는지 확인할 수 있습니다. Figure 3 – 예제 어플리케이션에 대한 스테레오 시스템 설계 옵션 위 이미지는 Baseline(기준선)이 긴 저해상도 카메라 또는 Baseline이 짧은 고해상도 카메라 이렇게 두가지 옵션에 대한 설명입니다. 첫번째 옵션은 전체적으로 크기가 더 큰 카메라이지만 복잡한 계산의 필요성이 적고 두번째의 경우는 크기는 더 컴팩트 하지만 복잡한 계산의 필요성이 높습니다. 예제 어플리케이션에서는 컴팩트 한 크기가 모바일 로봇 어플리케이션에 더 적합하기 때문에 두번째 옵션을 선택했으며, 요구되는 프로세스를 처리 할 수 있는 강력한 GPU가 탑재된 TX2 용 Quartet Embedded Solution을 사용할 수 있습니다. 하드웨어 요구 사항 Figure 4 – 커스텀 임베디드 스테레오 시스템의 앞면과 뒷면 이 예에서는 IMX273 Sony Pregius 글로벌 셔터 센서를 사용하여 두 대의 Blackfly S 1.6MP 보드 레벨 카메라를 12cm Baseline(기준선)를 가진 3D 프린트된 프레임에 장착합니다. 두 카메라 모두 동일한 6mm S-마운트 렌즈를 장착했습니다. 카메라는 FPC 케이블을 사용하여 TX2 커스텀 캐리어 보드용 Quartet Embedded Solution에 연결됩니다. 왼쪽과 오른쪽 카메라를 동기화하여 동시에 이미지를 캡처하기 위해 두 카메라를 연결하는 동기화 케이블도 연결합니다. 위 이미지의 하드웨어 구성품은 다음과 같습니다 : Quartet Carrier with TX2 Module 8GB – 1ea BFS-U3-16S2C-BD2(카메라) – 2ea S-Mount & IR filter – 2ea 6mm S-Mount lens(렌즈) – 2ea 15cm FPC 케이블 – 2ea NVIDIA Jetson TX2/TX2 4GB/TX2i Active Heat Sink(방열판) – 1ea 동기화 케이블 – 1ea 카메라 부착용 프레임 – 1ea 두 렌즈 모두 어플리케이션이 요구하는 범위에 카메라 초점이 맞도록 조정해야 합니다. 초점을 맞춘 후 초점을 고정하기 위해 각 렌즈의 나사를 조여줍니다. (Figure 5 참고) Figure 5 – 렌즈 나사를 보여주는 스테레오 시스템의 측면도 소프트웨어 요구 사항 a. Spinnaker Teledyne FLIR Spinnaker SDK는 TX2용 Quartet Embedded Solution에 사전 설치되어 제공됩니다. 카메라와 통신하기 위해선 Spinnaker가 필요합니다. b. CUDA를 지원하는 OpenCV 4.5.2 스테레오 매칭 알고리즘 중 하나인 SGM을 사용하기 위해선 OpenCV 4.5.1 버전 또는 그 이상의 버전이 필요합니다. 코드를 포함하고 있는 첨부된 zip 파일을 다운로드 후 압축을 풀어줍니다. 리눅스 터미널에서 아래와 같이 OpenCV를 설치하는 스크립트 인 OpenCVInstaller.sh를 실행합니다. cd ~/StereoDepth chmod +x OpenCVInstaller.sh ./OpenCVInstaller.sh 설치 관리자를 통해 관리자 암호를 설정 후 OpenCV 4.5.2 설치가 시작됩니다. OpenCV를 다운로드하고 빌드하는데 몇 시간이 걸릴 수도 있습니다. 캘리브레이션 스테레오 이미지를 불러와 캘리브레이션 하는 코드는 “Calibration” 폴더에서 확인할 수 있습니다. SpinView GUI를 사용하여 좌우 카메라의 일련 번호를 확인합니다. 우측 카메라는 마스터, 좌측 카메라는 슬레이브로 설정해 줍니다. 마스터 및 슬레이브 카메라의 일련 번호를 grabStereoImage.cpp 파일의 60번째와 61번째 줄에 복사해줍니다. 리눅스 터미널에서 다음 명령어를 사용하여 실행 파일을 빌드합니다. cd ~/StereoDepth/Calibration mkdir build mkdir -p images/{left, right} cd build cmake .. make 첨부된 채커보드 패턴을 인쇄하여 평평한 표면에 부착 후 캘리브레이션 타켓으로 사용할 수 있습니다. 캘리브레이션을 하는 동안 최상의 결과를 얻으려면 SpinView에서 Exposure Auto는 off로 설정하고 아래 그림과 같이 채커보드 패던이 선명하고 흰색 부분이 과하게 노출되지 않도록 노출을 조정해줍니다. 캘리브레이션 이미지가 수집된 후 SpinView에서 게인 및 노출을 자동으로 설정할 수 있습니다. Figure 6 – SpinView GUI 설정 이미지 수집을 시작하기 위해 아래 명령어를 입력해줍니다. ./grabStereoImages 코드에 따르면 이미지 수집은 약 초당 1프레임의 속도로 진행됩니다. 왼쪽의 이미지는 images/left 폴더에 저장되고 오른쪽의 이미지는 images/right 폴더에 저장됩니다. 타겟을 움직여 이미지의 구석 부분까지도 잘 보이게 촬영해줍니다. 타겟을 회전 시켜 가까이서, 그리고 또 멀리서도 찍어줍니다. 기본적으로 프로그램은 100쌍의 이미지를 캡처하지만 아래 명령어를 사용하여 변경도 가능합니다. ./grabStereoImages 20 위의 명령어를 사용하면 20쌍의 이미지만 수집됩니다. 이전 폴더에 저장된 모든 이미지를 덮어 쓰는 점은 참고하셔야 됩니다. 아래 이미지는 일부 캘리브레이션 이미지 샘플입니다. Figure 7 – 샘플 캘리브레이션 이미지 이미지 수집 후 다음 명령어를 통해 캘리브레이션 Pyhton 코드를 실행합니다. cd ~/StereoDepth/Calibration python cameraCalibration.py 위 명령어로 스테레오 시스템의 내부 및 외부 파라미터가 포함된 "intrinsics.yml"및 "extrinsics.yml"이라는 2개의 파일이 생성됩니다. 기본적으로 30mm 정사각형 크기의 채커보드를 가정하여 만든 코드이지만 필요한 경우 편집이 가능합니다. 캘리브레이션이 끝나면 캘리브레이션이 얼마나 잘 수행 되었는지를 나타내는 RMS 오류가 표시됩니다. 캘리브레이션이 잘 된 경우 RMS 오류는 일반적으로 0.5 픽셀 미만입니다. Real-time Depth Map 실시간으로 차이(disparity)를 계산하는 코드는 “Depth” 폴더 내에 있습니다. 카메라의 일련 번호를 복사하여 live_disparity.cpp의 230과 231번째 줄에 붙여 넣습니다. 리눅스 터미널에서 다음 명령어를 사용하여 실행파일을 빌드합니다. cd ~/StereoDepth/Depth mkdir build cd build cmake .. make 캘리브레이션 단계에서 얻은 "intrinsics.yml" 및 "extrinsics.yml" 파일을 이 폴더에 복사합니다. 실시간으로 Depth Map 데모를 실행하려면 다음 명령어를 입력합니다. ./live_disparity 왼쪽 카메라 이미지(Raw 이미지)와 Depth Map(최종 output)이 표시됩니다. 아래 이미지는 몇가지 예제 output을 보여주고 있습니다. 카메라로부터의 거리는 Depth Map의 오른쪽에 표시된 범례에 따라 색상으로 구분됩니다. Depth Map의 검은색 영역은 해당 영역에서 차이(disparity)점이 있는 데이터가 없다는 것을 의미합니다. NVIDIA Jetson TX2 GPU로 1440 x 1080의 해상도에서 최대 초당 5프레임, 720 x 540의 해상도에선 최대 초당 13프레임 속도로 실행할 수 있습니다. 특정 지점의 깊이 데이터는 Depth Map에서 해당 지점을 클릭하여 아래 이미지와 오른쪽 하단 이미지와 같이 깊이가 표시되는 것을 확인할 수 있습니다. Figure 8 – 왼쪽 카메라 이미지 및 해당 Depth Map 샘플 / 하단의 Depth Map에서는 특정 지점의 깊이를 보여줍니다. 요약 스테레오 비전을 사용하여 깊이 측정 시스템을 개발하면 실외에서도 잘 작동이 가능하며, 고해상도 Depth Map을 제공하고, 저렴한 기성품들로 매우 쉽게 접근할 수 있다는 장점이 있습니다. 시장에는 이미 요구 조건이 정해진 기성 스테레오 시스템이 많이 있습니다. 커스텀 임베디드 스테레오 시스템을 개발해야하는 경우 이 글에서 설명 드린 내용처럼 비교적 간단하게 작업하실 수 있습니다.
2022-09-07[SONY CMOS] IMX183 센서 소개 안녕하세요? 화인스텍 마케팅 팀입니다. 화인스텍 블로그를 찾아주셔서 감사합니다. 이 시간에는 SONY 에서 출시한 IMX183센서(20메가 롤링셔터)가 탑재된 모델에 대해 소개해 드리겠습니다. 센서 기본 스펙은 아래와 같습니다. 구분 사양 Mega 20.48 mega Resolution 5272(H) x 3648(V) Cell Size 2.4um(H) x 2.4um(V) Frame Rate 24.98 fps(10bit) / 21.98(12bit) / 59.94 (10bit / 4k(4096 x 2160)) Shutter Type Rolling Shutter (Global rest) Image Size 15.86 mm 눈여겨볼 것은 20메가 센서이지만 2.4um 작은 셀 사이즈로 이미지 서클이 15.86mm 입니다. 이 이야기는 20메가 고해상도에서 C-Mount 렌즈를 사용할 수 있다는 것입니다. 장점 1. 렌즈의 선택폭이 넓다. 2. 카메라를 소형으로 만들 수 있다. 3. 가격이 매우 저렴하다. Frame Rate가 24.98이지만 카메라 제조 시 인터페이스에 따라 속도가 줄어들 수 있습니다. 이 센서는 BIS(Back-illumination Structure) 기술이 적용된 것으로 기존에 품질이 좋지 못했던 CMOS 센서를 개선한 모델입니다. 빛 에너지를 담아두는 포토다이오드 앞에 메탈 와이어링이 있던 구형 모델과는 달리 메탈 와이어링이 포토다이오드 뒤쪽으로 옮겨지면서 빛을 받는 효율이 좋아졌습니다. Back-illumination structure (출처 : https://www.sony-semicon.co.jp/e/products/IS/security/technology.html) Superior Low Light Performance (0.51x) (출처 : https://www.sony-semicon.co.jp/e/products/IS/security/technology.html) 센서 제조사에서 홍보하는 자료이니 믿을만한 자료라고 보실 수 있습니다. 저희 화인스텍에서 취급하는 IMX183센서(20메가 롤링셔터)를 탑재한 머신비전 카메라 모델은 아래 제품군을 참고해주세요. 인터페이스에 따라서 프레임 속도가 다른 점 한번 더 체크해주시면 감사드리겠습니다. 모델 센서 CCD/CMOS Mono/Color 메가 해상도 센서 사이즈 셀 사이즈 프레임 인터페이스 BFS-U3-200S6C-BD2 IMX183 CMOS Color 20 5472 x 3648 13.13 x 8.75 2.4 x 2.4 17 USB3 BFS-U3-200S6M-BD2 IMX183 CMOS Mono 20 5472 x 3648 13.13 x 8.75 2.4 x 2.4 17 USB3 FS-MBS2041POE IMX183 CMOS Mono 20 5472 x 3648 13.13 x 8.75 2.4 x 2.4 5.6 GIGE/POE FS-MCS2041POE IMX183 CMOS Color 20 5472 x 3648 13.13 x 8.75 2.4 x 2.4 5.6 GIGE/POE BFS-PGE-200S6M-C IMX183 CMOS Mono 20 5472 x 3648 13.13 x 8.75 2.4 x 2.4 6.1 GIGE/POE BFS-PGE-200S6C-C IMX183 CMOS Color 20 5472 x 3648 13.13 x 8.75 2.4 x 2.4 6.1 GIGE/POE BFS-U3-200S6C-C IMX183 CMOS Color 20 5472 x 3648 13.13 x 8.75 2.4 x 2.4 18 USB3 BFS-U3-200S6M-C IMX183 CMOS Mono 20 5472 x 3648 13.13 x 8.75 2.4 x 2.4 18 USB3 이상으로 포스팅을 마치겠습니다.
2021-11-15전체(0)