총 88 건
1. 2024 머신비전과 딥러닝 규모와 시장 방향 최근 AI 기술이 발전함에 따라 제조업계에서의 머신비전도 새로운 솔루션의 전환이 시작되어 가고 있습니다. Bizwit Research & Consulting LLP의 보고서에 따르면 세계의 딥러닝 시장은 2022~2029년에는 33.5% 이상의 성장률을 보일 것이라고 전했습니다. 딥러닝은 인간의 두뇌를 이루는 생물학적 신경망을 모방해 만든 컴퓨팅 시스템으로 대량의 정보를 수집, 분석 및 해석하여 데이터를 처리하여 다양한 산업과 업무에서 정확성, 신뢰성, 비용 절감, 생산성 등의 향상에 기여합니다. 정교한 작업이 가능한 AI 딥러닝은 소매업, 의료, 자동차, 농업, 보안, 로봇, 항공우주, 제조산업에서 다양한 솔루션을 제공합니다. 제조 산업에서 AI 기술은 2022년에서 2023년까지의 연 평균 47.8%의 성장성을 지속하고 있습니다. (자료 제공=VMR) 위 이미지에서 시장조사기관 VMR(Verified Market Research)이 최근 발표한 ‘글로벌 빅 데이터 시장’ 연구 보고서에서 제공한 자료에서 보이는 것처럼 제조업계에서 딥러닝 도입으로 인한 자동화는 이제는 선택이 아니라 필수입니다. 따라서, 머신비전 업계에서도 검사 자동화에 있어서는 룰(rule) 기반에서 딥러닝 기반을 통한 솔루션으로 부각되면서 딥러닝 기반 시스템으로 빠르게 전환되어 가고 있습니다. 2. 룰 기반에서 딥 러닝(Deep Learning) 시스템의 새로운 전환 | 룰 기반(Rule Based Learning) 시스템 VS 딥 러닝(Deep Learning) 기반 시스템 딥 러닝(Deep Learning) 이전의 머신비전은 주로 ‘룰 베이스(Rule base)’ 기반으로, 양품과 불량품 데이터를 각각 대량으로 확보한 뒤 머신비전 카메라로 촬영한 제품 사진과 비교해 양품과 불량품을 검사했습니다. 그러나 룰 기반은 기존 DB 기준을 넘어서는 불량에 대해 제대로 인식하지 못하는 미검 상황이 다수 발생합니다. 룰 베이스는 DB 안에서 이뤄지는 시스템이라면 딥 러닝(Deep Learning) 기반의 시스템은 양품과 불량품의 특징에 관한 데이터를 다층적으로 학습하여 DB에 등록되지 않은 데이터라도 미리 추출한 특징으로 기반으로 하여 합리적으로 불량 여부를 판단할 수 있는 기능을 제공합니다. 동시에 추가로 수집된 데이터를 스스로 학습하여 정확성과 생산성을 스스로 향상시킵니다. 현재 머신비전 분야는 ML·DL 등을 포함한 기술과 빅데이터 및 5G 같은 다양한 ICT 기술이 접목되면서 검사 정확도를 높이고 있으며, 공정 효율 개선에도 실질적인 도움을 주고 있습니다. Business Research insight의 머신비전 시장의 딥 러닝 보고서에 따르면 2022부터 2028년까지의 머신 비전 딥 러닝 시장 규모는 연평균 54.4%의 성장률(CAGR)을 나타낼 것이라고 예상했습니다. 이러한 추세에 따라 제조업계에서는 딥 러닝(Deep Learning)을 활용하여 높은 해상도, 실시간 처리, 효율적인 학습 알고리즘을 통해 새로운 유형의 불량 탐지의 정확성을 높여 산업 내에서 경쟁력을 유지하고 신기술에 대한 요구를 해결할 수 있는 기대감이 점점 더 커지고 있습니다. 3. 딥러닝과 머신비전의 융합 활용 사례 딥러닝은 인간의 두뇌를 이루는 생물학적 신경망을 모방해 만든 컴퓨팅 시스템입니다. 머신비전업계에서 딥러닝은 CNN*(컨볼루션 신경망)과 딥 피드 포워드*(deep, feed-forward) 방식의 인공 신경망으로, 이미지를 분석하는 데 가장 널리 적용되고 있습니다. 컨볼루션 신경망(CNN)은 부품 분류, 검출, 결함 감지 등을 효과적으로 수행하기 때문에 제조업에서는 이 기술을 활용하여 자동적이고 정확한 제품 검사, 결함 감지, 및 품질 향상을 위한 머신 비전 시스템을 구축할 수 있습니다. *CNN(컨볼루션 신경망)은 주로 이미지 인식 및 패턴 인식에 사용되는 딥러닝의 한 유형으로 이미지 처리 작업에 특화되어 있다. *딥 피드 포워드(deep feedforward)는 깊이(depth)가 깊다는 딥과 정보가 한 방향으로만 흐르는(feed-forward)라는 뜻의 구조로 이 신경망이 여러 층으로 구성되어 있고 정보가 깊다는 의미. 그리고 더 나아가 딥 러닝 기술을 활용하여 이미지 분석 및 검사 분야에서 혁신적인 솔루션을 제공하는 기업들이 존재합니다. 그 예로 Eurerys가 딥 러닝 기술로 실시간으로 부품을 분류하고 결함을 탐지하는 기술을 제조 업계에 제공함으로써 생산 효율성을 향상하고 품질 표준을 유지하는 데 기여해왔습니다. | 딥 러닝과 머신 비전의 융합 적용사례: Euresys – Open eVision 라이브러리 “머신비전 산업에서 대표적인 이미지 분석 라이브러리” Euresys는 이미지 및 비디오 수집 구성 요소, 프레임 그래버, FPGA IP 코어 및 이미지 처리 소프트웨어를 설계하고 제공하는 선도적이고 혁신적인 하이테크 기업입니다 Euresys는 Open eVision은 머신 비전 검사 애플리케이션을 독립적인 이미지로 처리하고 분석하는 라이브러리입니다. - 프레임 그래버, GigE 비전 및 USB3 비전 카메라를 포함한 모든 이미지 소스 호환 - Deep Learning 및 3D 같은 최신 기술 지원 - 정확한 서브 픽셀 측정 및 보정 - 64-bit libraries for C++ and .NET (C#, VB.NET, C++/CLI) under Windows (x86-64) - Linux(x86-64 또는 ARMv8-A)용 64비트 라이브러리 Open eVision 기술은 딥 러닝 기술을 활용하여 안정적이면서도 변화하는 환경에 대응하여 다양한 조건이나 요구에 유연하게 대처하는 머신 비전 검사를 제공합니다. 특히 딥 러닝 기술을 활용한 라이브러리인 Deep Learning Bundle은 새로운 보조 세분화 도구를 통하여 픽셀 단위의 완벽한 주석을 얻는 빠르고 효율적인 방법을 제시합니다. 이는 보조 세분화 도구를 통해 이미지를 작은 부분으로 분할하여 각 부분의 특성을 분석한 후에 이미지의 각 픽셀에 주석을 달아 물체나 특징을 픽셀 수준에서 정확하게 식별하고 기록하여 작업을 신속하고 효율적으로 동작하는 방법을 제공한다는 의미입니다. Euresys의 Deep Learning Bundle은 특히 머신 비전 애플리케이션의 이미지 분석을 위해 맞춤화, 매개변수에 최적화된 기술입니다. 또한, Deep Learning Bundle은 데이터 증강(Data Augmentation) 기능을 활용하여 딥 러닝 신경망을 학시키는 방식으로 작동합니다. 다시 말해, 프로그램 가능한 한계 내에서 기존의 기준 이미지를 수정(예: 이동, 회전, 확대)하여 추가로 기준 이미지를 생성하는 '데이터 증강'을 구현합니다. 이로써 Deep Learning Bundle은 클래스 당 겨우 100개의 학습 이미지로도 효과적으로 작동할 수 있습니다. 데이터 증강(Data Augmentation) 따라서, Deep Learning Bundle은 Open eVision 라이브러리의 핵심 부분으로 데이터 증강과 보조 세분화 도구를 통해 이미지 주석을 신속하고 정확하게 수행하여 기술적 효율성과 성능을 향상시켜 머신 비전 검사 분야에서 안정적이고 유연한 솔루션을 제공합니다. 특히, Deep Learning Bundle은 분류(EasyClassify), 분할(EasySegment), 로컬라이제이션(EasyLocate)과 같은 다양한 딥 러닝 솔루션을 통해 Open eVision 라이브러리의 핵심 부분으로서 기술적인 효율성과 성능을 높이고 있습니다. | Deep Learning Bundle이 제공하는 세가지 특징 및 적용사례 Deep Learning Bundle은 Open eVision 라이브러리의 일부이며 딥 러닝 라이브러리는 딥 러닝이 솔루션을 제공하는 세 가지 특정 기능, 즉 분류(EasyClassify), 분할(EasySegment), 로컬라이제이션(EasyLocate)에 대응하는 소프트웨어 도구로 구성되어 있습니다. 1) Euresys Deep Learning Bundle의 분류 라이브러리: EasyClassify EasyClassify는 이미지 분류를 위한 Deep Learning의 분류 도구로, 불량 감지 및 제품 인식과 같은 작업에 사용됩니다. 이 도구는 소프트웨어 사용자가 초기에 머신비전 시스템을 통해 취득한 이미지에 라벨링 작업을 하면 그 후 EasyClassify가 딥 러닝 기술을 활용하여 주어진 이미지가 특정 클래스에 속할 확률을 계산하고, 이를 클래스로 할당합니다. 즉, 이미지가 학된 각 클래스에 속할 가능성을 확률로 제시해 줍니다. 사용자는 어떤 부품이 양호하고 어떤 부품이 불량하며 어떤 부품이 어떤 클래스에 속하는지만 알려주면 됩니다. 이 학습 프로세스 후에 EasyClassify 라이브러리가 이미지를 분류합니다. EasyClassify는 결함을 명확하게 규정하기 어려울 때 기존 머신 비전보다 더 성능이 뛰어납니다. 예를 들면, 다양한 스케일 및 위치에서 복잡한 모양과 텍스처에 따라 분류가 달라지는 경우가 여기에 해당합니다. 2) Euresys Deep Learning Bundle의 분할 라이브러리: EasySegment EasySegment은 개체 및 결함을 쉽게 분할할 수 있도록 설계된 Deep Learning Bundle의 분할 도구입니다. 이를 활용하여 결함이 포함된 부품을 식별하고 그 결함이 이미지의 어떤 위치에 있는지 정확하게 구분합니다. Euresys-EasySegment EasySegment는 이미지의 정상 및 비정상 결함을 감지하고, 결함이 없는 “우수한” 이미지만을 학습하는 무감독(비지도 학습) 모드와 결함 이미지를 분할하고 더 나은 분할과 "결함 감지"를 위해 결함 모델도 학습하는 감독(지도 학습) 모드가 존재합니다. EasySegment의 무감독(비지도 학습)과 감독(지도 학습) 적용 사례: 무감독 모드를 활용한 샘플 데이터 세트: 패브릭 결함 감지 무감독(비지도 학습) 모드: “패브릭” 샘플 데이터 세트는 어떻게 EasySegment의 무감독 모드를 사용하여 소수의 양호한 샘플만 학습하고 어떤 종류의 결함이 예상되는지 알려주지 않은 상태로 패브릭에서 결함을 감지 및 분할할 수 있는지를 보여줍니다. 감독 모드를 활용한 샘플 데이터 세트: 커피 이물질 감지 및 분할 감독(지도 학습) 모드: “커피” 샘플 데이터 세트는 어떻게 EasySegment의 감독 모드를 사용하여 이물질의 색상과 질감이 커피와 매우 유사한 경우에도생산 라인에서 이물질을 효율적으로 감지 및 분할할 수 있는지를 보여줍니다. 정리하자면, EasySegment의 무감독 모드는 양호한 샘플의 이미지만 학습하기 때문에, 결함의 유형을 알고 있지 않은 경우나, 결함 샘플이 준비되지 않는 경우에도 검사를 수행할 수 있습니다. 반면, EasySegment 감독 모드는 무감독 모드보다 더 나은 정확도를 달성하고 더 복잡한 결함을 분할할 수 있습니다. 또한 EasySegment를 무감독 모드로 돌려서 얻은 결과를 확인하고, 그 결과를 실제 데이터와 비교해서 필요한 부분을 가져와서 감독 모드를 위해 필요한 주석을 더 쉽게 달거나 편리하게 활용할 수 있습니다. 3) Euresys Deep Learning Bundle의 현지화 및 분류 라이브러리: EasyLocate EasyLocate는 딥 러닝 번들의 일부로, 사물의 위치를 찾아내고 식별하는 도구입니다. 주로 이미지에서 물체, 제품 또는 결함을 찾아내고 그것들을 구분하는 데 사용됩니다. 특히 EasyLocate는 이미지에 겹쳐 있는 물체를 식별할 수 있는 능력을 갖추고 있어, 해당 물체들의 개별적인 개수를 계산하는 데에도 활용될 수 있습니다. EasyLocate는 축 정렬 바운딩 박스와, 관심점 총 두 가지 방법을 사용하여 사물의 위치를 찾아낼 수 있습니다. 축 정렬 바운딩 박스를 이용한 샘플 데이터 첫 번째로는 “축 정렬 바운딩 박스” 방법으로 다양한 개체 및 크기에 정확한 주석 및 위치를 지정합니다. 이미지 속에서 찾은 각 개체(또는 결함)를 둘러싼 축 정렬 바운딩 박스를 만든 후 각각의 틀에 어떤 종류의 물체나 결함인지에 관한 클래스 레이블을 각 바운딩 박스에 할당합니다 위의 샘플 데이터처럼 "전자 부품" 데이터 세트는 EasyLocate 바운딩 박스가 열악한 조명 조건에서도 비닐봉지 안에 대량으로 보관된 다양한 종류의 전자 부품을 안정적으로 감지하고 계산할 수 있는 방법을 보여줍니다. 관심점을 이용한 샘플 데이터 두 번째는 관심점 방법으로 크기가 유사한 개체에 대한 빠른 단일 포인트로 주석 및 위치를 지정합니다. 즉, 이미지 속에서 크기가 비슷한 물체들을 예측하고 각 위치에 클래스 레이블을 할당하여 신속하게 하나의 지점으로 표시합니다. 단, 이 방법은 이미지의 모든 개체(또는 결함)의 크기가 비슷해야 합니다. 왼쪽의 샘플 데이터에서 보여지는 것처럼 “세라믹 커패시터 데이터 시트”는 EasyLocate 관심점이 서로 겹치거나 접촉하는 많은 세라믹 커패시터를 안정적으로 감지하고 정확하게 계산할 수 있는 방법을 보여줍니다. EasyLocate 관심점을 사용하면 한 번의 클릭으로 개체에 주석을 추가할 수 있으므로 주석 처리가 더 빨라집니다. 현재 Euresys의 Deep Learning Bundle의 EasyClassify / EasySegment / EasyLocate 툴은 표식 검사나 LED 검사가 필요한 전자제품 제조 산업에서 활용하고 있으며 일반 제조 산업용에서도 존재 여부 검사, 표면 분석, 어셈블리 검사, 레이블 인쇄 기계의 코드 품질 검증 등에 머신 비전 솔루션을 제공하고 있습니다. 앞으로 자동화 산업에서 성공적인 어플리케이션 구현에 있어 이미지 데이터 관리의 중요성은 더욱 강조될 것 입니다. 4. 딥 러닝 머신비전 솔루션, 제조산업의 자동화를 혁신하다 | Conclusion 머신 비전은 많은 이점을 제공하지만 이미지 품질에 영향을 미치는 일관되지 않은 조명 조건 및 실시간 처리에 대한 강력한 계산 능력과 같은 도전에 직면하고 있습니다. 또한 다양한 장치와의 상호 운용성 및 통합을 보장하기 위한 계속된 개발이 필요합니다. 따라서 인공 지능과 머신 비전의 융합은 머신 비전 업계에서 운영 효율성에서 중요한 전환을 의미합니다. 이차전지 제조과정에서는 2.5D 알고리즘과 LED 광학계 조명을 적용하여 영상처리 및 전처리 알고리즘이 강조되고 있습니다. 제조 산업이 계속해서 디지털 혁신을 수용함에 따라 비전 검사에서 딥 러닝의 역할이 진화하고 있습니다. 이러한 발전으로 제품 품질, 운영 효율성, 그리고 전반적인 경쟁력이 향상될 것으로 예상됩니다. 머신 비전을 적용한 다양한 솔루션은 산업 자동화와 스마트 제조 분야에서 주요 요소로 인식되어 제품 품질 향상과 생산 공정 효율화에 기여하고 있습니다. 뿐만 아니라 이차전지, 제약, 의료, 바이오 분야에서도 딥 러닝을 활용한 머신 비전 솔루션이 도입되고 있습니다. 마지막으로 식품 검사 및 분류를 위한 머신 비전은 특히 두드러지게 늘어나고 있습니다. 특히 패키징 공정에서는 딥 러닝을 기반으로 한 솔루션을 활용하여 제품 결합 여부를 확인하고 제품 누출을 방지하며 배송 지연을 예방할 수 있습니다. 물류 자동화의 핵심 기술인 AGV(무인운송로봇) 및 AMR(자율이동로봇)과 같은 로봇에도 머신 비전 솔루션이 도입되어, 로봇이 물건을 감지하고 이동하는 데 도움이 됩니다. 그러므로 머신 비전 자동화에 대한 딥 러닝 기술의 활용은 로봇 공학, 자율 주행 차량, 그리고 스마트 제조 분야에서 계속해서 증가할 것으로 전망됩니다. Euresys의 Deep Learning Bundle에 관한 자세한 내용을 알고 싶으시다면 화인스텍 홈페이지에서 확인해보시기를 바랍니다! 참고 자료: 유레시스 홈페이지 지티티코리아(https://www.gttkorea.com) 인더스트리뉴(https://www.industrynews.co.kr/news/articleView.html?idxno=49846)
2024.01.08머신 비전 시스템에서 광학의 중요성과 렌즈를 선택할 때 고려해야 할 요소는 무엇일까요? 올바른 렌즈를 선택하는 것은 시스템의 기본적인 물리적 크기를 결정하므로 비전 시스템 설계의 중요한 측면입니다. 카메라와 피사체 사이에 필요한 장착 거리인 작동 거리는 카메라의 시야와 함께 선택한 렌즈에 따라 설정됩니다. | 고정밀 측정에는 필수적 요소, 텔레센트릭 렌즈 | 텔레센트릭 렌즈는 고정밀 측정에는 필수적입니다. 텔레센트릭 렌즈는 빛이 렌즈에 평행하게 들어오도록 만들어져 있어, 빛이 렌즈를 통과할 때 다양한 각도나 위치에서 오더라도 렌즈를 통과한 빛은 거의 평행한 방향으로 나갑니다. 위의 이미지처럼 텔레센트릭 렌즈는 물체가 카메라에 근접해 있는지에 관계없이 이미지에서 일관된 물체 크기를 유지합니다. 이 특징은 텔레센트릭 렌즈를 이미지 센서나 다른 광학 시스템과 함께 사용할 때 유용합니다. 평행한 빛을 유지함으로써 렌즈의 깊이에 따른 이미지 왜곡을 최소화하고, 정확하고 일관된 이미지를 얻을 수 있습니다. " 즉, 형상 크기를 정확하게 측정할 수 있으므로 측정이나 검사와 같은 정밀한 광학 응용 분야에서 특히 중요합니다. " 텔레센트릭 렌즈에 관한 자세한 설명은 아래 포스팅에 상세하게 나와 있습니다. https://blog.naver.com/fainstec_sales/221644329235 머신비전 렌즈는 PCB, 반도체, 전자 부품 검사 등 다양한 응용 분야에서 이미징 시스템의 변화하는 환경에서 요구를 수용할 수 있도록 계속해서 발전해 왔습니다. 이는 고객이 다양한 어플리케이션과 상황에 맞춰 필요한 광학 배율을 선택할 수 있는 유연성을 제공해야 한다는 점입니다. " 다양성은 산업 현장에서 다양한 요구에 대응할 수 있는 강력한 도구로 작용합니다 " 따라서 최적화된 솔루션을 제공하기 위해 VS Technology는 Fit-X 기술을 도입하여 전면 렌즈와 후면 렌즈를 조합하여 다양한 광학 배율을 제공하는 VS-TLS(FR) TELECENTRIC SERIES (FIT-X)를 출시했습니다. | VS-TLS(FR) 시리즈: 20가지 배율의 텔레센트릭 렌즈 기술로 새로운 지평 열다 | VS Technology는 머신비전 분야에서 고품질의 렌즈와 조명 솔루션을 개발하고 제조하는 기업입니다. VS Technology는 Telecentric, Macro, Line Scan, CCTV, Zoom Lens 및 보안, 감시용 CCTV Lens 등을 개발하고 있으며, 광학 렌즈 분야에서 뛰어난 경험과 기술을 바탕으로 고객들의 요구를 충족시키고 있습니다. https://vst.co.jp/en/ VS Technology는 다양한 어플리케이션에 사용되는 고성능 머신비전용 렌즈를 제공하며, 고객의 니즈에 맞춘 제품을 가치로써 제공합니다. 최근 VS Technology가 출시한 VS-TLS(FR) TELECENTRIC SERIES (FIT-X)렌즈는 렌즈의 프론트와 리어를 자유롭게 재조립하여 20가지 이상의 배율을 설정할 수 있는 텔레센트릭 렌즈입니다. VS-TLS(FR) TELECENTRIC SERIES (FIT-X) VS-TLS(FR) TELECENTRIC SERIES의 프론트 렌즈와 리어렌즈 구성 VS-TLS(FR) TELECENTRIC SERIES (FIT-X)렌즈는 프론트렌즈 4개와 리어렌즈 5개로 구성되어 다양한 배율을 표현할 수 있다는 장점이 있습니다. VS-TLS(FR) 렌즈를 통해 프론트와 리어를 자유롭게 재조립할 수 있습니다. VS-TLS(FR) TELECENTRIC SERIES (FIT-X)렌즈 특징 FIT-X 기술을 활용한 넓은 야각 및 높은 성능의 텔레센트릭 구현 낮은 왜곡률과 뛰어난 광학 배율 표현으로 다양한 용도에 적합 FOV 38파이부터 80.7 파이까지의 확장할 수 있는 시야각 프런트렌즈 4개, 리어렌즈 5개를 활용하여 다양한 광학배율 표현 아래 예시 이미지처럼 VS-TLS(FR) 렌즈는 프론트 렌즈와 리어렌즈를 자유롭게 교체하면서 다양한 산업 환경에서의 고객의 최적의 솔루션을 제공할 수있습니다. VS-TLS(FR)의 프론트 렌즈를 교체하여 FOV(시야각)을 확장합니다. VS-TLS(FR)의 리어 렌즈를 교체하여 배율을 변화합니다. | VS-TLS(FR) 텔레센트릭 시리즈(FIT-X)렌즈 기술 | - X LOCK SYSTEM과 첨단 렌즈 커플링 기술 - VS-TLS(FR) 렌즈는 독특한 잠금 링 구성을 갖춘 프런트 및 리어 커플링 기술은 팔각형 마운트를 통한 정확한 체결 토크 관리와 견고한 렌즈 고정시켜 줍니다. 이를 통해 기존 나사형이 아닌 표면에 견고하게 고정되는 고정 구조로 정확한 렌즈 체결 보장합니다. - Function Ring을 활용한 편리한 렌즈 조작 - VS-TLS(FR) 렌즈에서 Function Ring은 렌즈를 지지하는 플레이트를 부착하기 위해 도입된 기술입니다. 지그*가 렌즈 본체에 직접 고정되지 않아 성능에 미치는 영향을 최소화하고 해당 렌즈를 돌려서 홀딩 플레이트와 카메라의 위치를 미리 조정할 수 있습니다. 이로써, Function Ring은 렌즈의 부착 및 제거 시에 렌즈의 미세한 조정을 용이하게 해 제품의 효율성을 향상시킵니다. 지그(Jig): 기계가공 시 가공위치 보정을 해주는 보조용 기구. 때로는 그냥 보조용 기구 - 앞부분과 뒷 부분의 조합으로 20가지 다양한 광학 배율 설정 - VS-TLS(FR) 렌즈는 카메라와 카메라의 후면 부분을 그대로 유지하면서, 앞부분을 교체하여 시야를 확장하거나 앞부분을 그대로 두면서 뒷부분(및 카메라)을 교체하여서 시야 및 작업 거리(WD)를 변경하지 않고 광학 배율(픽셀 해상도)을 증가시킬 수 있습니다. 아래 이미지처럼 프론트 렌즈 4개와 리어 렌즈 5개를 통해 조합되는 20가지의 라인업을 살펴보시길 바랍니다. VS-TLS(FR) 렌즈 라인업 검사 대상의 이미지를 카메라 센서에 초점을 맞추기 위해서 렌즈는 모든 이미징 시스템의 필수 구성 요소입니다. 시차 또는 원근 오류를 제거하거나 조정 가능한 배율, 시야 또는 초점 거리를 제공하는 데 사용할 수 있기 때문입니다. " VS-TLS(FR) 렌즈는 이러한 필수적인 기능들을 넘어서, 시야 및 작업 거리(WD)를 변경하지 않으면서 광학 배율(픽셀 해상도)을 증가시킬 수 있는 독특한 기능을 제공합니다. " 이를 통해 사용자는 다양한 산업환경에서 최적화된 솔루션을 찾을 수 있으며, 검사 대상의 세밀한 조정과 더 높은 픽셀 해상도를 동시에 달성할 수 있습니다. | 머신 비전 렌즈 95억 달러의 가치를 가지다 | 시장 정보 및 자문 회사인 Research Dive의 최신 수치에 따르면 글로벌 산업용 머신 비전 렌즈 시장은 6.1%의 안정적인 연평균 성장률(CAGR)로 성장하며 2026년까지 95억 3,740만 달러의 가치를 가질 것으로 예상했습니다. 글로벌 산업용 머신 비전 렌즈 시장 보고서에서는 다양한 산업의 운영 흐름에 대한 분석 및 검사의 필요성을 언급했습니다. 즉 많은 산업 조직에서의 검사에서 머신비전 렌즈의 사용성이 증가할 것입니다. " 이런 환경에서 VS-TLS(FR) 렌즈는 높은 수요와 성장하는 산업용 머신 비전 렌즈 시장에서 혁신적인 솔루션으로 제공되어질 것입니다. " VS-TLS(FR) 렌즈의 적용 가능한 어플리케이션(PCB,반도체,전자부품) 최신 기술과 다양한 광학 배율 조합으로 제작된 FIT-X는 산업 조직에서 PCB, 반도체, 전자 부품 등 다양한 어플리케이션에서 효과적으로 활용할 수 있도록 지원하며, 글로벌 시장에서의 머신 비전 렌즈 수요를 충족시키기 위한 탁월한 선택지입니다. VS-TLS(FR) 렌즈는 머신비전 렌즈의 혁신적인 발전을 끌어내 다양한 응용 분야에서 뛰어난 성능을 제공할 것입니다. VS-TLS(FR) 렌즈의 자세한 내용은 화인스텍 홈페이지를 통해 알아보세요!
2023.12.27| 식음료 검사 품질 관리를 향상시키는 'SWIR' 기술 | SWIR은 산업계에서 ‘게임 체인저’로 자리잡고 있습니다 최근 SWIR Imaging 2023 시장 보고서에 따르면, 산업, 국방, 소비자 부문의 수요 증가로 인해 2028년까지 SWIR 이미징 시장 규모가 약 30억 달러로 전망되었습니다. 최근 몇 년 동안 제조 라인에서는 가시광선 스펙트럼을 넘어선 광자를 감지할 수 있는 SWIR(단파 적외선)을 감지할 수 있는 InGaAs(인듐 갈륨 비소) 센서가 탑재된 카메라 기술을 활용하여 이미지 품질과 경제성을 향상시키고 있습니다. SWIR 이미징이 식품 및 음료 품질 통제를 향상시키는 방법 “보이지 않는 곳을 더 깊이 비추고 투과하다” SWIR는 이미징 솔루션을 사용하여는 불가능했던 품질 검사의 새로운 가능성을 열었습니다. SWIR 빛은 물질의 분자와 상호 작용할 때 빛 광자가 흡수되는 유기 및 비유기 물질 모두로 더 깊이 전달될 수 있습니다. NIR 빛은 농업에서 작물 스트레스와 질병을 조사하거나, 식품 및 음료 제조에서 오염 및 기타 품질 문제를 감지하는 데 일반적으로 사용됩니다. 그러나 시각적 관측하기 어려운 재료들은 수분 함량이 높은 영역을 중심으로 이미지 대비가 더 명확하게 나타내는 짧은 파장 적외선(SWIR) 빛이 NIR 빛보다 더 나은 검사 기능을 제공할 수 있습니다. " SWIR은 기술을 사용하면 이미지 투과, 이물질 감지, 오염 및 결함을 확인할 수 있습니다. " SW-4010Q-MCL-Image- SWIR 이미지 투과 SW-4010Q-MCL-Image- SWIR를 통한 결함 확인(좌), 이물질 감지(우) 1. 이미지 투과 SWIR(단파 적외선) 기술은 확장된 검사 파장 범위를 통해 제품 품질을 향상시키는 데 기여합니다. 가시광선 스펙트럼에서 보이지 않거나 검사하기 어려운 플라스틱, 세라믹, 반도체와 같은 소재들을 효과적으로 검사할 수 있어 더 빠르고 정확하며 신뢰도 높은 결과를 얻을 수 있습니다. 2. 이물질 감지 SWIR 이미징이 강점을 보이는 또 다른 분야는 이물질 감지입니다.돌, 금속, 플라스틱과 같은 이물질을 효과적으로 감지하고, 이를 추가 가공하기 전에 효율적으로 제거할 수 있어 식품 가공에서 특히 유용하게 활용됩니다. 3. 오염 및 결함 확인 SWIR 조명은 불투명한 플라스틱과 유리를 "투명"하게 만들 수 있는 기능을 포함하고 있습니다. 이 기술은 포장 및 용기의 오염을 확인하고 액체 또는 분말의 정확한 함량 및 충전 수준을 확인하는 데에도 효과적으로 사용될 수 있습니다. SWIR 기술은 확장된 검사 파장 범위로 인해 더 빠르고 정확하며 신뢰성 있는 결과를 제공하여, 더 첨단의 검사를 가능케 하고 오염이 줄어들며 분류 능력과 제품 품질이 향상됩니다. 따라서,SWIR 이미징은 과일 및 야채 검사와 같은 응용 분야에서 결함이 있는 제품을 더 쉽게 식별하고 포장하기 전에 컨베이어 벨트에서 제거할 수 있어 효과적입니다. | JAI Sweep+, 가시광선과 SWIR 광선을 동시에 이미징 하다 | SWIR 카메라는 검사 과정에서 효율성을 높일 수 있지만, 많은 머신 비전 애플리케이션에는 크기와 모양을 확인하고 물체의 색상 뉘앙스를 분석하거나 라벨 또는 다른 색상을 확인하기 위해 여전히 일반 가시광선을 보는 카메라가 필요합니다. 이러한 문제를 해결하기 위해 산업용 카메라 제조업체인 JAI는 가시광선과 SWIR 광선의 이미지를 동시에 촬영할 수 있는 새로운 다중 센서 카메라인 JAI Sweep+ 시리즈를 출시했습니다. JAI Sweep+ series homepage logo https://www.jai.com/kr/ JAI는 60년 넘게 35개국 이상에서 산업용 머신 비전, 의료 이미징 및 실외 이미징 애플리케이션을 위한 카메라 하위 시스템을 제공하여 제품의 품질과 정확성 향상, 생산 라인 검사 비용 절감, 생산 수율 증가 등 비전 시스템 솔루션을 제공해왔습니다. Product-Image-SW-4010-Q-MCL-front45-410x370px-RI JAI Sweep+ 시리즈는 컬러 라인 스캔 카메라로, 각각 4,096픽셀의 해상도를 갖는 3개의 CMOS*라인 센서와 라인당 1,024픽셀의 해상도를 갖는 추가 InGaAs 센서*를 통합합니다. *CMOS: 집적 회로의 한 종류로, 메인보드에 내장된 소형 전지로 구동되는 반도체 칩으로 전원이 꺼져도 저장된 설정 정보를 유지할 수 있다. * InGaAs 센서: 인듐(Indium)과 갈륨(gallium) 그리고 비소(arsenide)로 구성된 화합물 반도체를 사용하는 카메라로 파장을 감지하는 센서가 되어 빛과 파장 그리고 열을 감지해 낸다. - 단일 카메라로 가시광선 및 SWIR 동시 검사 - Sweep-plus_SW-4010Q-MCL_R-G-B-SWIR-Camera 차트는 SWIR 빛을 캡처하는 InGaAs 센서뿐만 아니라 세 가지 CMOS 센서(청색, 녹색, 빨간색) 각각에 대한 스펙트럼 응답을 보여줍니다. (SWIR(노란색) 선의 높이는 RGB 선과 상관 관계가 없습니다.) JAI의 새로운 멀티 센서 라인 스캔 카메라인 SW-4010Q-MCL은 세 개의 별도 CMOS 센서(400에서 700 nm)를 통해 빨강, 녹색, 그리고 파랑 가시광선을 동시에 캡처하며, InGaAs 기술을 기반으로 한 네 번째 센서를 통해 SWIR 광선(~800에서 ~1700 nm)을 캡처합니다. " RGB 및 SWIR 이미징을 동시에 사용하면 검사 정확도 향상과 함께 식품 제품에 대한 보다 포괄적인 분석이 가능합니다. RGB 이미징은 가시광을 캡처하고 물체의 색상 이미지를 생성하여 표면 결함을 감지하고 색상 변화를 분석할 수 있습니다. 동시에 SWIR 이미징으로 포장의 색상 인쇄 및 라벨 텍스트의 정확성을 확인할 수 있습니다. " 따라서 품질 통제 향상, 설정 복잡성 및 비용 감소 및 효율을 향시킬 수 있습니다. - 광범위한 다중 스펙트럼 범위 - 새로운 라인 스캔 카메라에는 RGB 출력을 특정 색 공간으로 변환할 수 있는 내장 색 공간 변환과 같은 다양한 고급 기능이 포함되어 있습니다. 이미지 밝기와 색상 균형을 개선하기 위해 RGB 및 SWIR 채널에 대해 노출 시간을 개별적으로 설정하여 다양한 파장대에 대한 빛 축적 시간을 늘릴 수 있습니다. 이를 통해 정밀한 표면 색상 검사를 수행하는 동시에 표면 아래를 살펴보면서 추가적인 "숨겨진" 이미지 데이터를 확인할 수 있습니다. " SWIR 카메라는 곡물 커널의 외부 층을 관통하고 내부의 수분 또는 기타 특성을 감지할 수 있어 곡물 품질과 영양가를 평가하는 데 사용될 수 있습니다. 또한 SWIR 카메라는 분말의 외부 층을 관통하여 분말 내의 이물질이나 오염물질을 감지할 수 있어 분말의 품질과 안전을 보장합니다. " - 유연한 동기화 옵션 - 카메라에는 FOV(시야각)와 RGB 및 SWIR 센서의 라인 속도를 동기화하기 위한 Xscale이라는 특수 픽셀 크기 조정 기능이 있습니다. Sweep+의 Xscale 기능을 사용하여 RGB 센서의 픽셀 크기를 조정히면 사용자는 가시광선과 SWIR 채널의 라인 속도와 시야각을 쉽게 정렬하고, RGB 픽셀 해상도를 SWIR 채널, SWIR 채널의 2배 또는 맞춤 해상도로 설정할 수 있습니다. " 다양한 환경에 대한 맞춤설정으로 RGB 이미징을 통해 변색과 같은 결함에을 발견하고, SWIR 이미징으로 포장을 통과하여 습기, 멍, 내부 결함과 같은 부재면 특징을 감지할 수 있습니다." 따라서 새로운 RGB-SWIR 라인 스캔 카메라인 SW-4010Q-MCL을 사용하면, 식품 용기의 외부 품질과 완성도를 검사하는 동시에 내부 내용물도 확인할 수 있습니다. 이러한 기술의 향상은 제조 회사의 생산 프로세스 속도를 높이며, 제조 효율성과 생산 수율을 향상시키면서 동시에 제조 라인의 완제품 품질을 향상시킬 수 있습니다. 식품 및 음료 산업은 소비자에게 안전하고 고품질의 제품을 제공해야 하기 때문에 품질 관리 기준은 매우 엄격합니다. JAI의 SW-4010Q-MCL 모델과 같은 카메라는 동시에 RGB 및 SWIR 이미징을 제공할 수 있어, 한 번의 패스로 입자 재료의 고해상도 이미지 캡처를 지원하며 이를 통해 작은 결함이나 오염물질조차 식별할 수 있게 되어 전체 최종 제품 품질을 향상시킬 수 있습니다. SWIR 카메라를 통해 눈으로 볼 수 없는 특성까지 확인한다면, 식품 및 음료의 품질 관리가 더욱 쉬워질 것입니다. JAI 제품에 대한 자세한 정보는 화인스텍 홈페이지를 통해 확인할 수 있습니다. http://www.fainstec.com/main/product_view.asp?p_idx=5765
2023.12.11머신비전 시스템은 2차전지, 디스플레이, 반도체, 스마트팩토리 등 수많은 어플리케이션에 사용 되어지고 있습니다. 머신비전 시스템에서 가장 중요한 부품인 카메라는 빠른 속도로 발전하고 있으며 고객 여러분의 어플리케이션에 적합한 카메라, 렌즈, 프레임그래버, 조명 등의 사양을 선정 하는 것은 굉장히 중요합니다. 화인스텍에서 진행하는 세번째 웨비나는 “머신비전 프레임그래버의 현재 그리고 미래”란 주제로 현재 많이 사용되고 있는 프레임그래버의 종류 및 프레임그래버의 전망에 대한 내용으로 구성하였습니다. 프레임그래버는 CameraLink 및 CoaXPress 인터페이스인 카메라를 사용하기 위해선 필수적으로 채용해야 되는 머신비전 부품 중 하나입니다. 지난 6월 화인스텍이 진행했던 “어플리케이션에 적합한 머신 비전 카메라 선정 방법”과 9월에 진행했던 “머신비전 렌즈 기초 설명 및 어플리케이션 별 선정 방법”에 이어 진행되는 웨비나로서 함께 들으시면 더욱 좋습니다. 어플리케이션에 적합한 머신비전 카메라 선정 방법 링크 : 주식회사 화인스텍 (fainstec.com) 머신비전 렌즈 기초 설명 및 어플리케이션 별 선정 방법 링크 : 주식회사 화인스텍 (fainstec.com)
2023.12.06옵토튠(Optotune)은 스위스 기업으로, 광학 솔루션을 제공하는 회사입니다. 주로 튜닝 가능한 렌즈 및 광학 시스템을 개발하여 다양한 산업 및 응용 분야에 전자적 혹은 기계적으로 렌즈의 형태를 조절할 수 있는 혁신적인 기술을 제공하여 여러 산업의 광학 시스템의 성능을 최적화하는 것을 목표로 하고 있습니다. Optotune사 제품 개발의 목적성은 뚜렸합니다. "Working Distance가 계속 변화하는 환경에서 어떻게 지속적으로 초점을 맞출수 있을까?" WD가 서로 다른 물체에 포커스를 맞춰야 한다면? Optotune의 렌즈는 전자적으로 초점 튜닝이 가능한 렌즈입니다. 이 렌즈는 컨트롤 신호에 따라 렌즈의 곡률을 조절함으로써 초점 거리를 조절할 수 있습니다. Optotune Tunable Lens 옵토튠 가변 초점 렌즈의 원리는 우리의 눈이 초점을 변경하는 원리와 같다고 보시면 됩니다. 일반적인 머신비전 렌즈(고정 초점)는 초점을 맞추기 위해 위, 아래로 WD 변경을 통해 초점을 조정합니다. 혹은 유리 등의 고체를 활용하여 초점을 맞춥니다. 옵토튠 렌즈는 사람의 눈 처럼 렌즈 자체의 형태를 변경하여 초점을 조정합니다. 오목과 볼록 모두 가능한 형식의 형상 분리 렌즈가 큰 특징입니다. 유동체(Liquid)와 분리막(Membrane)으로 이루어진 용기를 활용하여 렌즈의 곡률을 조절합니다. 이는 단순 카메라의 초점 기능을 넘어서는 물류 레이저 가공 및 마킹 메디컬 분야 자동차 산업 레이저 스캐팅 및 3D 인쇄 등 다양한 분야에서 활용될 수 있습니다. 높이가 다른 택배 상자의 바코드 라벨 초점을 빠르고 쉽게 읽어낼 수 있습니다. Optotune 렌즈 곡률 조절을 통한 레이저 초점 조절 Optotune 렌즈 초점 조절을 활용한 레이저 마킹 및 3D 어플리케이션 옵토튠의 가변 초점 렌즈는 대상의 크기, 초점 능력, 파장 범위(400-2500nm) 등의 다양한 조건에 따른 제품 군이 나누어져 있습니다. KEY FEATURES Response time of few milliseconds Low dispersion (Abbe# V>100) Lifetime > 1 billion cycles High repeatability <0.1 dpt Optotune Electrically tunable lenses products specifications Optotune 가변 초점 렌즈의 더 자세한 정보는 홈페이지를 통해 확인해보세요. http://www.fainstec.com/main/product.asp?cate=%EB%A0%8C%EC%A6%88&o_idx=119
2023.11.28머신비전 시스템은 2차전지, 디스플레이, 반도체, 스마트팩토리 등 수많은 어플리케이션에 사용 되어지고 있습니다. 머신비전 시스템에서 가장 중요한 부품인 카메라는 빠른 속도로 발전하고 있으며 고객 여러분의 어플리케이션에 적합한 카메라, 렌즈, 조명 등의 사양을 선정 하는 것은 굉장히 중요합니다. 화인스텍에서 진행하는 두번째 웨비나는 “머신비전 렌즈 기초 설명 및 어플리케이션 별 선정 방법”이란 주제로 머신비전의 가장 중요한 눈의 역할을 하는 렌즈에 대해 이해하고 우리 산업에 적합한 렌즈를 선정할 수 있는 방법들에 대한 내용으로 구성하였습니다. 지난 6월 화인스텍이 진행했던 첫 번째 웨비나 “어플리케이션에 적합한 머신 비전 카메라 선정 방법”에 이어 진행되는 웨비나로서 함께 들으시면 더욱 좋습니다. 어플리케이션에 적합한 머신비전 카메라 선정 방법: 주식회사 화인스텍 (fainstec.com)
2023.09.26오늘은 전자제어장치 핀 커넥터 검사에 최적화된 Automation Technology사의 3D 스캐너 C6 Compact Sensor 시리즈에 대해 소개해 드리겠습니다. Automation Technology는 독일의 3D 이미징 솔루션 전문 기업으로 20년 이상의 3D 센서 개발 및 산업 적용 경험을 바탕으로하는 글로벌 기업입니다. https://www.automationtechnology.de/cms/en/ 전자제어시스템 커넥터 핀 검사 일반적으로 한 대의 자동차를 완성하기 위해서는 보통 70-100개 이상의 MCU 기반의 분산처리형 전자제어장치(ACU, ECU)가 들어간다고 합니다. 해당 전자제어장치는 전원변환장치, 모터제어장치, 배터리관리시스템, 차량제어장치, 충전 컨트롤러, 안전 및 보안 시스템 등 다양한 기능이 정확하게 작동될 수 있도록 해야 하기 때문에 한 치의 불량도 허용할 수 없는 완성도 높은 전자제어장치가 장착되어야 합니다. 특히나 더 많은 전자제어장치가 필요한 전기차 수요의 급증으로 많은 공급업체에서 전자제어장치 컨텍터 핀 검사의 요구 또한 확대되고 있습니다. 제어장치 핀 커넥터 부분 - Image resource from Bosch motorsport 컨넥터 리드라고도 불리는 핀은 모듈간의 연결을 담당하기 때문에 규격에 맞는 완벽한 생산이 요구되고, 동시에 생산 라인에서 불량 검사는 필수입니다. 그렇다면 이러한 전자제어장치 커넥터 핀의 불량 유형은 어떤 것들이 있을까요? 핀의 불량은 크게 △ 핀 휨 △ 핀 잘림 △ 핀 과삽입 △ 핀 미삽입 △ 피치 등이 있습니다. Automation Technology사의 3D 스캐너 시리즈 Compact Sensor C6는 제어장치 커넥터 핀 검사에 최적화된 모델로 출시한 제품으로 일체형 커넥터부터, Pressfit을 사용한 커넥터까지 다양한 핀 검사를 빠르고 정확하게 수행하는 모델입니다. Automation Technology 3D Compat Sensor를 활용한 핀 커넥터 검사 Automation Technology 3D Compat Sensor를 통한 커넥터 핀 검사는 음영 지역을 최소화 할 수 있는 자체 기술이 있으며, 커넥터 핀의 유무 검사, 핀 단차, 휨 등의 불량 검사에 탁월한 성능을 보여줍니다. " Pre-Calibrated Compact 3D Sensor " C6 시리즈는 소형 사이즈 모델임에도 제품을 구성하는 기술들이 집약적으로 포함되어 있으며, 생산 시 요구되는 모든 캘리브레이션 작업을 진행 후 제작하기 때문에 추가적인 캘리브레이션 작업이 필요하지 않다는 점이 큰 특징입니다. " 공정 TACT TIME을 효과적으로 단축시키는 Multi Region 기술 " Automation Technology 3D Compact Sensor C6의 또 하나의 큰 장점은 바로 공정 시간(Tact Time)을 효과적으로 단축시킬 수 있다는 점입니다. Multi Region이라는 독자적 기술을 통해 측정하려는 영역을 지정하여 검사를 진행하고, 불필요한 영역을 제거하여 프레임레이트(fps)를 증가시키는 기술입니다. 대량으로 전자제어장치 핀 커넥터를 검사하는 라인에서 실제 검사 속도를 비교해본 결과, 불 필요한 영역을 제거했을 때 2배 가까운 빠른 공정 시간 단축이 될 수 있다는 점을 확인했습니다. " Advanced Triangulation Algorithms " Automation Technology 3D Compact Sensor C6 카메라는 보다 높은 품질의 3D 데이터를 얻기 위해 4개의 알고리즘을 사용하여 최적의 Peak값 위치를 설정할 수 있습니다. AT사의 Compact Sensor C6 시리즈는 다양한 커넥터 핀 검사 및 모든 어플리케이션에 적용 가능하도록 라인업이 구성되어 있습니다. 좀 더 자세한 사항은 화인스텍 홈페이지에서 확인 가능합니다. http://fainstec.com/main/product_view.asp?p_idx=5582
2023.09.221. Fast Boot 설정 방법 Windows에서 설정 방법 시작 메뉴에서 '전원 및 절전 설정'을 검색해 실행합니다. '추가 전원 설정'을 클릭합니다. '전원 단추 작동 설정'을 클릭합니다. '현재 사용할 수 없는 설정 변경'을 클릭합니다. '빠른 시작 켜기(권장)'을 체크 해제하고 '변경 내용 저장'을 클릭합니다. Bios에서 Fast Boot 설정 방법 ※Bios 진입 및 설정은 메인보드마다 차이가 있기 때문에 참고만 부탁드립니다. 윈도우 진입 전, F2 또는 DEL를 클릭하여 Bios에 진입합니다. (메인보드 제조사 마다 차이가 있음) Boot 메뉴에서 Fast Boot을 Disable로 설정고 Save 후 재부팅 합니다. 3. 전원 관리 설정 윈도우 검색창에 '전원 관리 옵션 선택'을 검색해 실행합니다. 현재 설정을 확인합니다. [고성능]으로 설정되어 있지 않다면, '추가 전원 관리 옵션 표시'를 펼쳐줍니다. [고성능]으로 설정을 진행합니다. '고성능'의 라디오버튼을 클릭하고 '설정 변경'을 클릭하면 옵션 변경이 진행됩니다. '설정 변경'을 클릭하면 아래와 같은 창이 나타납니다. 디스플레이 끄기 설정을 [해당 없음]으로 선택합니다. 추가적인 옵션을 변경하려면 '고급 전원 관리 옵션 설정 변경'을 클릭합니다. 현재 전원 옵션이 [고성능]으로 설정되어 있음을 확인 할 수 있습니다. 추가적인 설정이 필요한 부분에서 설정을 진행하면 됩니다. 기본값을 복원하려면 '전원 관리 옵션 기본값 복원'을 클릭해 복원을 진행하면 됩니다. 2. Windows Defender 방화벽 설정 변경 윈도우 검색창에 'Windows Defender 방화벽'을 검색해 실행합니다. 'Windows Defender 방화벽을 통해 앱 또는 기능 허용'을 클릭합니다.
2023.09.15포토네오(Photoneo)는 로보틱스 비전 분야에서 특허 받은 3D 기술을 바탕으로 다양한 해상도와 높은 품질 및 해상도를 갖춘 3D 카메라를 개발 및 제공하는 회사입니다. Photoneo MotionCam 3D 포토네오의 MotionCam 3D 스캐너는 설치가 간편하지만 성능은 강력한 산업용 실시간 3D 카메라입니다. MotionCam 3D 스캐너는 포토네오사가 보유한 Parallel Structured Light 특허 기술을 통해 물체가 움직이는 여러 동적 환경에 대해 물체의 고해상도 3D 스캐닝이 가능한 카메라입니다. Parallel Structured Light Technology Parallel Structured Light 기술은 구조관 스캐닝의 최고의 품질과 해상도를 매우 역동적인 환경에서 실시간 3D 이미징 구현을 가능하게 하는 기술입니다 기본적인 3D 이미지 센서는 순차적 스캐닝 방법으로는 움직이는 물체를 높은 품질과 해상도로 표현할 수 없지만, 고유의 모자이크 픽셀 패턴 방식이 적용된 이 기술은 근본적으로 각 픽셀 또는 그룹 단위 픽셀로 외부에서 받아오는 신호에 따라 독립적으로 변조될 수 있기 때문에 움직이는 이미지를 포착할 수 있는 방법을 구현해 냅니다 실제 Parallel Structured Light 기술이 다른 스캐닝 기술과 어떠한 독보적 차이가 있는지 아래 스캐닝 된 실제 실시간 스캔 데이터 영상들을 통해 한 번에 확인이 가능합니다. 확실히 더 선명하고 끊김 없는 데이터 확보를 하는 것을 볼 수 있습니다. Photoneo MotionCam 3D의 기능적 특징 --- 진동 억제 기능을 통한 왜곡이나 깨짐 없는 스캔 가능 산업 현장에 특화된 IP 65 등급, POE(Power-over-Ethernet) 특허 받은 병렬 구조광 방식으로 움직이는 물체의 3D 데이터 획득 가능 최대 40m/s로 이동하는 물체를 10us의 픽셀 당 노출 시간으로 스캔 가능 Plug & Play 지원과 직관적인 API를 통한 손 쉬운 설치 및 사용 2 Mega 의 높은 해상도를 통한 정밀하고 Blur 없는 데이터 제공 매 스캔 시 1.5M 개의 3D 포인트 데이터 획득 가능 최소 36cm에서 최대 3m 까지의 넓은 스캐닝 영역 또한, 포토네오의 MotionCam 3D 스캐너는 사용자의 선호에 따라 Color, Normals, Depthmap 등 다양한 Output 데이터 제공이 가능합니다. Photoneo의 MotionCam 3D 스캐너는 탁월한 성능만큼, 움직이는 물체에 대한 감지 및 실시간 측정 길이 3M 이상의 물체에 대한 검사 스캐닝 및 3D모델 생성 실시간으로 움직이는 생상 및 조립 라인에서의 안정적인 스캐닝 등, 다양한 산업 분야에서 활용되고 있습니다. Dimensioning & measurement Overhead conveyors Hand Eye object manipulation Picking of moving objects Scanning of large objects 3D model creation of large objects Moving objects inspection Assembly in motion Photoneo MotionCam 3D Specification Sheet
2023.09.13Locator Studio - 간단한 3D 피킹(Picking) 어플리케이션을 위한 새로운 방법 평평한 바닥 위의 움직이는 물체를 집는 정도의 간단한 작업을 자동화하고 싶으신가요? 이정도 난이도의 작업을 위한 것이라면 세밀한 경로설정 및 알고리즘까지 갖춘 bin picking solution까지 필요하지 않습니다. 로봇 주위에 높은 벽이나 이동 시 충돌위험 없는 평평한 표면 위에서 물체를 집는 것이라면 최신 3D비젼을 적용한 간단한 솔루션 만으로도 해결할 수 있습니다. 이렇게 간단한 솔루션을 적용하면 더 빠르게 작업할 수 있고, 보정과 설정도 쉬워지고 기능을 단순화 할 수 있는 등의 장점이 있습니다. 자동화된 bin picking은 관련된 복잡성 때문에 매우 어려운 기술적 과제로 여겨집니다. "눈 앞의 성배" (Holy Grail in sight)라고 불리기도 하죠. 우리는 여러분이 가장 까다로워하는 bin picking 어플리케이션을 완벽히 숙달할 수 있도록 심혈을 기울여 강력한 로봇지능 솔루션을 개발했습니다. 바로 Bin Picking Studio 입니다. 그러나 매번 bin picking solution처럼 정교하고 복잡한 솔루션이 필요한 것은 아닙니다. 때론 기초적이고 간단한 시스템만으로도 충분히 해결할 수 있는 어플리케이션이 있죠. 높은 난이도의 bin picking 어플리케이션을 위한 복잡한 솔루션은 꽤 많지만, 오히려 빠르게 물체 위치를 파악하고 충돌 없는 피킹(picking)을 위한 간단한 시스템은 없었습니다. 이 때문에 Photoneo는 간단한 어플리케이션을 위한 3D picking 도구인 Locator Studio를 개발했습니다. 이 새로운 Locator Studio는 기존의 검증된 기술적 원리를 토대로 작동하지만 단순성은 기존 bin picking solution보다 빠른 속도, 손쉬운 보정과 구성 및 작동, 특별한 기술이 없어도 손쉽게 사용할 수 있는 등의 많은 이점을 제공합니다. Locator Studio의 주요 장점을 요약하면 다음과 같습니다. * 충돌 없는 환경에서 매우 빠르고 간단한 3D 피킹(picking) * 물체 바로 위 혹은 로봇 팔에 부착된 Phoxi 3D 스캐너나 MotionsCam-3D를 통한 빠른 스캐닝 속도와 우수한 품질의 3D 포인트 클라우드 제공 * 웹을 통한 간편한 캘리브레이션과 설정 * 이전 물체를 picking하는 동안 다음 물체를 단 한 번의 스캔으로 CAD기반의 강력한 위치 데이터 제공 * TCP/IP를 통한 대부분의 모든 로봇 시스템과의 빠른 통합 고성능의 Bin Picking Studio와 간단한 Locator Studio와의 차이점을 더 잘 이해하고 싶다면 아래의 표를 참고하세요. Applications - Locator Studio를 사용할 조건과 환경 Locator Studio는 충돌 없는 환경에서 특정방향으로 이동하는 물체를 집어야 하는 모든 상황에서 사용할 수 있도록 기존 2D나 2.5D application을 업그레이드 합니다. 충돌 없는 환경이란 쟁반, 에어캡, 얕은 통, 정지 및 이동하는 컨베이어 벨트나 랙과 같이 충돌 위험이 없는 평평한 표면을 말합니다. Picking 외 지원하는 application으로는 조립이나 나사 고정, 정밀한 부품의 배치를 위한 delayering, destacking, deracking 또는 부품의 위치 확인 등이 있습니다. Locator Studio는 Phoxi 3D 스캐너 및 MotionCam-3D와 함께 사용할 수 있습니다. 또한 사용자 선호도와 application 상황에 맞게 직접 비전장비를 보정할 수 있습니다. 시스템이 picking하는 방향이나 벡터를 정의할 수 있는 기능이 기본제공되어 추가작업 없이도 원하는 순서나 방향대로 부품을 선택할 수 있다는 점 또한 큰 장점입니다. 기술 호환성 Locator Studio는 TCP/IP 프로토콜을 통해 모든 장치와 통신하므로 이더넷만 있으면 사용할 수 있습니다. 개방된 프로토콜이 철저하게 문서화되어 있기 때문에 모든 로봇 브랜드나 산업용 조작기와 통합할 수 있으며, 이를 통해 Locator Studio는 진정한 만능 스튜디오가 됩니다. TCP/IP 인터페이스는 임의의 컨트롤러나 사용자 설정이 되어있는 PC 또는 PLC와 같은 중간 장비를 통해 비전 컨트롤러와 로봇 컨트롤러를 연결해줍니다. 이것은 새로운 기능입니다. 이전 방식은 스캐너를 비전 컨트롤러와 연결하고 비전 컨트롤러를 로봇 컨트롤러에 연결하는 것이었습니다. Bin Picking Studio가 6축 로봇만 지원하는 데 반해 Locator Studio는 호환성에 제한이 없습니다. Locator Studio는 더 유연하고 보편적인 SCARA, DELTA 또는 팔레트 로봇과 같이 높은 자유도를 가진 고관절 로봇이나 7축 시스템에서 사용할 수 있습니다. 작동 방식 Bin Picking Studio와 마찬가지로 Locator Studio도 두 가지 방법으로 보정(Calibration)할 수 있습니다: 1) 일반적으로 통(bin)위에 있는 로봇 셀의 고정된 위치에 스캐너를 장작하는 외부 보정방식 2) 로봇 팔(arm)에 스캐너를 직접 장착한 상태에서 사용자의 손과 눈으로 보정하는 방식 외부 보정 시 사전에 측정된 크기의 볼을 로봇 팔(arm)의 끝점 또는 그리퍼(gripper)에 부착하여 사용합니다. 손과 눈으로 보정하는 것은 패턴이 있는 보정 보드를 사용합니다. 보정 프로세스는 로봇이 특정 자세를 취한 상태에서 스캐너가 보정 볼이나 보드를 볼 수 있는 여러 지점을 추가하는 것으로 구성됩니다. 사용자는 Locator Studio의 웹 GUI를 통해 보정 지점을 추가할 수 있습니다. 또한 각 자세마다 로봇의 TCP정보를 제공해야 합니다. 반자동 보정을 선택하면 TCP정보도 제공하는 전용 로봇 호출을 통해 로봇이 직접 포인트를 추가합니다. 필요한 만큼의 포인트를 추가한 후 보정 정확도와 매트릭스가 계산되어 비전시스템에 저장됩니다. 이렇게 보정에 성공하면 물체를 피킹(picking)할 준비를 마칩니다. 로봇이 물체의 위치정보를 요청하는 것으로 프로세스가 시작하는데, 이 요청에 따라 비전시스템은 스캔을 수행하며 스캔은 Vision Controller에서 직접 포인트 클라우드로 처리됩니다. 이후 실시간으로 CAD데이터로 변환되어 각 물체의 위치는 X,Y,Z좌표의 형태로 이더넷을 통해 전송됩니다. 스마트 메모리기능과 다양한 형태의 그리퍼(gripper)덕분에 시스템은 여러 모양의 부품의 위치를 확인하고 동시에 피킹(picking)할 수 있게 되었습니다. 이 기능은 기존의 bin picking solution에서는 찾을 수 없던 것입니다. Locator Studio 1.0.0버전은 주로 vacuum이나 magnetic gripper를 고려하여 디자인되었기 때문에 충돌회피 기능을 제공하지 않으므로 기계적으로 gripper와 부품의 충돌을 방지할 수 없습니다. 또한 Locator Studio는 기존의 전통적인 picking 기술로 작동되는데, 이는 새로운 프로그래밍 언어를 배울 필요가 없다는 것을 의미합니다. 하지만 많은 프로세스가 로봇 쪽에서 실행된다는 점에서 사용자가 로봇 프로그래밍에 대한 지식이 있다면 활용면에서 시너지 효과는 매우 클 것입니다.
2023.09.06