KLA 스타일의 검사·계측이 수율, 스크랩, 사이클 타임, 비용에 어떻게 영향을 주는지 실무 관점에서 정리한 안내—무엇을 추적하고 팹이 도구를 어떻게 선택하는지도 포함.

검사와 계측은 팹의 “눈”이지만, 보는 목적이 다릅니다.
**검사(Inspection)**는 답합니다: 웨이퍼 어딘가에 뭔가 잘못됐는가? 입자, 긁힘, 패턴 파손, 오염 또는 향후 고장과 상관관계가 있는 미묘한 이상을 스캔합니다.
**계측(Metrology)**은 답합니다: 공정이 우리가 의도한 대로 작동하고 있는가? 임계 치수(CD), 오버레이(층 간 정렬), 박막 두께 등 칩 기능에 결정적 영향을 주는 파라미터를 측정합니다.
팹은 측정할 수 있는 것만 통제할 수 있지만—측정 자체가 툴 시간, 엔지니어링 주의력, 큐 공간을 소비합니다. 따라서 끊임없는 트레이드오프가 존재합니다:
검사가 너무 느리면 결함이 로트 전반으로 퍼질 수 있습니다. 계측이 지나치게 노이즈하면 엔지니어는 실제로 드리프트하지 않은 공정을 ‘쫓아다니며(chase ghosts)’ 조정할 위험이 있습니다.
가장 큰 영향을 주는 팹 결정의 대부분은 극적이지 않습니다—측정 데이터를 기반으로 하루에 수십 번 내려지는 일상적 판단들입니다:
이 판단들이 조용히 수율, 사이클 타임, 웨이퍼당 비용을 결정합니다. 최고의 팹은 단순히 “많이 측정”하는 것이 아니라 올바른 것을 적절한 빈도로, 신호에 대한 신뢰를 가지고 측정합니다.
이 글은 KLA와 같은 벤더가 수율 관리에 어떻게 들어맞는지—어떤 측정이 중요한지, 그것들이 어떻게 행동을 유도하는지, 그리고 경제성에 어떤 영향을 주는지—이해하는 데 도움이 되는 개념에 집중합니다.
모델별 사양이나 독점적 세부 수치는 다루지 않습니다. 대신 검사와 계측 선택 뒤의 실무 논리를 설명하고, 그 선택들이 경쟁력에 어떻게 파급되는지를 보여줍니다.
웨이퍼는 "한 번만 측정"되지 않습니다. 패터닝과 재료 변화 루프를 지나면서 반복적으로 확인됩니다. 단순화한 경로는 다음과 같습니다: 리소그래피(패턴 인쇄) → 에칭(전사) → 증착(박막 추가) → CMP(평탄화) → 수십 개 레이어 반복 → 전기 테스트 및 최종 분류.
측정은 변동을 나중에 고치기 비용이 커지는 지점 바로 뒤에 삽입됩니다:
팹은 모든 것을 같은 빈도로 측정하지 않습니다. 핵심 레이어(타이트한 설계 규칙, 민감한 오버레이 버짓, 신규 공정 단계)는 샘플링을 높이는 경향이 있습니다—로트당 더 많은 웨이퍼, 웨이퍼당 더 많은 사이트, 더 빈번한 검사. 성숙하거나 덜 중요한 레이어는 처리량을 보호하기 위해 더 가벼운 샘플링을 사용합니다.
샘플링 플랜은 기술적 결정만큼이나 비즈니스 결정입니다: 너무 적게 측정하면 이스케이프가 늘고, 너무 많이 측정하면 사이클 타임이 악화됩니다.
실무 목표는 균형: 공정을 제때 조정할 충분한 인라인 커버리지와, 데이터가 변화를 시사할 때의 타깃 오프라인 작업.
검사는 종종 "결함을 찾는 것"으로 설명되지만, 실제 업무는 어떤 신호에 대응할 가치가 있는지를 결정하는 것입니다. 현대 팹은 하루에 수백만 건의 결함 '이벤트'를 생성할 수 있고, 그중 극히 일부만 전기적 성능에 영향을 줍니다. 플랫폼과 툴(예: KLA급 시스템)은 원시 이미지를 결정으로 바꾸는 데 도움을 주지만, 항상 트레이드오프가 존재합니다.
결함은 레이어, 패턴, 공정 단계에 따라 다릅니다:
많은 경우 처음 보기엔 유사하게 보입니다. 밝은 ‘점’은 한 레이어에서는 무해한 레지스트 이물질일 수 있지만, 다른 레이어에서는 수율 킬러일 수 있습니다.
키러 결함은 기능적 고장을 유발할 가능성이 높은 결함입니다(오픈, 쇼트, 누설, 파라메트릭 이동). 너이선스 결함은 실제이거나 겉보기로는 존재하더라도 수율에 영향을 주지 않습니다—마진 안의 미관적 거칠기 등.
분류는 중요합니다. 팹은 단순히 감지 비용만 지불하는 것이 아니라, 그 감지가 유발하는 검토 시간, 로트 보류, 재작업, 엔지니어링 분석, 툴 다운타임 등에 대한 비용을 지불합니다. 분류가 좋을수록 불필요한 대응이 줄어듭니다.
고수준에서 결함 밀도는 단위 면적당 결함 수입니다. 칩이 커지거나 설계 규칙이 타이트해지면, 핵심 영역에 키러가 적어도 하나 떨어질 확률이 올라갑니다. 따라서 키러 결함 밀도를 소폭이라도 줄이면 눈에 띄는 수율 향상을 만들 수 있습니다.
완벽한 검사 시스템은 없습니다:
목표는 "모든 것을 찾는 것"이 아니라, 적절한 비용으로 적시에 올바른 것을 찾는 것입니다.
계측은 팹이 "툴이 돌았다"를 "패턴이 실제로 의도한 대로 나왔는가"로 바꾸는 방법입니다. 수율 학습에서 자주 등장하는 세 가지 측정은 임계 치수(CD), 오버레이, 그리고 드리프트입니다.
CD는 인쇄된 피처의 측정된 폭입니다—트랜지스터 게이트 길이나 좁은 금속선의 폭을 생각하면 됩니다. CD가 약간만 빗나가도 전기적 거동이 빠르게 바뀝니다: 너무 좁으면 저항이 증가하거나 오픈이 생기고, 너무 넓으면 이웃과 쇼트되거나 트랜지스터 구동 전류가 변합니다. 최신 설계는 마진이 작아서 몇 나노미터의 바이어스가 많은 다이에서 "안전"에서 "체계적 실패"로 이동시킬 수 있습니다.
CD 문제는 종종 포커스/노광 시그니처를 가집니다. 포커스가 어긋나면 선이 둥글어지거나 목이 조여지거나 '핀치'된 것처럼 보일 수 있습니다. 노광량이 어긋나면 피처가 너무 크게 또는 너무 작게 인쇄됩니다. 평균 폭은 괜찮아 보여도 형태(fidelity)가 뒤틀려 있을 수 있습니다.
오버레이는 한 레이어가 이전 레이어에 얼마나 정확히 쌓였는지를 측정합니다. 정렬 오류가 누적되면 비아가 타깃을 놓치고, 콘택트가 부분적으로 놓이거나 엣지가 잘못 겹쳐져 칩이 실패할 수 있습니다. 각 레이어의 CD가 ‘완벽’해도 레이어들이 정렬되지 않으면 고장이 날 수 있습니다.
일반적으로 팹은 빠르고 고처리량인 측정에 광학 계측을 사용하고, 더 작은 피처를 날카롭게 보기 위해 SEM 기반 계측을 사용합니다. 벤더는 측정이 실제 드리프트를 얼마나 빨리 포착하는가—로트 전체 수율 손실로 번지기 전에—를 기준으로 선택됩니다.
공정 드리프트는 조용한 적입니다: 온도, 화학, 장비 마모, 리타클 변경이 CD와 오버레이를 서서히 밀어 팹이 갑자기 스펙 밖으로 나가게 만듭니다.
측정은 그것이 일관된 결정을 촉발할 때만 비용을 줄입니다. 그 "마지막 마일"이 통계적 공정 관리(SPC)입니다: 검사와 계측 신호를 운영자가 신뢰하는 행동으로 바꾸는 루틴입니다.
에칭 단계 후 CD 측정이 더 넓게 드리프트하는 상황을 상상해보세요.
피드백 제어는 고전적 루프입니다: 결과를 측정하고 에처 레시피를 조정해 다음 로트가 목표로 돌아오게 합니다. 강력하지만 항상 한 스텝 늦습니다.
피드포워드 제어는 업스트림 정보를 사용해 오류가 나중에 나타나지 않게 방지합니다. 예를 들어 리소그래피 오버레이나 포커스 측정이 특정 스캐너에서 알려진 바이어스를 지시하면, 해당 로트를 가공하기 전에 다운스트림 에치나 증착 설정을 자동으로 조정할 수 있습니다.
SPC 차트는 목표 주위에 **관리 한계(control limits)**를 그립니다(종종 공정 변동을 기준으로). 데이터가 그 한계를 넘으면 예외(excursion)—공정이 단순한 노이즈가 아니라 변했다는 신호입니다.
팀이 "아마 괜찮겠지"라며 알람을 자주 무시하면 두 가지가 발생합니다:
신뢰할 수 있는 알람은 적절한 이유로 빠르고 반복 가능하게 라인을 멈추게 합니다.
지연(latency)은 가공과 사용 가능한 측정 사이의 시간입니다. CD 결과가 여러 로트가 이미 처리된 뒤에 도착하면, 피드백 보정은 미래만 고치고 현재에는 결함이 쌓입니다. 지연이 작을수록(또는 샘플링이 스마트할수록) 위험에 처한 소재가 줄어들고 피드백/피드포워드 모두 개선됩니다.
한계, 대응 계획, 책임이 명확하면 "혹시 몰라" 보류되는 로트가 줄고 비용 큰 재작업이 줄어듭니다. 그 보상은 더 조용한 운영: 더 적은 변동, 더 적은 놀람, 더 빠른 수율 학습입니다.
측정은 팹에서 단순한 "간접비"가 아니라—비싼 실수를 예방하거나 비싼 바쁜 일을 만들 수 있는 선택의 집합입니다. 비용 영향은 예측 가능한 버킷에 나타납니다:
검사의 감도를 올리면(예: 더 작은 결함 사이즈까지 탐지) 이스케이프는 줄어들 수 있지만, 엔지니어링이 너이선스 신호로 넘쳐나 비용이 증가할 수 있습니다. 모든 "가능한 결함"이 보류로 이어지면, 팹은 툴 유휴 시간, 큐 증가, 분석 노동에서 비용을 치릅니다.
경제적 질문은 "도구가 그것을 볼 수 있는가?"가 아니라 "그것에 대응함으로써 생성되는 이득이 만든 비용보다 큰가?"입니다.
어디를 더 측정하느냐(또는 덜 측정하느냐)는 어떤 도구를 사느냐만큼 중요합니다. 고위험 레이어(신규 공정 단계, 타이트한 오버레이 레이어, 알려진 예외 포인트)는 보통 더 촘촘한 샘플링을 받을 자격이 있습니다. 안정된 레이어는 더 가벼운 샘플링과 강한 SPC 가드레일에 의해 더 잘 봉사됩니다.
많은 팹은 검사/계측 출력을 사용해 레이어별로 커버리지를 조정합니다: 예외가 자주 발생하는 곳에서 커버리지를 늘리고, 신호가 거의 행동을 유발하지 않는 곳에서는 줄입니다.
좋은 포착: 전체 로트를 손상시킬 포커스 드리프트를 조기에 감지해 빠른 보정을 가능하게 하고 다운스트림 리소그래피/에칭 단계를 절약.
비용을 유발하는 노이즈: 수율과 전기적 결과는 변하지 않는데도 반복적으로 무해한 패터닝 아티팩트를 플래그해 보류와 검토를 트리거—사이클 타임을 태우면서 스크랩은 줄지 않음.
수율 학습은 "공짜"로 일어나지 않습니다. 모든 검사 스캔, 계측 샘플, 결함 리뷰는 희소한 툴 시간을 소비하고—그 용량이 빡빡할 때 측정은 사이클 타임을 늘리는 공장 제약이 됩니다.
대부분의 사이클 타임 영향은 스캔 자체가 아니라 기다림입니다. 팹은 주로 다음에서 큐가 쌓이는 것을 봅니다:
그 큐들이 라인 전반의 로트를 느리게 하고 WIP를 늘리며, 재확인을 건너뛰고 단지 소재를 움직이게 하는 비최적 결정을 강요할 수 있습니다.
측정 용량을 계획하는 것은 단지 "충분한 도구를 사는 것"이 아닙니다. 그것은 레시피 믹스에 용량을 맞추는 것입니다. 긴 민감한 검사 레시피는 가벼운 모니터보다 툴 시간을 여러 배 소비할 수 있습니다.
팹이 사용하는 주요 수단:
자동화는 "사이의" 작업을 줄일 때 사이클 타임을 개선합니다:
속도의 가장 큰 보상은 학습입니다. 검사와 계측 결과가 빠르게 명확하고 실행 가능한 진단으로 흐르면 팹은 동일한 예외를 여러 로트에 걸쳐 반복하는 것을 피합니다. 이는 재작업, 스크랩 위험, "우려 때문에 샘플링을 늘리는" 누적된 사이클 타임 피해를 줄입니다.
피처 축소는 단지 칩을 빠르게 하는 것뿐만 아니라, 측정을 더 어렵게 만듭니다. 첨단 노드에서 허용 오차 창이 매우 작아져 검사 감도와 계측 정밀도가 동시에 향상되어야 합니다. 결과는 단순합니다: 이전에 무해하던 결함이나 몇 나노미터의 드리프트가 갑자기 웨이퍼를 "양호"에서 "한계"로 뒤집을 수 있습니다.
EUV는 결함 및 계측 문제를 몇 가지 중요한 방식으로 바꿉니다:
이것은 팹을 더 민감한 검사, 스마트 샘플링, 측정과 조정 간의 더 타이트한 연결로 밀어냅니다.
EUV가 있더라도 많은 레이어는 다중 패터닝 단계와 복잡한 3D 스택을 포함합니다(더 많은 박막, 더 많은 인터페이스, 더 많은 지형). 이것은 다음 가능성을 높입니다:
계측 타깃이 덜 대표적이 될 수 있고 레시피는 수율과의 상관성을 유지하기 위해 자주 튜닝되어야 합니다.
모든 레이어가 동일한 감도나 정밀도를 필요로 하진 않습니다. 로직, 메모리, 전력 소자는 서로 다른 실패 메커니즘에 초점을 맞추고, 하나의 칩 내에서도 게이트, 콘택트, 비아, 금속 레이어는 매우 다른 검사 임계값과 계측 불확실성을 요구할 수 있습니다. 이기는 팹은 측정 전략을 레이어별 엔지니어링으로 다루고 일괄 설정을 피합니다.
검사와 계측은 결과가 교대마다 그리고 툴마다 반복 가능할 때만 수율에 도움이 됩니다. 실제로 이는 측정 물리학보다 운영 규율(레시피, 툴 매칭, 보정, 통제된 변경)에 더 많이 달려 있습니다.
"레시피"는 특정 레이어/제품에 사용되는 측정 위치, 광학/빔 설정, 포커스 전략, 임계값, 샘플링 플랜, 분류 규칙의 저장된 집합입니다. 좋은 레시피 관리는 복잡한 툴을 일관된 생산 장비로 바꿉니다.
작은 레시피 차이는 "가짜" 예외를 만들 수 있습니다—민감도가 바뀌었기 때문에 한 교대가 더 많은 결함을 본다고 느낄 수 있습니다. 많은 팹은 레시피를 버전 관리하고 접근을 통제하며 제품/레이어 ID에 연동해 같은 웨이퍼가 항상 동일하게 측정되도록 합니다.
대량 생산 팹은 용량과 중복성을 위해 여러 대의 툴(종종 여러 세대)을 운용합니다. 툴 A가 CD를 툴 B보다 3 nm 높게 읽는다면, 두 개의 공정이 아니라 두 개의 자(ruler)가 있는 것입니다.
보정은 자를 기준에 고정시키고, 매칭은 서로 다른 자를 정렬합니다. 여기에는 주기적 게이지 체크, 기준 웨이퍼, 오프셋과 드리프트의 통계적 모니터링이 포함됩니다. 벤더는 매칭 워크플로를 제공하지만, 누가 오프셋을 승인하는지, 얼마나 자주 재매칭할지, 어떤 한계가 정지를 유발하는지에 대한 명확한 소유권이 필요합니다.
재료, 패턴, 목표가 바뀔 때 레시피도 바뀌어야 하지만 모든 변경은 검증이 필요합니다. 일반적 관행은 "섀도 모드": 업데이트된 레시피를 병렬로 실행해 델타를 비교하고, 상관성을 유지하고 다운스트림 SPC 한계를 깨지 않을 때만 승격(promote)합니다.
일상적 안정성은 빠르고 일관된 결정에 달려 있습니다:
이 워크플로가 표준화되면 측정은 변동의 원인이 아니라 신뢰할 수 있는 제어 루프가 됩니다.
측정은 공정이 드리프트하기 전에 결정을 바꿀 때만 경쟁력을 향상시킵니다. 아래 KPI는 검사/계측 성능을 수율, 사이클 타임, 비용과 연결합니다—주간 리뷰를 데이터 덤프로 만들지 않으면서요.
캡처율(Capture rate): 검사가 찾아내는 "실제" 수율 제한 결함의 비율입니다. 단일 수치가 아니라 결함 유형과 레이어별로 추적하세요.
결함 추가자(Defect adder): 측정 단계 자체가 도입한 결함(취급, 추가 큐 시간으로 인한 WIP 위험, 재작업). 추가자가 상승하면 "더 많은 샘플링"이 오히려 역효과일 수 있습니다.
너이선스 비율(Nuisance rate): 탐지된 이벤트 중 행동을 유발하지 않는 비율(노이즈, 무해한 패턴 아티팩트). 높은 너이선스 비율은 리뷰 용량을 소모하고 근본원인 조사 지연을 만듭니다.
정밀도(Precision): 동일한 피처에서 툴의 반복성; 관리 한계를 얼마나 좁힐 수 있는지와 직접 연관됩니다.
정확도(Accuracy): 진짜 값(또는 합의된 기준)에 얼마나 가까운가. 정밀도만 있고 정확도가 없으면 체계적 오조정이 발생합니다.
TMU(총 계측 불확실성): 반복성, 매칭, 샘플링 효과, 레시피 민감도를 합친 실무적 롤업.
툴 매칭: 동일 레시피를 운용하는 툴 간의 일치도. 매칭이 나쁘면 겉보기 공정 변동이 커지고 디스패칭이 복잡해집니다.
예외 발생률(Excursion rate): 공정이 정상 윈도우를 벗어나는 빈도(모듈, 레이어, 교대별). **이스케이프 비율(escape rate)**과 짝지어 보세요(다운스트림 영향이 발생하기 전에 포착되지 않은 예외).
평균 탐지 시간(MTTD): 예외 시작부터 탐지까지 시간. MTTD 단축은 종종 원시 툴 사양의 소폭 개선보다 큰 이득을 줍니다.
보류 로트 수: 계측/검사 신호로 보류된 로트의 양과 경과 시간. 너무 낮으면 문제를 놓치고, 너무 높으면 사이클 타임에 타격입니다.
수율 학습 속도: 주요 변경(신규 노드, 신규 툴셋, 대규모 레시피 수정) 후 주/월 단위의 수율 향상 속도.
품질 비용(COPQ): 스크랩 + 재작업 + 긴급 처리 + 늦게 발견된 비용(이스케이프에 기인).
사이클 타임 영향: 측정으로 인한 큐 시간과 재작업 루프. 유용한 관점은 제어 단계별 "로트당 추가되는 사이클 타임 분"입니다.
시작하기 쉬운 세트로는 각 그룹에서 KPI 하나씩 골라 SPC 신호와 함께 동일 회의에서 검토하는 것입니다. 지표를 행동 루프로 바꾸는 방법에 관해서는 /blog/from-measurements-to-action-spc-feedback-feedforward를 참조하세요.
팹에서 툴 선택은 독립형 기기를 사는 것과 다르게 공장 신경계의 일부를 고르는 것과 비슷합니다. 팀은 하드웨어뿐 아니라 주변 측정 프로그램(무엇을 찾을 수 있는지, 얼마나 빠르게 실행되는지, 데이터가 의사결정을 얼마나 신뢰성 있게 구동하는지)을 평가합니다.
우선 팹은 감도(툴이 신뢰성 있게 감지할 수 있는 최소 결함/공정 변화)와 너이선스 비율(무해한 신호를 얼마나 자주 플래그하는지)를 봅니다. 더 많은 이슈를 찾는 툴이 항상 더 좋은 것은 아닙니다—엔지니어를 오탐으로 압도하면 안 됩니다.
두 번째는 처리량(throughput): 요구되는 레시피 설정에서 시간당 웨이퍼 수. 느린 모드에서만 사양을 충족하는 툴은 병목을 야기할 수 있습니다.
세 번째는 **총 소유 비용(Cost of ownership)**인데, 구매가만이 아닙니다:
팹은 툴이 기존 시스템(MES/SPC), 표준 팹 통신 인터페이스, 자동 차트 작성, 예외 감지, 로트 폐기 연계 가능한 데이터 포맷으로 얼마나 매끈하게 들어맞는지 평가합니다. 동등하게 중요한 것은 리뷰 워크플로—결함 분류 방식, 샘플링 관리, 결과가 공정 모듈로 얼마나 빨리 돌아오는가입니다.
일반적인 파일럿 전략은 스플릿 로트(다른 측정 접근을 통해 매치된 웨이퍼 전송)와 골든 웨이퍼를 사용해 툴 간 일관성을 시간 경과로 확인합니다. 결과는 기준(현재 수율, 현재 감지 한계, 보정 속도)에 대해 비교됩니다.
많은 팹에서 KLA와 같은 벤더는 동일한 카테고리(능력, 공장 적합성, 경제성)로 다른 검사·계측 공급자와 함께 평가됩니다—승자는 웨이퍼당 의사결정을 개선하는 쪽이지 단순히 웨이퍼당 측정을 더 많이 하는 쪽이 아닙니다.
수율 학습은 단순한 인과 사슬입니다: 감지 → 진단 → 교정.
검사는 어디서와 언제를 결함이 나타나는지 찾고, 계측은 공정이 얼마나 벗어났는지 설명합니다(CD, 오버레이, 박막 두께 등). 공정 제어는 그 증거를 레시피 조정, 스캐너/에처 튜닝, 유지보수 강화, 샘플링 플랜 변경 같은 행동으로 바꿉니다.
다음 목록을 사용해 단순히 "더 많은 측정"을 사지 않고 수율 영향력을 키우세요.
한 가지 과소평가된 레버는 팀이 측정 데이터를 얼마나 빨리 운영화하느냐입니다—SPC 신호, 툴 매칭 상태, 보류 로트 노화, MTTD/이스케이프율 트렌드를 결합한 대시보드가 그 예입니다.
이 지점에서 Koder.ai 같은 vibe-coding 플랫폼이 도움이 될 수 있습니다: 팀이 채팅으로 원하는 워크플로를 설명하면 가벼운 내부 웹앱(예: SPC 리뷰 콘솔, 예외 분류 큐, KPI 대시보드)을 생성하고 프로세스가 진화함에 따라 반복할 수 있습니다. Koder.ai는 React 기반 웹앱과 Go + PostgreSQL 백엔드를 지원하고 소스 코드 내보내기를 제공하므로 빠른 파일럿과 공식 인수 모두에 맞출 수 있습니다.
이 조각들이 어떻게 연결되는지 복습하려면 /blog/yield-management-basics를 보세요. 비용과 도입 관련 질문은 /pricing이 "좋다"는 ROI의 기준을 잡는 데 도움이 됩니다.
검사는 예상치 못한 결함(입자, 긁힘, 패턴 파손, 이상 등)을 찾아 "웨이퍼의 어딘가에 문제가 있는가?"에 답합니다.
계측은 CD, 오버레이, 필름 두께, 평탄도 등 의도한 공정 결과를 측정해서 "공정이 목표를 맞췄는가?"에 답합니다.
실무적으로 팹은 검사로 수율 치명적 결함을 조기에 포착하고, 계측으로 공정 드리프트가 로트 단위 손실로 이어지지 않게 관리합니다.
측정은 일상적 결정들을 유도하고, 그 결정들이 쌓여 수율과 비용 결과를 만듭니다:
측정이 더 빠르고 반복성이 높으며 분류(키러 vs 잡음)가 정확하면, 측정은 더 빠른 봉쇄(containment)와 덜 비용이 드는 서프라이즈로 이어집니다.
변동을 나중에 고치기 비용이 커지는 공정 단계 직후에 측정이 배치됩니다:
핵심은 문제를 충분히 일찍 측정해 의사결정에 반영하는 것입니다.
샘플링 플랜은 얼마나 자주, 얼마나 깊게 측정할지를 정의합니다(로트당 웨이퍼 수, 웨이퍼당 사이트 수, 측정 레이어 등).
실무 규칙:
과도한 샘플링은 사이클 타임 병목을 만들고, 부족한 샘플링은 이스케이프 위험을 키웁니다.
인라인 측정은 생산 흐름 안(결과를 만든 툴에 근접)에서 일어나므로 제어 루프에 빠르고 위험에 처한 WIP를 줄입니다.
오프라인 측정은 전용 랩에서 더 깊게(디버그, 모델링, 근본원인 확인) 수행되며 느릴 수 있습니다.
운영 목표는 균형입니다: 일상 제어를 위한 충분한 인라인 커버리지 + 인라인 신호가 변화했을 때의 타깃 오프라인 작업.
키러(killer) 결함은 전기적 고장을 일으킬 가능성이 높은 결함(오픈, 쇼트, 누설, 파라메트릭 변화)입니다.
너이선스(nuisance) 결함은 실재하더라도 수율에 영향을 주지 않는 결함입니다(여유 범위 내의 미관적 거칠기 등).
분류가 중요한 이유는 감지 비용이 곧 그 감지가 유발하는 반응(보류, 재작업, 엔지니어링 분석, 장비 다운타임)을 의미하기 때문입니다. 분류가 개선되면 과도한 반응을 줄일 수 있습니다.
거짓음성(false negative, 놓친 키러)은 나중에 더 많은 가치가 붙은 상태에서 수율 손실로 드러나므로 가장 위험합니다.
거짓양성(false positive, 해롭지 않은 것을 결함으로 표시)은 불필요한 보류, 추가 검토, 큐 대기 시간 증가를 유발합니다.
실무 목표는 “모든 것을 찾기”가 아니라, 적절한 비용으로 적시에 올바른 신호를 찾는 것입니다.
CD(임계 치수)는 인쇄된 특징의 폭/크기입니다(예: 트랜지스터의 게이트 길이, 좁은 금속 선폭).
몇 나노미터의 편차만으로도 전기적 특성(저항, 누설, 구동 전류 등)이 크게 바뀌기 때문에 현대 설계의 마진은 매우 작습니다.
CD 문제는 종종 포커스/노광 시그니처를 가지므로 CD 계측과 SPC 대응 계획의 조합이 높은 ROI를 줍니다.
오버레이는 한 레이어가 이전 레이어에 얼마나 잘 정렬되었는지를 측정합니다.
각 레이어의 CD가 “인-스펙”이어도, 정렬 오류로 인해 비아가 타깃을 놓치거나 콘택트가 부분적으로 닿아 고장이 발생할 수 있습니다.
오버레이 제어는 정렬 버짓이 타이트하거나 다중 패터닝으로 오차가 누적될 때 특히 중요합니다.
지연(latency)은 웨이퍼 가공 후 사용 가능한 측정 결과가 나오기까지의 시간입니다.
결과가 여러 로트가 이미 처리된 뒤에 도착하면 피드백으로는 미래만 수정할 수 있고 현재 손실은 쌓입니다.
지연 영향을 줄이는 방법:
많은 경우 지연 단축이 도구 사양의 소폭 개선보다 더 큰 효과를 줍니다.