Guide pratique sur la façon dont l’inspection et la métrologie à la manière KLA influent sur le rendement, le rebut, le temps de cycle et les coûts — quoi suivre et comment les fonderies choisissent les outils.

L’inspection et la métrologie sont les « yeux » de la fonderie, mais ils regardent des choses différentes.
Inspection répond : Y a‑t‑il quelque chose qui cloche quelque part sur la plaquette ? Elle scanne les défauts comme les particules, rayures, ruptures de motif, contaminations ou anomalies subtiles corrélées à des pannes futures.
Métrologie répond : Le procédé fait‑il ce que nous avions prévu ? Elle mesure les dimensions critiques (CD), l’overlay (alignement couche‑à‑couche), l’épaisseur des films et d’autres paramètres qui déterminent si la puce fonctionnera.
Une fonderie ne peut contrôler que ce qu’elle peut mesurer — et la mesure elle‑même consomme du temps machine, de l’attention ingénierie et de la capacité en file d’attente. Cela crée un compromis constant :
Si l’inspection est trop lente, les défauts peuvent se propager sur plusieurs lots avant d’être détectés. Si la métrologie est trop bruitée, les ingénieurs risquent de « chasser des fantômes », en ajustant un procédé qui n’a pas réellement dérivé.
La plupart des décisions à fort impact en fonderie ne sont pas spectaculaires — ce sont des choix de routine pris des dizaines de fois par jour à partir des données de mesure :
Ces décisions déterminent silencieusement le rendement, le temps de cycle et le coût par plaquette. Les meilleures fonderies ne « mesurent pas juste beaucoup » — elles mesurent les bonnes choses, à la bonne fréquence, avec confiance dans le signal.
Cet article se concentre sur des concepts pour comprendre comment des fournisseurs comme KLA s’intègrent à la gestion du rendement — pourquoi certaines mesures importent, comment elles déclenchent des actions et comment elles affectent l’économie.
Il n’entrera pas dans des spécifications propriétaires ni des affirmations modèle par modèle. Il expliquera plutôt la logique pratique derrière les choix d’inspection et de métrologie, et comment ces choix répercutent la compétitivité.
Une plaquette n’est pas « mesurée une fois ». Elle est vérifiée plusieurs fois en avançant dans les boucles de patterning et de modifications de matériaux. Un chemin simplifié : lithographie (imprimer le motif) → etch (le transférer) → dépôt (ajouter des films) → CMP (planariser) → répéter pour des dizaines de couches → test électrique et tri final.
Les mesures sont insérées là où la variation devient coûteuse à corriger plus tard :
Les fonderies ne mesurent pas tout au même rythme. Les couches critiques (règles de conception serrées, budgets d’overlay sensibles, nouvelles étapes de procédé) reçoivent généralement plus d’échantillonnage — plus de plaquettes par lot, plus de sites par plaquette et des inspections plus fréquentes. Les couches moins critiques ou matures utilisent souvent un échantillonnage allégé pour préserver le débit.
Le plan d’échantillonnage est autant une décision commerciale que technique : mesurer trop peu augmente les échappements ; mesurer trop ralentit le temps de cycle.
L’objectif pratique est l’équilibre : assez de couverture inline pour orienter le procédé à temps, plus du travail offline ciblé quand les données indiquent un changement.
On décrit souvent l’inspection comme « trouver des défauts », mais le travail opérationnel consiste à décider quels signaux valent la peine de réagir. Une fonderie moderne peut générer des millions d’« événements défaut » par jour ; seule une fraction impacte la performance électrique. Les plateformes et outils (y compris les systèmes de classe KLA) aident à transformer des images brutes en décisions — mais les compromis existent toujours.
Les défauts varient selon la couche, le motif et l’étape du procédé :
Beaucoup de ces signes se ressemblent au premier abord. Une tache brillante peut être une particule de résine inoffensive sur une couche et un tueur de rendement sur une autre.
Un défaut killer est susceptible d’entraîner une panne fonctionnelle (ouvertures, courts‑circuits, fuites, dérives paramétriques). Un défaut nuisance est réel ou apparent mais n’impacte pas le rendement — pensez à une rugosité cosmétique du motif qui reste dans la marge.
La classification importe car les fonderies ne payent pas seulement la détection ; elles payent pour ce que la détection déclenche : temps de revue, lots mis en attente, rework, analyses ingénierie et arrêt d’outil. Une meilleure classification réduit les réactions coûteuses.
À un niveau élevé, la densité de défauts est le nombre de défauts par unité de surface. À mesure que les puces deviennent plus grandes ou que les règles de conception se resserrent, la probabilité qu’au moins un killer tombe dans une zone critique augmente. Réduire même modestement la densité de défauts killers peut entraîner une amélioration notable du rendement.
Aucun système d’inspection n’est parfait :
L’objectif n’est pas « tout trouver ». C’est trouver les bonnes choses assez tôt — et à moindre coût — pour changer les résultats.
La métrologie transforme « l’outil a tourné » en « le motif est bien ce que nous avons prévu ». Trois mesures reviennent partout dans l’apprentissage du rendement car elles se connectent directement à la fonctionnalité des transistors et des interconnexions : dimension critique (CD), overlay et dérive.
La CD est la largeur mesurée d’une caractéristique imprimée — pensez à la longueur de grille d’un transistor ou la largeur d’une ligne métal étroite. Quand la CD est légèrement hors cible, le comportement électrique change rapidement : trop étroit augmente la résistance ou cause des ouvertures ; trop large peut créer des courts avec les voisins ou modifier le courant de commande. Les conceptions modernes ont des marges faibles, donc quelques nanomètres de biais peuvent vous faire passer de « sûr » à « échec systématique » sur de nombreux dies.
Les problèmes de CD ont souvent des signatures focus/exposition reconnaissables. Si le focus est décalé, les lignes peuvent paraître arrondies, étranglées ou « pincées ». Si la dose d’exposition est incorrecte, les caractéristiques peuvent imprimer trop grandes ou trop petites. Ce sont des problèmes de fidélité de motif : la forme peut être déformée même si la largeur moyenne semble acceptable.
L’overlay mesure la qualité d’alignement d’une couche par rapport à la précédente. Si les erreurs d’alignement s’accumulent, les vias manquent leurs cibles, les contacts atterrissent partiellement ou des bords se chevauchent au mauvais endroit. Une puce peut avoir des CDs « parfaites » sur chaque couche et pourtant échouer parce que les couches ne sont pas alignées.
Globalement, les fonderies utilisent la métrologie optique pour des mesures rapides et haute cadence, et la métrologie SEM pour des vues plus précises des petites caractéristiques. Les fournisseurs sont choisis selon la capacité des mesures à détecter tôt les dérives réelles — avant qu’elles ne deviennent des pertes de rendement sur un lot entier.
La dérive de procédé est l’ennemi discret : température, chimie, usure d’outil ou changements de réticle peuvent pousser la CD et l’overlay progressivement jusqu’à dépasser les specs.
Les mesures réduisent les coûts uniquement lorsqu’elles déclenchent des décisions cohérentes. Cette « dernière étape » est le Statistical Process Control (SPC) : la routine qui transforme les signaux d’inspection et de métrologie en actions que les opérateurs acceptent.
Imaginez une mesure de CD après une étape d’etch qui commence à dériver vers le large.
Contrôle en feedback : on mesure le résultat, puis on ajuste la recette de l’etcher pour que le lot suivant retombe sur la cible. Puissant, mais toujours en retard.
Contrôle en feedforward : on utilise l’information en amont pour prévenir l’erreur plus tard. Par exemple, si des mesures de focus/overlay en lithographie indiquent un biais connu sur un scanner spécifique, on peut ajuster automatiquement les paramètres d’etch ou de dépôt avant de lancer le lot.
Les graphiques SPC tracent des limites de contrôle (basées sur la variation du procédé) autour d’une cible. Quand les données franchissent ces limites, c’est une excursion — signe que le procédé a changé, pas juste du bruit normal.
Si les équipes contournent les alarmes parce que « ça ira probablement », deux choses arrivent :
Des alarmes dignes de confiance permettent un confinement rapide et répétable : arrêter la ligne pour les bonnes raisons, pas constamment.
La latence est le temps entre le traitement et une mesure exploitable. Si les résultats CD arrivent après que plusieurs lots ont déjà été traités, les corrections en feedback réparent l’avenir tandis que des défauts s’accumulent dans le présent. Une latence plus faible (ou un échantillonnage plus intelligent) réduit le matériel « à risque » et améliore feedback et feedforward.
Lorsque limites, plans de réponse et responsabilités sont clairs, moins de lots sont mis en attente « au cas où », et moins de plaquettes nécessitent des reworks coûteux. Le gain est une exploitation plus calme : moins de variabilité, moins de surprises et un apprentissage du rendement plus rapide.
La mesure n’est pas un simple « frais généraux » en fonderie — ce sont des choix qui préviennent des erreurs coûteuses ou créent un travail inutile cher. L’impact coût apparaît dans des catégories prévisibles :
Une sensibilité plus élevée en inspection (par exemple pousser vers des tailles de défauts plus petites) peut réduire les échappements — mais elle peut aussi submerger l’ingénierie de signaux de nuisance. Si chaque « défaut possible » déclenche un hold, la fab paie en temps machine inactif, croissance des files d’attente et heures‑hommes d’analyse.
La question économique n’est pas « l’outil peut‑il le voir ? » mais «Agir dessus évite‑t‑il plus de pertes qu’il n’en cause ?»
Où vous mesurez davantage ou moins importe autant que l’outil que vous achetez. Les couches à haut risque (nouvelles étapes, couches d’overlay serrées, points d’excursion connus) méritent généralement un échantillonnage plus dense. Les couches stables et matures sont souvent mieux servies par un échantillonnage allégé et des garde‑fous SPC robustes.
Beaucoup de fonderies utilisent les sorties inspection/métrologie pour ajuster couche par couche : augmenter la couverture là où les excursions sont fréquentes, réduire là où les signaux entraînent rarement une action.
Une bonne détection : détection précoce d’une dérive de focus qui aurait dégradé un lot entier, permettant une correction rapide et épargnant des étapes litho/etch en aval.
Bruit coûteux : signaler répétitivement des artefacts de pattern innocents qui déclenchent des holds et des revues, tandis que le rendement et les résultats électriques restent inchangés — brûlant du temps de cycle sans réduire le scrap.
L’apprentissage du rendement ne se fait pas « gratuitement ». Chaque scan d’inspection, échantillon de métrologie et revue de défaut consomme une capacité rare — et quand cette capacité est tendue, la mesure devient une contrainte d’usine qui allonge le temps de cycle.
La plupart de l’impact sur le temps de cycle n’est pas le scan lui‑même ; c’est l’attente. Les files d’attente se forment souvent à :
Ces files ralentissent les lots à travers la ligne, augmentent le WIP et peuvent forcer des décisions sous‑optimales — comme sauter des mesures confirmatoires juste pour garder le flux.
Planifier la capacité de mesure n’est pas seulement « acheter assez d’outils ». Il s’agit d’aligner la capacité sur le mix de recettes. Une recette d’inspection longue et sensible peut consommer plusieurs fois le temps machine d’un moniteur léger.
Leviers clés que les fonderies utilisent :
L’automatisation améliore le temps de cycle quand elle réduit les travaux « entre‑deux » :
Le plus grand retour de la vitesse est l’apprentissage. Quand les résultats d’inspection et de métrologie arrivent vite dans un diagnostic clair et exploitable, la fonderie évite de répéter la même excursion sur plusieurs lots. Cela réduit le rework, le risque de scrap et l’effet cumulatif sur le temps de cycle dû à « plus d’échantillonnage parce qu’on est inquiet ».
Réduire les dimensions ne rend pas seulement les puces plus rapides — cela rend la mesure plus difficile. Aux nœuds avancés, la fenêtre d’erreur admissible devient si étroite que la sensibilité d’inspection et la précision de métrologie doivent s’améliorer simultanément. La conséquence est simple : un défaut ou quelques nanomètres de dérive qui étaient auparavant inoffensifs peuvent subitement faire basculer une plaquette de « bonne » à « marginale ».
L’EUV modifie le problème défaut/métrologie de plusieurs façons importantes :
Cela pousse les fonderies vers une inspection plus sensible, un échantillonnage plus intelligent et des liens plus serrés entre ce qui est mesuré et ce qui est ajusté.
Même avec l’EUV, de nombreuses couches impliquent des étapes de multi‑patterning et des empilements 3D complexes (plus de films, plus d’interfaces, plus de topographie). Cela augmente les risques de :
Les cibles de métrologie peuvent devenir moins représentatives et les recettes exigent souvent des ajustements fréquents pour rester corrélées au rendement.
Toutes les couches n’exigent pas la même sensibilité ou précision. Logique, mémoire et dispositifs de puissance privilégient des mécanismes de panne différents, et au sein d’une même puce, portes, contacts, vias et couches métal peuvent exiger des seuils d’inspection et des incertitudes métrologiques très différents. Les fonderies gagnantes traitent la stratégie de mesure comme de l’ingénierie couche‑par‑couche, pas comme un réglage universel.
L’inspection et la métrologie n’aident le rendement que si les résultats sont reproductibles d’un poste à l’autre et d’un outil à l’autre. En pratique, cela dépend moins de la physique de la mesure que de la discipline opérationnelle : recettes, appariement d’outils, calibrage et contrôle des changements.
Une « recette » est l’ensemble sauvegardé d’emplacements de mesure, réglages optiques/du faisceau, stratégies de focus, seuils, plans d’échantillonnage et règles de classification utilisés pour une couche/produit donné. Une bonne gestion des recettes transforme un outil complexe en instrument d’usine cohérent.
De petites différences de recette peuvent créer des « fausses » excursions — un poste peut voir plus de défauts simplement parce que la sensibilité a changé. Beaucoup de fonderies traitent les recettes comme des actifs de production : versionnées, avec contrôle d’accès et liées aux identifiants produit/couche pour que la même plaquette soit mesurée de la même manière à chaque fois.
Les fonderies à fort volume exploitent plusieurs outils (souvent de générations différentes) pour la capacité et la redondance. Si l’Outil A lit 3 nm de CD de plus que l’Outil B, vous n’avez pas deux procédés — vous avez deux règles.
Le calibrage ancre la règle à une référence. Le matching aligne les règles entre elles. Cela inclut vérifications périodiques des jauges, plaquettes de référence et surveillance statistique des offsets et dérives. Les fournisseurs fournissent des workflows de matching, mais les fonderies doivent garder une ownership claire : qui approuve les offsets, à quelle fréquence re‑matcher, et quelles limites déclenchent un arrêt.
Les recettes doivent changer quand les matériaux, motifs ou cibles changent — mais chaque changement nécessite une validation. Une pratique courante est le « mode ombre » : exécuter la recette mise à jour en parallèle, comparer les deltas, puis la promouvoir seulement si elle préserve la corrélation et ne casse pas les limites SPC en aval.
La stabilité quotidienne repose sur des décisions rapides et cohérentes :
Quand ce workflow est standardisé, la mesure devient une boucle de contrôle fiable plutôt qu’une source supplémentaire de variabilité.
La mesure n’améliore la compétitivité que si elle modifie les décisions plus vite que le procédé ne dérive. Les KPI ci‑dessous relient la performance inspection/métrologie au rendement, au temps de cycle et au coût — sans transformer la revue hebdomadaire en déversement de données.
Taux de capture : la part des défauts limitant le rendement que votre inspection trouve. Suivez‑le par type de défaut et par couche, pas comme un chiffre global.
Defect adder : défauts introduits par les étapes de mesure elles‑mêmes (manutention, temps en file augmentant le risque WIP, rework). Si votre adder croît, « plus d’échantillonnage » peut se retourner contre vous.
Taux de nuisance : fraction des événements détectés non actionnables (bruit, artefacts de motif inoffensifs). Un taux de nuisance élevé consomme la capacité de revue et retarde le diagnostic.
Précision : répétabilité d’un outil sur la même caractéristique ; cela conditionne la serrabilité des limites de contrôle.
Exactitude : proximité à la vraie valeur (ou à une référence convenue). La précision sans exactitude conduit à un contrôle systématiquement erroné.
TMU (incertitude totale de mesure) : agrégat pratique combinant répétabilité, matching, effets d’échantillonnage et sensibilité de recette.
Matching d’outil : accord entre outils exécutant la même recette. Un mauvais matching gonfle la variation apparente et complique le dispatching.
Taux d’excursion : fréquence à laquelle le procédé sort de sa fenêtre normale (par module, couche et poste). À coupler avec le taux d’échappement (excursions non détectées avant impact en aval).
MTTD (mean time to detect) : temps entre le début d’une excursion et sa détection. Raccourcir le MTTD rapporte souvent plus que d’améliorer marginalement les specs brutes des outils.
Lots en attente : volume et ancienneté des lots mis en hold pour signaux métrologie/inspection. Trop bas peut signifier des problèmes manqués ; trop haut pénalise le temps de cycle.
Taux d’apprentissage du rendement : amélioration du rendement par semaine/mois après changements majeurs (nouveau nœud, nouvel ensemble d’outils, grosse révision de recette).
Coût de la mauvaise qualité (COPQ) : scrap + rework + expéditions urgentes + coût des découvertes tardives attribués aux échappements.
Impact sur le temps de cycle : files et boucles de rework induites par la mesure. Une vue utile : « minutes de temps de cycle ajoutées par lot » par étape de contrôle.
Si vous cherchez un point de départ simple, choisissez un KPI par groupe et révisez‑les avec les signaux SPC dans la même réunion. Pour plus sur la transformation des métriques en boucles d’action, voir /blog/from-measurements-to-action-spc-feedback-feedforward.
La sélection d’un outil en fonderie ressemble moins à l’achat d’un instrument isolé qu’au choix d’une partie du système nerveux de l’usine. Les équipes évaluent à la fois le matériel et le programme de mesure autour : ce que l’outil peut trouver, sa vitesse et la fiabilité des données pour piloter des décisions.
D’abord, on regarde la sensibilité (le plus petit défaut ou changement de procédé détectable de manière fiable) et le taux de nuisance (à quelle fréquence il signale des signaux inoffensifs). Un outil qui trouve plus de problèmes n’est pas automatiquement meilleur si cela inonde les ingénieurs de fausses alarmes.
Ensuite : le débit : plaquettes par heure aux paramètres de recette requis. Un outil qui n’atteint la spec qu’en mode lent peut créer des goulots.
Troisième point : coût total de possession, qui va au‑delà du prix d’achat :
Les fonderies évaluent aussi la façon dont l’outil s’intègre aux systèmes existants : MES/SPC, interfaces de communication standard et formats de données qui permettent le charting automatisé, la détection d’excursions et la disposition des lots. Autre élément crucial : le workflow de revue — comment les défauts sont classés, comment l’échantillonnage est géré et à quelle vitesse les résultats reviennent au module de procédé.
Une stratégie pilote courante utilise des lots splittés (envoyer des plaquettes appariées via différentes approches de mesure) plus des plaquettes gold pour vérifier la cohérence outil‑à‑outil dans le temps. Les résultats sont comparés à une base : rendement actuel, limites de détection actuelles et vitesse d’action corrective.
Dans de nombreuses fonderies, des fournisseurs comme KLA sont évalués selon ces mêmes catégories — capacité, adéquation à l’usine et économie — parce que le choix gagnant est celui qui améliore les décisions par plaquette, pas seulement les mesures par plaquette.
L’apprentissage du rendement est une chaîne simple cause → effet, même si les outils sont complexes : détecter → diagnostiquer → corriger.
L’inspection trouve où et quand les défauts apparaissent. La métrologie explique à quel point le procédé a dérivé (CD, overlay, épaisseur, etc.). Le contrôle de procédé transforme ces preuves en actions — ajuster des recettes, régler scanners/etchers, serrer les maintenances ou modifier les plans d’échantillonnage.
Utilisez cette liste quand vous voulez un meilleur impact sur le rendement sans « acheter juste plus de mesures » :
Un levier sous‑estimé est la rapidité à opérationnaliser les données de mesure — tableaux de bord qui combinent signaux SPC, état du matching, vieillissement des holds et tendances MTTD/taux d’échappement.
C’est là qu’une plateforme vibe‑coding comme Koder.ai peut aider : les équipes décrivent le workflow voulu en chat et génèrent une application web légère (par ex. une console de revue SPC, une file de triage d’excursions ou un tableau de bord KPI), puis itèrent à mesure que le procédé évolue. Parce que Koder.ai supporte des applis web React avec backends Go + PostgreSQL — et export du code source — elle convient autant aux pilotes rapides qu’au transfert formel aux équipes d’ingénierie.
Si vous voulez un rappel sur la façon dont ces pièces se connectent, voir /blog/yield-management-basics. Pour des questions de coût et d’adoption, /pricing aide à cadrer ce que signifie un bon ROI.
L’inspection recherche des défauts inattendus (particules, rayures, ruptures de motifs, anomalies) et répond : « Quelque chose cloche-t-il quelque part sur la plaquette ? »
La métrologie mesure des résultats attendus du procédé (CD, overlay, épaisseur de film, planéité) et répond : « Le procédé a-t-il atteint la cible ? »
En pratique, les fonderies utilisent l’inspection pour détecter tôt les défauts critiques et la métrologie pour empêcher qu’une dérive de procédé ne devienne une perte pour tout un lot.
Parce que la mesure alimente des décisions routinières qui se cumulent et déterminent rendement et coûts :
Une meilleure rapidité, répétabilité et classification transforment la mesure en confinement rapide et réduisent les surprises coûteuses.
Les points d’insertion typiques sont juste après les étapes où la variation devient coûteuse à corriger :
L’idée est de mesurer là où ça change la décision assez tôt pour que ça compte.
Un plan d’échantillonnage définit la fréquence et la profondeur des mesures (plaquettes par lot, sites par plaquette, quelles couches).
Règles pratiques :
Trop d’échantillonnage peut créer un goulot d’étranglement du cycle ; pas assez augmente le risque d’échappement.
Les mesures inline se font dans le flux de production, près de l’outil qui a produit le résultat : elles sont plus rapides pour les boucles de contrôle et réduisent le WIP à risque.
Les mesures offline sont généralement plus lentes mais plus approfondies (debug, corrélation, confirmation de la cause racine).
Un bon modèle opérationnel : assez de couverture inline pour piloter au quotidien, plus du travail offline ciblé quand les signaux inline indiquent un changement.
Un défaut « killer » est susceptible d’entraîner une défaillance fonctionnelle (ouverture, court‑circuit, fuite, dérive paramétrique).
Un défaut « nuisance » est réel (ou semble réel) mais n’affecte pas le rendement.
Pourquoi la classification compte : le coût ne vient pas seulement de la détection mais de la réaction (holds, revues, rework, arrêts). Améliorer la classification réduit les sur‑réactions coûteuses sans augmenter les échappements.
Faux négatifs (killers manqués) se retrouvent plus tard comme perte de rendement — après que de la valeur a été ajoutée — donc ce sont les plus dangereux.
Faux positifs créent du « bruit coûteux » : holds inutiles, revues supplémentaires et files d’attente plus longues.
L’objectif pratique n’est pas « tout trouver », mais trouver les bons signaux assez tôt pour déclencher les actions appropriées à un coût acceptable.
La CD (critical dimension) est la largeur/taille mesurée d’un motif imprimé — par exemple la longueur de grille d’un transistor ou la largeur d’une ligne métal étroite.
Même une petite dérive de CD peut changer rapidement le comportement électrique (résistance, fuite, courant d’entraînement) car les marges sont très faibles aujourd’hui.
Beaucoup de problèmes de CD ont des signatures de focus/exposition reconnaissables ; associer la métrologie CD à des plans d’action SPC est souvent à fort ROI.
L’overlay mesure l’alignement d’une couche par rapport à la précédente.
Un circuit peut afficher des CD « correctes » sur chaque couche et pourtant échouer si les vias manquent leur cible ou si les contacts sont partiellement décalés à cause d’un mauvais alignement.
Le contrôle de l’overlay est critique quand les budgets d’alignement sont serrés ou que les erreurs se cumulent sur plusieurs étapes de patterning.
La latence est le délai entre le traitement d’une plaquette et la disponibilité d’un résultat de mesure exploitable.
Si les résultats arrivent après que plusieurs lots ont déjà été traités, vous ne corrigez que l’avenir tandis que des pertes s’accumulent dans le présent.
Pour réduire l’impact de la latence :
Souvent, ces actions améliorent les résultats bien plus qu’un gain marginal de sensibilité instrumentale.