AI/machine learning groeien snel als de Halfgeleiderfabrikanten de waarde ontdekken die in hun gegevens verborgen zit.

0

Halfgeleiderfabrikanten worden steeds vaker uitgedaagd om nieuwe, kleinere en complexere 3D-structuren te meten en te inspecteren. Optical critical dimension (OCD) metrologie heeft de fundamentele capaciteit die nodig is voor de metingen, maar het verkrijgen van nauwkeurige resultaten hangt af van deterministische fysieke modelleringsprocedures die tijdrovend en duur kunnen zijn. Kunstmatige intelligentie (AI) en machine learning (ML) technieken bieden veel snellere oplossingen in vele toepassingen. Hoewel AI en ML waarschijnlijk geen modelgebaseerde metingen zullen vervangen, bieden ze complementaire sterke punten, wat suggereert dat de beste oplossingen een of andere combinatie van de twee technieken zullen inhouden.

Wat is kunstmatige intelligentie
Kunstmatige intelligentie (AI) roept scènes uit de sciencefiction op – interessant om te overwegen, maar niet gemakkelijk te evalueren in alledaagse, praktische termen. De term werd in 1956 bedacht voor een academische conferentie over het onderwerp en werd opnieuw gebruikt door Alan Turning in een artikel over de mogelijkheid van machines die in staat zijn om mensen te imiteren die intelligente dingen doen, zoals schaken. Sinds die tijd heeft AI opeenvolgende cycli van gunst en ongenade doorgemaakt, omdat de beloften van grote vooruitgang niet werden ingelost. Vandaag de dag bevinden we ons misschien op een kantelpunt, voornamelijk gedreven door een enorme uitbreiding van de beschikbaarheid van gegevens en rekenkracht. AI is overal om ons heen. Het verfijnt de resultaten bij het online zoeken en winkelen. Het past de reclame aan en maakt nieuwsfeeds op maat. Het bestuurt auto’s. Het ontwerpt griepvaccins. Het begeleidt, en soms misleidt, financiële markten. De meeste experts voorspellen dat de rol die AI in ons leven speelt exponentieel zal groeien in bijna elke sector.
Een kort overzicht van concepten en terminologie kan nuttig zijn. AI is niet één enkele technologie. Het is beter te omschrijven als een verzameling van technologieën die samen machines in staat stellen om te handelen met wat lijkt op menselijke intelligentie. AI-systemen bevatten over het algemeen vier fundamentele mogelijkheden: 1) het vermogen om iets te voelen over de wereld om hen heen met camera’s, microfoons of verschillende soorten sensoren; 2) het vermogen om te begrijpen – dat wil zeggen om informatie uit deze input te halen door patronen te detecteren en de context te herkennen; 3) het vermogen om te handelen op basis van die informatie; en 4) het vermogen om te leren, waarbij toekomstige acties worden verfijnd op basis van enige evaluatie van de resultaten van eerdere acties.

AI-experts hebben het vaak over AI in termen van kracht en breedte. Zwakke AI lijkt zich intelligent te gedragen, maar heeft geen echt begrip van wat het doet of waarom. Het bootst alleen denkend gedrag na. Sterke AI zou eigenlijk denken, zoals een mens, met een zelfbewuste, subjectieve geest. Smalle AI werkt binnen een beperkte set van omstandigheden, terwijl brede of algemene AI een grote verscheidenheid aan situaties aankan, inclusief situaties die het nog nooit eerder is tegengekomen. Ten slotte verwijst “superintelligentie” naar een sterke, algemene AI die de menselijke intelligentie overstijgt.

Machine learning
Van de vier mogelijkheden waaruit AI bestaat, is leren misschien wel het meest bepalende. Machinaal leren verwijst naar de automatisering van het leren. Het stelt een AI in staat om te voelen, te begrijpen, betekenis toe te kennen en gedrag te wijzigen in een iteratief proces dat de prestaties verbetert op basis van een evaluatie van de resultaten uit het verleden ten opzichte van gespecificeerde criteria. Machinaal leren wordt vaak beschreven in drie soorten. Begeleid leren neemt gegevens die zijn georganiseerd en beschreven (gelabeld), vindt de belangrijkste kenmerken die kenmerkend zijn voor elke categorie, en leert die kenmerken vervolgens herkennen in nieuwe gegevens. Onbegeleid leren neemt ongecategoriseerde data, vindt overeenkomsten en anomalieën tussen verschillende items, en categoriseert deze in zijn eigen groeperingen. Versterkend leren werkt met vallen en opstaan, met behulp van een feedbacklus van “beloningen” en “straffen”. Bij versterkt leren wordt de AI verteld wanneer zijn keuzes de vooruitgang naar een doel verbeteren of verminderen, en het probeert de beloningen te maximaliseren. Diepgaand leren verwijst naar een meerlagige leerhiërarchie waarin de output van elke laag de input is voor de volgende laag in de “conceptuele” hiërarchie. Een gezichtsherkenningsprogramma kan beginnen met het vinden van gebieden van licht en donker, dan grenzen tussen hen, dan overeenkomsten van vormen, dan neuzen en ogen en huidskleur, dan afstanden en hoeken tussen de kenmerken – allemaal zonder ooit te weten wat een lijn of een oog of een kleur is. Het interessante aan machinaal leren is dat het werkt, zelfs als we niet precies weten hoe het werkt.

Neurale netwerken hebben een sleutelrol gespeeld in de recente vooruitgang op het gebied van diepgaand leren. Neurale netwerken zijn hardware- of softwareconstructies die zijn ontworpen om de functie van een brein na te bootsen in een netwerk van fysieke (elektronische apparaten) of virtuele (computersoftware) knooppunten. Neuronen, de “denkende” cellen van de hersenen, verzamelen input van meerdere bronnen en sturen, wanneer de inputs een bepaalde drempel bereiken, een uitgangssignaal naar een ander neuron. De relatieve bijdragen van de inputs kunnen toenemen of afnemen op basis van de frequentie van hun voorkomen of andere factoren, waardoor een netwerk van neuronen (onze hersenen) terugkerende patronen kan herkennen en versterken, en uiteindelijk de basis van het geheugen en de cognitie kan vormen. Neurale netwerken bootsen dit gedrag na en zijn in staat om subtiele patronen te vinden die verborgen zitten in enorme hoeveelheden data.

In 1997 haalde IBM de krantenkoppen over de hele wereld toen zijn Deep Blue computer regerend wereldkampioen schaken Gary Kasparov versloeg. (Kasparov beweerde naar verluidt dat Deep Blue had bedrogen.) Deep Blue was een voorbeeld van smalle AI. Het was speciaal gebouwd om te schaken en kon niets anders doen. Veel indrukwekkender was de AlphaGo van Google DeepMind, die de eerste computer werd die een kampioen versloeg bij go, een complex bordspel dat populair is in Azië. AlphaGo kreeg de regels van het spel en mocht daarna leren door naar het spel van de mensen te kijken. Het leerde goed genoeg om wereldkampioen Lee Sedol te verslaan. AlphaGo Zero, zijn opvolger, leerde zichzelf te winnen door simpelweg tegen zichzelf te spelen. De volgende incarnatie, AlphaZero, was een meer algemene AI ontworpen om verschillende spellen te spelen. Gezien de regels van de spellen, leerde het zichzelf om in vier uur tijd kampioenschapsschaak te spelen. Het bereikte ook prestaties op kampioenschapsniveau in go en shogi (een Japanse variant van schaken). Sommigen hebben gespeculeerd dat het algemene leervermogen van de AI kan hebben bijgedragen aan het succes ervan door alle vooroordelen tegen onconventionele strategieën weg te nemen. DeepMind’s nieuwste aanwinst in het veld, MuZero is ontworpen om te leren spelen zonder dat hij de regels kent. Kortom, MuZero beheerst schaak, go, shogi en 57 Atari spellen. Superintelligentie? Misschien niet, maar zeker buitengewoon.

AI in de halfgeleiderindustrie
De productie van halfgeleiders behoort tot de meest complexe processen die ooit zijn bedacht. Het is ook een van de meest datarijke, met een uitgebreide registratie van zo’n beetje alles en iedereen die gemeten of geobserveerd kan worden. Veel van deze gegevens worden niet gebruikt, in ieder geval gedeeltelijk vanwege het enorme volume. Ongebruikte gegevens worden soms “donkere” gegevens genoemd. Het vermogen van AI om deze troeven aan donkere data te ontginnen voor relevante relaties is een veelbelovend gebied. Andere mogelijkheden om de procesprestaties te verbeteren door het gebruik van AI zijn in overvloed aanwezig. Ze variëren in omvang van individuele processtappen tot de gehele wereldwijde toeleveringsketen en omvatten optimalisatie van procestools, foutdetectie en -classificatie (FDC), voorspellend toolonderhoud, automatische classificatie van defecten (ADC), inspectie, metrologie, procescontrole, wagenparkbeheer, optimalisatie van de toeleveringsketen en nog veel meer. De lijst is praktisch eindeloos. De rest van dit artikel zal zich enigszins beperken tot een specifieke toepassing in de optisch kritische dimensie (OCD) metrologie, als een voorbeeld van de kracht van AI en ML.

De resolutie van optische systemen die gebruik maken van zichtbaar licht wordt door diffractie-effecten beperkt tot ongeveer een halve micrometer. De kritische dimensies (CD) van halfgeleiderapparaten zijn enige tijd geleden onder deze limiet gekrompen. Optische systemen werden vervangen door scannende elektronenmicroscopen voor CD-metingen (CD-SEM). Omdat de afmetingen van de apparaten bleven krimpen en de afmetingen van de kleinste kenmerken de meetcapaciteiten van CD-SEM overtroffen en de CD-metingen ingebouwde kenmerken moesten bevatten, hebben de fabrikanten OCD, een niet op beeld gebaseerde optische technologie, overgenomen. OCD kijkt naar verstrooiingspatronen in het licht dat wordt gereflecteerd en doorgelaten door de gemeten eigenschappen. Wanneer geïmplementeerd op een spectroscopische ellipsometer, die de effecten van het monster interactie met gepolariseerd licht vastlegt, kan OCD een snelle, in-line, niet-destructieve karakterisering van de afmetingen, samenstelling, vormen, en meer van complexe drie-dimensionale functies met sub-Angstrom gevoeligheid. De 3D-mogelijkheden zijn steeds belangrijker geworden voor geavanceerde apparaten, omdat de vlakke CMOS-technologie plaats maakt voor driedimensionale structuren, waaronder finFET’s, gate-all-around (GAA)-transistors en gestapelde, hoge-aspect-verhouding geheugenontwerpen.
OCD is niet zonder uitdagingen, de belangrijkste daarvan zijn time-to-solution en vereisten voor massale rekenkracht en referentiegegevens van derden. OCD is een indirecte meettechniek. Er bestaat geen directe analytische oplossing om metingen van het optische signaal direct om te zetten naar de fysieke parameters die van belang zijn. De analyse vereist veeleer een rekenintensieve modellering van het verwachte patroon op basis van fysische berekeningen en regressieanalyse van een groot aantal spectra (FIGUUR 1). Het gemeten spectrum wordt dan vergeleken met de gemodelleerde spectra om de beste pasvorm te vinden, waaruit de relevante parameters worden afgeleid. Hier ligt de kans op kunstmatige intelligentie. Met behulp van een geschikte dataset en met behulp van machinaal leren kan AI de belangrijkste spectrale kenmerken vinden en hun relaties met de relevante parameters kwantificeren zonder fysieke modellering of gestructureerde regressieanalyse (FIGUUR 2).

Figuur 1. Een schematische weergave van conventionele OCD-metingen. Links – Breedband lichtincident op het monster wordt gereflecteerd/doorgezonden naar een detector, waarbij de eigenschappen van het monster worden gecodeerd in het diffractiepatroon en de optische kenmerken van het gedetecteerde licht. Rechts – het gemeten spectrum wordt geanalyseerd om kenmerken te vinden die variëren met de eigenschappen van het monster en een bibliotheek van verwachte spectra wordt gemodelleerd van fysieke eerste principes (RCWA – rigoureuze gekoppelde golfanalyse). De fysische eigenschappen van het monster worden afgeleid uit het modelspectrum dat het best past bij het gemeten spectrum.

Figuur 2. OCD-metingen met machinaal leren vermijden de modellering die nodig is in conventionele OCD. De spectra worden gereduceerd tot een reeks kenmerken met behulp van procedures zoals FFT (fast Fourier transform), PCA (hoofdcomponentenanalyse) en ICA (onafhankelijke componentenanalyse). Het machinaal leren vindt relaties tussen de belangrijkste kenmerken en fysieke parameters die van belang zijn. (SVM is ondersteunende vectormachine).
AI-oplossingen voor OCD zullen waarschijnlijk niet de op modellen gebaseerde oplossingen vervangen, maar zullen eerder aanvullende mogelijkheden bieden in situaties waar modellering bijzonder uitdagend is. Voor eenvoudige, vertrouwde structuren, waar modellering ongecompliceerd is, zal modelgebaseerde analyse de methode van keuze blijven. De grote uitdaging van ML-gebaseerde OCD komt wanneer de vaak beperkte gelabelde dataset niet in staat is de gecompliceerde niet-lineaire relatie tussen het optische signaal en meerdere dimensies aan het licht te brengen. Deze situatie leidt tot over-learning, een veelvoorkomende valkuil in ML die alleen “goede” voorspellingen geeft binnen de geleverde dataset, maar geen onbekende gegevens kan voorspellen in een zogenaamde blinde test. Meer referentiegegevens zullen de prestaties van ML verbeteren, maar de extra kosten en de vertraging om meer referentiegegevens te krijgen van een vaak destructieve methode kunnen het voordeel van ML-gebaseerde oplossingen snel tenietdoen. Als gevolg hiervan zal de ideale ruimte voor AI-oplossingen situaties zijn waarin 1) de modelleringskosten hoog zijn omdat de structuur complex is, niet periodiek is, of een hoge 3D toonhoogte heeft; 2) de belangrijkste parameter van belang een dominante of unieke gevoeligheid in het signaal heeft (zoals diëlektrische CMP of DRAM overlay en 3D NAND-kanaal gat hellingmetingen die in de volgende secties worden getoond); en 3) uitgebreide referentiegegevens beschikbaar zijn van CD-SEM en cross-sectionele SEM, goed ontworpen experimenten (DOE), of meervoudige procesknoppen.

Use cases voor machinale leeroplossingen in OCD-metrologie
Spectroscopische ellipsometrie (FIGUUR 3) kijkt naar veranderingen in gepolariseerd licht wanneer het wordt gereflecteerd/doorgezonden door kenmerken en lagen van het monster, in het bijzonder meet het veranderingen in amplitude en fase (retardantie) van de s- en p-componenten van de gepolariseerde lichtbundel. Deze veranderingen kunnen volledig wiskundig worden beschreven met behulp van Mueller calculus waarbij het licht wordt gekarakteriseerd door een 4-dimensionale Stokes vector, en de optische elementen waarmee het in wisselwerking staat door 4×4 Mueller matrices. Enkelvoudige compensator-ellipsmeters kunnen tot twaalf van de zestien componenten van de matrix verwerven. Alleen dubbele roterende compensatoren kunnen alle 16 onafhankelijke Mueller-kanalen oplossen. De vier matrixcomponenten die de Mueller-matrix completeren, zorgen voor de integriteit van de volledige Mueller-matrix, die bijzonder kritisch is voor het meten van structurele asymmetrie. De off-diagonale componenten van de matrix zijn uniek gevoelig voor parameters zoals kanteling en overlay die de structurele symmetrie schenden. Om een signaal van de hoogste kwaliteit te bereiken, wordt een eigen compensator gebruikt om een consistente hoge gevoeligheid over het gehele UV-IR-golflengtebereik te bieden, terwijl de gemeenschappelijke golfplaatcompensatoren grote golflengtegerelateerde veranderingen in de retardantiegevoeligheid in het UV-zichtbare bereik en een lage gevoeligheid in het IR laten zien.

Figuur 3. De aanschaf van een volledige Mueller Matrix vereist dubbele roterende compensatoren om een constante, hoge gevoeligheid over het gehele UV-IR-golflengtebereik te leveren.

Mueller-matrixmeting van op productoverlay voor DRAM’s
De unieke gevoeligheid van Mueller Matrix maakt het mogelijk om met behulp van machinaal leren de na-etch overlay in DRAM direct op het apparaat te meten. FIGURE 4 toont volledige wafergegevens van een DOE-monster met geprogrammeerde overlay-variatie over de verwachte procesvariatie van het DRAM op de productoverlay. De figuur bevat vergrote afbeeldingen van de overlayfouten tussen Word Lines (horizontale groene balken) en de STI-eilanden (schuine afgeronde rechthoeken), negatief naar de bovenkant toe, nul in het midden en positief naar beneden toe; en de corresponderende Mueller Matrix asymmetrische signalen. FIGURE 5 plots trainingsgegevens en testmetingen, met sterke correlaties (R2 beter dan 0,95 voor beide) en vergelijkbare hellingen. Om de robuustheid van dit resultaat te testen, hebben we het aantal referentiegegevens voor training uit de totale set systematisch verminderd om de voorspellingsprestaties te controleren. De plots aan de rechterkant tonen aan dat stabiele prestaties werden bereikt voor zowel R2- als hellingmetingen na slechts 36 referenties van drie zusterwafels. Dat betekent dat vier punten van elk van de drie DOE-regio’s voldoende zijn om over de hele wafer te voorspellen.

Figuur 4. Links: DOE-wafer met geprogrammeerde overlayfout. Midden – negatief, nul, en positieve overlayfouten boven, midden en onder aan de DOE-wafer. Rechts: Corresponderende Mueller Matrix asymmetrie signalen.

Figuur 5. Links/boven: Trainingsgegevens en testmetingen toonden sterke correlaties en een vergelijkbare helling. Rechts: Helling en correlatie gestabiliseerd na ongeveer 36 referenties.

Hellingsmetingen in hoge hoogte-breedteverhouding etsen
3D NAND maakt gebruik van kanalen met een hoge beeldverhouding (FIGURE 6) die zijn gemaakt met reactieve ionenetsen (RIE). De kanalen worden uiteindelijk verticale stapels geheugencellen. RIE-systemen gebruiken een focusring om de continuïteit in de plasmaschede bij de rand van de wafer te behouden en te zorgen voor een goede etsuniformiteit. De focusring erodeert in de loop van de tijd tijdens het etsproces, waardoor de hoogte en de vorm van de etsprofielen van het kanaal off-verticaal kantelen, wat uniek kan worden opgepikt door het off-diagonale signaal van de Mueller Matrix. FIGURE 7 toont kantelmetingen die zijn uitgevoerd met machinaal geleerde Mueller Matrix spectroscopische ellipsometrie. De radiale vectoren in de waferplots aan de bovenzijde van de figuur laten zien dat de inclinatie toeneemt gedurende RF-uren, in principe hoe lang de focusring is gebombardeerd met etsmiddelen. De plot rechts toont een sterke correlatie (R2=0,92) tussen de RF-uren en de kantelmomenten.

Logica SRAM
In het laatste voorbeeld (FIGURE 8), CD-metingen op logisch SRAM, werd het systeem rechtstreeks getraind op CD-SEM referentiegegevens. Er was geen structuurmodellering en alle metingen werden op het apparaat uitgevoerd. De time-to-solution was veel sneller dan het modelleren. De metingen lieten een goede correlatie zien (R2 > 0,95) voor zowel trainings- als testgegevens, die zich uitstrekten tot testpunten buiten het trainingsbereik.

Samenvatting
Kunstmatige intelligentie is een belangrijk instrument geworden voor het optimaliseren van de systeem- en procesprestaties in een grote verscheidenheid aan industriële en commerciële toepassingen. Door middel van machine learning kan AI zichzelf optimaliseren, zonder de oorzaak- en gevolgrelaties van de ontdekte correlaties te begrijpen. Samen hebben AI en ML een groot potentieel op vele gebieden van het productieproces van halfgeleiders, variërend van het verbeteren van de prestaties van individuele tools tot het beheren van een volledige fab en het optimaliseren van de wereldwijde toeleveringsketen. Specifieke voorbeelden hiervan zijn AI/ML-oplossingen voor OCD-metingen die het langdurige en kostbare modelleringsproces vermijden dat nodig is voor conventionele oplossingen. Hoewel het onwaarschijnlijk is dat het modelgebaseerde oplossingen zal vervangen, zullen oplossingen voor machine learning aanvullende mogelijkheden bieden in complexe, tijdgevoelige situaties waar de kosten en tijd die nodig is voor het modelleren onbetaalbaar zijn. Toepassingen van AI/ML in andere gebieden van de halfgeleiderindustrie zullen waarschijnlijk snel groeien naarmate fabrikanten de waarde ontdekken die in hun gegevens verborgen zit.
Bron: Semiconductor Digest

 

Share.

Reageer

CAPTCHA Image

Reload Image

Deze website gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.