Improved Dynamic Light Scattering using an adaptive and statistically driven time resolved treatment of correlation data

In dit werk beschrijven en beoordelen we een nieuw DLS-meet- en gegevensbehandelingsproces dat de fotonaankomsttijdgegevens van de detector in zeer kleine blokken knipt, die elk gecorreleerd worden als een afzonderlijke deelmeting. De statistische verdeling van een aantal grootheden die uit elke gecorreleerde deelmeting wordt afgeleid en tijdens het meetproces wordt opgebouwd, wordt vervolgens gebruikt om voorbijgaande gebeurtenissen te classificeren, zoals die welke aan het eind van de deelmeting van 10 s wordt getoond, tussen 8 s en 10 s in fig. 1b, en deze afzonderlijk te analyseren met de resterende gegevens in stabiele toestand (0 s tot <8 s in fig. 1c). Het resultaat wordt dan afzonderlijk opgeteld als een transient en steady-state correlogram paar, die vervolgens worden gereduceerd om de transient en steady-state deeltjesgrootteverdelingen op te leveren. Van cruciaal belang is dat alle verzamelde gegevens (transiënte en stationaire) worden geanalyseerd en gerapporteerd: er worden geen gegevens verworpen of voor de gebruiker verborgen gehouden en er wordt een volledige en niet-vertekende weergave van alle monsterresultaten verkregen, polydisperse of andere, maar zonder de verhoogde onzekerheden in de stationaire fracties die van belang zijn in de aanwezigheid van sterke transiënte verstrooiers. Verder behandelt dit proces intrinsiek het beperkende geval waarin zoveel aggregaten bestaan dat de primaire fractie van het monster moet worden beschouwd als deze grotere componenten, d.w.z. de aggregaten worden zo talrijk dat hun signaal de steady-state fractie wordt27.

Wij vinden ook dat de classificatie en de afzonderlijke vermindering van de voorbijgaande en de stationaire toestand klassen op basis van zeer korte meting sub-runs en op een wijze die is gebaseerd op de statistieken van de gegevens zelf, leidt tot een statistisch relevante minimalisering van de variabiliteit binnen de stationaire toestand klasse over korte totale meettijden die rechtstreeks leiden tot een verhoging van de precisie van de stationaire toestand DLS-gegevens, terwijl tegelijkertijd de totale meettijd voor een goed gedragen monster, met een orde van grootte wordt verminderd ten opzichte van die welke momenteel in commercieel beschikbare instrumenten worden gevonden.

De ontwikkeling van de techniek wordt beschreven in de rest van dit hoofdstuk met behulp van metingen van polystyreen latex deeltjes als een modelsysteem van bekende grootte en dispersies van lysozym als een fragiel, weinig verstrooiing monster. Een aantal casestudies die de voordelen van de techniek aantonen, worden beschreven in hoofdstuk 3. In hoofdstuk 4 worden conclusies getrokken en in hoofdstuk 5 worden de gebruikte methoden beschreven.

Analysemethoden

Hoewel de techniek ook toepasbaar is op gecorreleerde metingen, meten de meeste in de handel verkrijgbare instrumenten de autocorrelatiefunctie g2(|q|;τ) van de gedetecteerde, verstrooide foton tijdreeks I(t), gegeven door,

${g}^{2}(|{\boldsymbol{q}}|;\tau )={g}^{g}{g}^{2}(|{\boldsymbol{q}|}; \tau )={g}^{g}^{2}}$$
(3)

waar τ de vertragingstijd is, en I de gemeten intensiteit bij de detector in fotonentallen per seconde gemeten op tijdstip t. De correlatiefunctie van de eerste orde, g1, wordt uit g2 afgeleid via de Siegert-relatie1 en gewoonlijk wordt een cumulanten-fit20 op g1 toegepast, zodat,

$${g}^{1}(|{\boldsymbol{q}|;\tau )=exp(-bar{\Gamma }(\tau -\frac{{\mu }_{2}}{2!}{\tau }^{2}+\frac{{\mu }_{3}}{3!{\tau }^{3}+\ldots ))$$
(4)

waarin \(\bar{\Gamma },\) de gemiddelde, karakteristieke vervalsnelheid is over alle grootteklassen in de steekproef en \({\mu }_{2}/{\bar{\Gamma }}^{2},\is de 2e orde polydispersiteitsindex (PdI) die de afwijking van de correlatiefunctie van een enkelvoudig exponentieel verval beschrijft en een schatting geeft van de variantie van het monster. De z-gemiddelde diffusiecoëfficiënt, Dz, wordt dan gegeven door de relatie

$$\bar{\Gamma }={{{\boldsymbol{q}}|}^{2}{D}_{z}$
(5)

en de gemiddelde hydrodynamische diameter, ZAve, berekend uit Dz, met behulp van het Stokes-Einsteinmodel voor sferische deeltjes in vloeistoffen met een laag getal van Reynolds, Eq. 6, waarbij η de dispersieviscositeit is, kB de constante van Boltzmann en T de dispersietemperatuur in Kelvin,

$${D}_{z}=\frac{{k}_{B}T}{3}pi {Z}_{Ave}}$$
(6)

Een schatting van de deeltjesgrootteverdeling met een hogere resolutie dan cumulanten wordt gegeven door de correlatiefunctie aan te passen aan een som over meerdere exponentialen, Dit wordt bereikt met een aantal mogelijke inversiemethoden zoals CONTIN28 of niet-negatieve kleinste kwadraten (NNLS), twee algemeen toegepaste voorbeelden die zijn ontworpen om het hoofd te bieden aan de over het algemeen slecht gestructureerde aard van een dergelijke aanpassing. Voor het polydisperse geval wordt Eq. 4 dan een continue verdeling over D, waaruit een reeks van bijdragende deeltjesstralen of -diameters kan worden berekend,

$${g}^{1}(|{\boldsymbol{q}}|;\G(\Gamma )\,exp(\,-,\Gamma {\rm{\tau }})d\Gamma $$
(7)

Sub meetlengte en verbeterde precisie

De foton aankomst tijdreeks wordt verdeeld in kleine sub metingen die vervolgens individueel gecorreleerd worden en gereduceerd tot monster eigenschappen zoals beschreven in hoofdstuk 2.1 en verdelingen van deze afgeleide grootheden, opgebouwd naarmate de meting vordert, worden vervolgens gebruikt om transiënte en stationaire gegevens te identificeren.

De experimentele onzekerheid in grootheden die zijn afgeleid van de DLS-gegevens (ZAve, PdI, telsnelheid, enz.) over meerdere metingen is omgekeerd evenredig met de vierkantswortel van het aantal metingen op de gebruikelijke manier, maar de relatie tussen de ruis in het correlogram binnen elke submeting en de submeetlengte is minder duidelijk. Herinnerend aan Fig. 1a, het bemonsterde volume, het gebied onderbroken door het snijpunt van de verlichtende laser en de detectiepaden, beide van eindige breedte, is aanzienlijk kleiner dan het totale volume van het monster in de cuvet, daarom, als de integratietijd toeneemt de kans dat een aggregaat diffundeert in, of uit, het detectievolume toeneemt en in dit deel is om te onderzoeken hoe de afgeleide grootheden, ZAve en PdI zich gedragen als functie van de duur van de submeting. Het doel is de duur te optimaliseren om de signaal-ruisverhouding te handhaven of te verbeteren, maar in een submeetlengte die tegelijkertijd het selectiealgoritme in staat stelt responsief genoeg te blijven om elke submeting als steady state of transient te classificeren.

Figuur 2a toont de ZAve en PdI voor een reeks metingen van een polystyreenlatex met een hydrodynamisch groottebereik gespecificeerd door de fabrikant als 58-68 nm (Thermo-Scientific, 3060 A), gedispergeerd in 150 mM NaCl gemaakt met 200 nm gefiltreerd DI water (18.2 MΩ).

Figuur 2
figuur2

(a) Verdeling van ZAve en PdI als functie van de duur van de submeting en het aantal submetingen. Alle geregistreerde gegevens worden getoond, d.w.z. dat er geen gegevens voor deze figuur werden gedeselecteerd: Zie de hoofdtekst voor de discussie. De stippellijn geeft de ISO-norm voor polydispersiteitsindex aan. (b) Voorbeelden van de polydispersiteitsindex, PdI, als functie van ZAve voor monsters die sporen van extra groot materiaal bevatten (boven), (zie aanvullende informatie) en stabiele, goed voorbereide monsters (onder).

Zie de vermindering van de standaardafwijking over de gemeten ZAve van 1.1 nm tot 0,32 nm tussen de 1 × 10 s en 10 × 1 s gevallen, gemarkeerd in blauw, wat aangeeft dat de precisie van de DLS meting wordt verhoogd door simpelweg gebruik te maken van een gemiddelde over kortere deelmetingen, maar voor dezelfde totale integratietijd. Soortgelijk gedrag kan worden waargenomen bij metingen van deeltjes van verschillende grootte (zie de aanvullende informatie).

Het mechanisme achter deze verbetering kan worden verklaard door de vorm van de correlatiefunctie te beschouwen wanneer een voorbijgaande verstrooier wordt gedetecteerd. De correlatiefunctie is ongeveer een exponentieel verval, met kleine verstoringen als gevolg van verschillende bronnen van ruis, waaronder na pulsering, shotruis, normalisatiefouten en natuurlijk de detectie van verstrooiende deeltjes van verschillende grootte21. Het opnemen van de gecorreleerde lichtverstrooiing over korte tijdsintervallen kan de amplitude van deze verstoringen vergroten, maar middeling over verscheidene submeetcorrelatiefuncties, die elk willekeurige ruis bevatten, betekent dat het eindresultaat minder ruis bevat dan een correlatiefunctie die met dezelfde duur is opgenomen, maar als één continu spoor wordt behandeld. Dit is een uiterst belangrijk resultaat omdat het aangeeft dat niets meer dan een zorgvuldig afgeleide submeetlengte een 3 voudige verbetering van de precisie oplevert voor deze primaire nanoschaalmeetmodaliteit.

Daarnaast, zoals we laten zien in de volgende sectie, de kortere sub-meetlengte maakt ook de indeling van steady-state en transiënte gegevens, die we zullen aantonen lost een primaire kritiek van DLS: de evenredigheid van de verstrooide intensiteit tot de zesde macht van de deeltjesradius, wat betekent dat gegevens van de primaire deeltjes component kan worden scheefgetrokken of zelfs gemaskeerd door de aanwezigheid van zeldzame grote deeltjes. In praktische termen, legt dit de noodzaak van scrupuleuze monstervoorbereiding op om significante onzekerheden in de uitkomst van de meting veroorzaakt door grotere, vaak ongewenste fracties, van filterafval, voorbijgaande aggregaten of slecht gereinigd lab-ware, bijvoorbeeld, te vermijden.

Classificatie van voorbijgaande en stationaire gegevens

Zoals eerder vermeld, gebruiken vele commerciële DLS-instrumenten een submetingstijd van de orde van 10 seconden met verscheidene van deze metingen die volgens een of ander stofafwijzingsalgoritme worden gecombineerd, maar betekent dat grote secties van betrouwbare gegevens uit een meting kunnen worden weggelaten als een submeting een korte uitbarsting van verstrooiing van een voorbijgaande gebeurtenis bevat. Dit wijst erop dat een classificatie van stationaire en transiënte gegevens ook zou kunnen worden bereikt door kortere correlatietijden te gebruiken en dit zou ook de vergelijking tussen submetingen nauwkeuriger kunnen maken, aangezien de effecten van transiënte verstrooiing niet zouden worden uitgemiddeld. De resultaten van een reeks van deze submetingen zouden dan kunnen worden gecombineerd door het gemiddelde van de autocorrelatiefuncties te analyseren alvorens de grootteanalyse uit te voeren, zoals besproken in punt 2.2.

Alle geregistreerde submetingen worden dan ingedeeld in reeksen die de stationaire toestand en de transiënte toestand van het systeem beschrijven of met andere woorden die welke representatief zijn voor het onderliggende, stationaire monster en die welke geassocieerd zijn met een uitbarsting van ongewenste verstrooiing, zoals getoond in Fig. 1c.

De identificatie van transiënte deelmetingen moet worden afgeleid van de kenmerken van het onderzochte monster om de noodzaak te vermijden van willekeurig gedefinieerde drempels die monsterspecifiek kunnen zijn. Door elk van de gecollationeerde deelmetingen afzonderlijk te reduceren, zijn een aantal mogelijke parameters beschikbaar die kunnen worden gebruikt als basis voor de vergelijking van reeksen van deelmetingen en het lijkt logisch deze vergelijking te baseren op een grootte-analyse van de gemeten autocorrelatiefuncties.

Cumulantenanalyse gaat ervan uit dat een monster monodispersed is, wat betekent dat zowel de ZAve als de PdI beide continue en gevoelige maten van de deeltjesgrootte zullen geven die we kunnen gebruiken om deelmetingen te vergelijken. De PdI beschrijft de afwijking van de correlatiefunctie van een perfect exponentieel verval. Het is een directe meting van de verstoring van de correlatiefunctie en is bijzonder gevoelig voor ruis in de correlatiefunctie basislijn die een typisch gevolg is van voorbijgaande verstrooiing en, zoals we zullen aantonen, is daarom een ideale parameter om te gebruiken om de correlatiefuncties van een veelheid van deelmetingen te vergelijken.

Een voorbeeld van een dergelijke relatie wordt getoond in Fig. 2b, waar de monsters ofwel geaggregeerd materiaal bevatten of gedoteerd zijn met een mengsel van latex bolletjes (zie aanvullende informatie). Hier vertonen monsters met sporen van aggregaat een positieve correlatie tussen gemeten grootte en PdI, met enkele datapunten geclusterd op een consistente grootte en PdI, terwijl niet-gedoteerde monsters goed gedefinieerde clusters van gegevens vertonen. Voorbijgaande submetingen kunnen derhalve worden geïdentificeerd als die met een onverwachte waarde voor de PdI. In dit geval betekent onverwacht dat de PdI van een bepaalde submeting niet representatief is voor de steady state submetingen en derhalve een statistische uitbijter is. Er bestaan vele methoden om statistische uitbijters te identificeren, die elk hun sterke en zwakke punten hebben, afhankelijk van de aard van de verdeling van belang en de steekproefgrootte.

Figuur 3a toont de verdelingen van de PdI voor dispersies die willekeurig kleine hoeveelheden onecht materiaal bevatten, waarbij de verdelingen van de PdI variëren in centrum en breedte voor de verschillende monsters. Aangezien de PdI per definitie beperkt is tot het interval en in het algemeen scheef zal zijn naar grotere waarden, zijn rekenkundige beschrijvingen van de verdeling zoals het gemiddelde en de standaardafwijking niet geschikt.

Figuur 3
figuur 3

(a) Verdelingen van PdI voor een reeks geaggregeerde/verontreinigde monsters, waaruit blijkt dat er een monstergespecifieke definitie nodig is om de meting van voorbijgaande deeltjes te identificeren. Deze verdelingen tonen ook aan dat de PdI een vertekende verdeling is, en als zodanig zou een drempelwaarde van drie standaardafwijkingen van het gemiddelde voor uitbijters niet robuust zijn. (b) Histogram van een spaarzaam verzamelde reeks metingen voor een monster lysozym. Terwijl de aanpassing met behulp van een kleinste kwadratenregressie en een Gaussisch model in (a) het mogelijk maakte de statistieken van voldoende bemonsterde gegevensreeksen op betrouwbare wijze te bepalen, is een poging tot aanpassing aan een schaarse gegevensreeks in blauw weergegeven, maar deze vertoont een slechte correlatie met de distributiegegevens als gevolg van duidelijke onderbemonstering. Ook is een spreidingsdiagram van de afzonderlijke waarden te zien, waaruit de spreiding blijkt. Het individuele punt in rood wordt met succes geïdentificeerd als een uitbijter door de Rosner procedure voor algemene uitbijters.

Wanneer het aantal discrete deelmetingen voldoende groot is, kan een histogram van de gegevens worden gebruikt om een verdelingsbreedte af te leiden (zie Gaussische passing in Fig. 3a), maar wanneer de steekproefgrootte kleiner is, kunnen numerieke hypothesetestmethoden zoals die beschreven door Dixon29 en Rosner30 geschikter zijn, fig. 3b.

Optimalisering van de steekproefgrootte

De doeltreffendheid van elke methode voor de identificatie van uitschieters zal worden gekoppeld aan zowel het totale aantal datapunten als het aantal uitschieters binnen een verdeling. Bijvoorbeeld, het goed geprepareerde, monodisperse en stabiele monster in Fig. 2a toont aan dat een betrouwbare grootte kan worden gerapporteerd voor slechts 10 gemiddelde submetingen van 1 s, terwijl een monster dat meer ruis produceert correlatiefuncties, hetzij door lage verstrooiing, met aanzienlijke polydispersiteit of door het bevatten van valse verstrooiers, zal een groter aantal submetingen nodig zijn om meer vertrouwen te geven aan de identificatie van uitbijters. Ook dit motiveert een steekproefsgewijze aanpak waarbij het aantal deelmetingen afhankelijk is van de kwaliteit van de gegevens van de steekproef.

Mogelijke benaderingen zouden kunnen zijn de spreiding van de resultaten van de afzonderlijke deelmetingen te controleren of normaliteitstests op deze waarden uit te voeren, maar dit zou er typisch toe leiden dat de meting een groter aantal datapunten moet opleveren. Een alternatieve aanpak is het voortdurend controleren van het vermeende eindresultaat naarmate de meting vordert; wanneer de statistieken van de meting voldoende goed gedefinieerd zijn en de verstoringen in de correlatiefunctie voldoende uitgemiddeld zijn in het eindresultaat, moet de gerapporteerde grootte constant worden tot binnen een zekere mate van natuurlijke variatie. Ook hier kunnen hypothesetests worden gebruikt om het resultaat van de meting te vergelijken na het verzamelen van aanvullende deelmetingen, en als deze waarden overeenkomen, is het monster voldoende gekarakteriseerd en kan de meting dienovereenkomstig worden beëindigd. Verder vertrouwen kan aan deze methode worden toegevoegd door gedurende de meting te controleren op bijzondere oorzaken in de resultaten, zoals trending en oscillatie.

Een voorbeeld van deze aanpak is te zien in fig. 4a voor een monster lysozym, waarbij aanvankelijk een foutieve onderschatting van de deeltjesgrootte wordt gerapporteerd, maar die zich stabiliseert met het verzamelen van volgende submetingen. Merk ook op dat de uitbijteridentificatie tijdens de meting wordt herhaald naarmate meer gegevens worden verzameld, wat betekent dat een voorbijgaande gebeurtenis als zodanig zal worden geïdentificeerd, ongeacht wanneer in het meetproces deze werd geregistreerd. Dit is een verbetering ten opzichte van andere methoden die gegevens kunnen vergelijken op basis van een eerste meting, die al dan niet representatief kan zijn geweest voor het echte monster.

Figuur 4
figuur 4

(a) Boven: De gerapporteerde ZAve afgezet tegen het aantal gemeten deelmetingen tijdens de meting van een monster lysozym. Een schatting van de standaardfout op elke gerapporteerde maat wordt weergegeven door foutbalkjes. Het resultaat is aanvankelijk onnauwkeurig en variabel, maar stabiliseert zich nadat een voldoende hoeveelheid gegevens is verzameld. Onderaan: Betrouwbaarheidsniveau (CL) van een hypothesetest van de vergelijkbaarheid van de gegevens, berekend voor de opeenvolgende waarden die voor de ZAve zijn aangegeven. Wanneer het betrouwbaarheidsniveau een drempel heeft bereikt, wordt geen oplosbaar verschil in ZAve verwacht en kan de registratie van aanvullende deelmetingen derhalve worden beëindigd. (b) Boven: Intensiteitsgewogen deeltjesgrootteverdeling voor metingen van 1 mg/mL lysozym met korte en lange correlatietijden, gemeten bij een detectiehoek van 90°. De korte submetingen vertonen een schijnbaar grote groottecomponent die een ruisartefact is in verband met de lage verstrooiingsintensiteit van het monster. Onderaan: Overeenkomstige correlatiefunctiebasislijnen voor herhaalde metingen met lange en korte submetingen. De korte deelmetingen vertonen een in de tijd opgelost, bijkomend vervalartefact.

Dit resulteert in een verbeterde efficiëntie van gegevensverzameling zonder tussenkomst van de gebruiker en metingen van stabiele monsters waarvoor minder gegevens moeten worden verzameld, kunnen derhalve in kortere tijd worden voltooid, terwijl voor complexe monsters die een zekere mate van onzekerheid vertonen, automatisch meer gegevens moeten worden verzameld om een resultaat met vergelijkbaar vertrouwen te verkrijgen.

Bemonsteringsoptimalisatie

Zoals in punt 2.2 is beschreven, zijn er verschillende bronnen van ruis in de correlatiefunctie en de amplitude van deze ruis kan in de tijd afhankelijk zijn. Terwijl in punt 2.2 het gebruik van korte correlatietijden wordt bepleit, zijn er gevallen waarin dit nadelig kan zijn.

Voor een monster dat geringe verstrooiingseigenschappen vertoont, hetzij door een kleine verstrooiingsdoorsnede, een lage monsterconcentratie, een klein verschil in brekingsindex met de omringende dispergeermiddel of een combinatie daarvan, kunnen er minder gedetecteerde fotonen zijn om de correlatortijdbins te vullen en dit zal zich typisch manifesteren als ruis in de correlatiefunctiebasislijn bij langere correlatorvertragingstijden, τ.

Commerciële lichtverstrooiingsinstrumenten variëren typisch een aantal instrumentele instellingen als deel van de meetopstellingsprocedure, zoals de optimalisering van de meetpositie binnen de cuvet om de optische weglengte van de ingaande laser en de uitgaande verstrooiingsdetectiepad te minimaliseren om meervoudige verstrooiing van geconcentreerde monsters dichtbij het cuvetcentrum te vermijden of, omgekeerd, om statische verstrooiing van de celwand bij lage monsterconcentraties te vermijden en de optimalisering van het gedetecteerde fotontellingstarief om binnen het lineaire bereik van de detector te blijven. Deze instrumentele optimaliseringen zijn in het algemeen bedoeld om gebruikers die niet vertrouwd zijn met de interpretatie van lichtverstrooiingsgegevens in staat te stellen de betrouwbaarste resultaten over een breed spectrum van monsterconcentraties en -grootten te verkrijgen, maar een dergelijke optimalisering is nog niet eerder toegepast op de correlatietijd. Een voorbeeld hiervan wordt getoond in Fig. 4b, met deeltjesgrootteverdelingen getoond voor een monster van 1,0 mg/mL lysozym gemeten bij een 90° detectiehoek. De gerapporteerde PSD voor een korte correlatietijd vertoont een duidelijke grote deeltjesgroottecomponent naast de hoofddeeltjespiek.). Als dit een echt monstereffect was, zouden metingen bij een kleinere detectiehoek dezelfde grote component hebben laten zien. De voorwaartse verstrooiingsmetingen voor hetzelfde monster waren monomodaal (zie SI) en de afwezigheid van de piek in de gemeten gegevens bij andere detectiehoeken (aanvullende informatie) geeft aan dat het kan te wijten zijn aan een combinatie van een weinig verstrooiing monster en statische verstrooiing, mogelijk, van de wegwerp monster cuvet. Terwijl de intensiteit van het invallende licht kan worden geoptimaliseerd, kunnen sommige monsters zoals lage concentratie eiwitten verstrooien een suboptimaal aantal fotonen zelfs zonder verzwakking van de verlichtende laser, wat betekent dat standaard werkprocessen voor een commerciële dynamische lichtverstrooiing systeem niet optimaal en langere correlatietijden kunnen worden gebruikt24 met uitgebreide methode ontwikkeling nodig om deze instellingen te bepalen. Daarom kan een verdere monstergestuurde aanpassing van de meting worden ingevoerd, waarbij het instrument de kortst mogelijke submeetlengte gebruikt die een optimaal aantal te meten fotonen oplevert (zie SI) en dit wordt beschreven in het geoptimaliseerde meetschema in de volgende paragraaf.

Het optimale meetschema

Het optimale meetschema bestaat uit het volgende proces:

  1. (1)

    Optimalisatie van de meetpositie en de invallende lichtintensiteit.

  2. (2)

    Als het gedetecteerde verstrooiingsniveau laag is, zelfs met de laagste laserdemping, wordt de submeetlengte geoptimaliseerd om basislijnruis te verminderen.

  3. (3)

    Submetingen worden verzameld en geanalyseerd met behulp van cumulantenanalyse.

  4. (4)

    De PdI-waarden van deze analyses worden vergeleken en uitbijters worden geïdentificeerd.

  5. (5)

    De correlatiefuncties van de steady state deelmetingen worden gemiddeld, en het resultaat geanalyseerd om een ZAve te rapporteren.

  6. (6)

    Meer deelmetingen worden geregistreerd en geanalyseerd zoals hierboven, en een nieuw definitief antwoord ZAve geregistreerd.

  7. (7)

    Dit proces wordt herhaald totdat de vorige twee ZAve-resultaten van de stappen (5) en (6) met behulp van een hypothesetest overeen blijken te komen.

  8. (8)

    Alle transiënte deelmetingen worden ook gemiddeld en geanalyseerd om informatie over de transiënte component te verkrijgen.

Gezien de reactie van het bovenstaande algoritme op de kenmerken van het monster, waarbij de lengte van de submetingen, de hoeveelheid verzamelde gegevens en welke submetingen van het stationaire resultaat moeten worden weggelaten, alle afhankelijk zijn van de monster- en gegevenskwaliteit, wordt de methode Adaptieve Correlatie genoemd, geïnspireerd op het gebruik van Adaptieve Optiek in de astronomie31, waar gegevensfeedback wordt gebruikt om te corrigeren voor waargenomen aberraties.

Leave a Reply