Förbättrad dynamisk ljusspridning med hjälp av en adaptiv och statistiskt driven tidsupplöst behandling av korrelationsdata

I det här arbetet beskriver och utvärderar vi en ny DLS-mätning och databehandlingsprocess som skär upp data om fotonernas ankomsttid från detektorn i mycket små block, varav vart och ett korreleras som en separat delmätning. Den statistiska fördelningen av ett antal storheter som härrör från varje korrelerad delmätning, som byggs upp under mätprocessen, används sedan för att klassificera övergående händelser, som den som visas i slutet av 10 s delmätning, mellan 8 s och 10 s i figur 1b, och för att analysera dem separat i förhållande till de återstående stationära data (0 s till <8 s i figur 1c). Resultatet summeras sedan separat som ett korrelogrampar för transient och steady-state, som sedan reduceras för att ge de transienta och steady-state partikelstorleksfördelningarna. Eftersom alla insamlade data (transienta och stationära) analyseras och rapporteras är det av avgörande betydelse att inga data förkastas eller döljs för användaren och att man får en fullständig och icke-skevad representation av alla provresultat, polydispersa eller inte, men utan de ökade osäkerheterna i de stationära fraktionerna som är av intresse i närvaro av starka transienta spridare. Vidare behandlar denna process i sig det begränsande fallet där det finns så många aggregat att den primära fraktionen av provet bör anses vara dessa större komponenter, dvs. aggregaten blir så många att deras signal blir den stationära fraktionen27.

Vi finner också att klassificering och separat reducering av de transienta och stationära klasserna baserat på mycket korta delmätningar och på ett sätt som bygger på statistiken i själva data, leder till en statistiskt relevant minimering av variabiliteten inom den stationära klassen över korta totala mättider, vilket direkt leder till en ökning av precisionen hos DLS-data för stationära tillstånd, samtidigt som den totala mättiden för ett prov med gott uppförande minskas med en storleksordning jämfört med de som för närvarande finns i kommersiellt tillgängliga instrument.

Teknikens utveckling beskrivs i resten av detta avsnitt med hjälp av mätningar av polystyrenlatexpartiklar som ett modellsystem med kända storlekar och dispersioner av lysozym som ett bräckligt prov med låg spridning. Ett antal fallstudier som visar fördelarna med tekniken beskrivs i avsnitt 3. Slutsatser dras i avsnitt 4 och de använda metoderna beskrivs i avsnitt 5.

Analysmetoder

Tekniken är visserligen lika tillämplig på korskorrelerade mätningar, men de flesta kommersiellt tillgängliga instrument mäter autokorrelationsfunktionen g2(|q|;τ) för den detekterade, spridda fotontidsserien I(t) som ges av,

$$${g}^{2}(|{\boldsymbol{q}}|;\tau )=\frac{\langle I(t)I(t+\tau )\rangle }{\langle I(t){\rangle }^{2}}}$$$
(3)

där τ är fördröjningstiden och I den uppmätta intensiteten i detektorn i fotonräkningar per sekund uppmätt vid tidpunkt t. Korrelationsfunktionen av första ordningen, g1, hämtas från g2 via Siegert-relationen1 och en cumulants-fit20 till g1 implementeras vanligen så att,

$$${g}^{1}(|{\boldsymbol{q}}|;\tau )=exp(-\bar{\Gamma }(\tau -\frac{{\mu }_{2}}{2!}{\tau }^{2}+\frac{{\mu }_{3}}{3!}{\tau }^{3}+\ldots ))$$
(4)

där \(\(\bar{\Gamma }\,\) är den genomsnittliga, karakteristiska nedbrytningshastigheten över alla storleksklasser i provet och \({\mu }_{2}/{\bar{\Gamma }}^{2}\,\)är den andra ordningens polydispersitetsindex (PdI) som beskriver korrelationsfunktionens avvikelse från ett enda exponentiellt sönderfall och ger en uppskattning av provets varians. Den z-genomsnittliga diffusionskoefficienten, Dz, ges sedan av relationen

$$$\bar{\Gamma }={|{\boldsymbol{q}}}|}^{2}{D}_{z}$$$
(5)

och den genomsnittliga hydrodynamiska diametern, ZAve, beräknad från Dz, med hjälp av Stokes-Einstein-modellen för sfäriska partiklar i vätskor med lågt Reynoldsnummer, Eq. 6, där η är dispergeringsmedlets viskositet, kB är Boltzmannkonstanten och T är dispergeringsmedlets temperatur i Kelvin,

$$${D}_{z}=\frac{{{k}_{B}T}}{3\pi \eta {Z}_{Ave}}}$$$
(6)

En uppskattning av partikelstorleksfördelningen med högre upplösning än kumulanter ges genom att korrelationsfunktionen anpassas till en summa över flera exponentialer, Detta görs med hjälp av ett antal möjliga inverteringsmetoder, t.ex. CONTIN28 eller icke-negativa minsta kvadrater (NNLS), som är två vanligt förekommande exempel som är utformade för att hantera den generellt sett dåligt ställda karaktären hos en sådan anpassning. För det polydisperse fallet kan Eq. 4 blir då en kontinuerlig fördelning över D, från vilken ett intervall av bidragande partikelradier eller diametrar kan beräknas,

$$${g}^{1}(|{\boldsymbol{q}}|;\tau )=\int G(\Gamma )\,exp(\,-\,\Gamma {\rm{\tau }})d\Gamma $$$
(7)

Submätningslängd och förbättrad precision

Tidsserien för fotonernas ankomsttid delas upp i små submätningar som sedan korreleras individuellt och reduceras till provegenskaper enligt beskrivning i avsnitt 2.1 och fördelningar av dessa härledda storheter, som byggs upp allteftersom mätningen fortskrider, används sedan för att identifiera transienta och stationära data.

Den experimentella osäkerheten i storheter som härleds från DLS-data (ZAve, PdI, räknehastighet etc.) över flera mätningar är omvänt proportionell mot kvadratroten av antalet mätningar på sedvanligt sätt, men förhållandet mellan bruset i korrelogrammet inom varje delmätning och delmätningslängden är mindre tydligt. När vi erinrar oss figur 1a är den samplade volymen, dvs. det område som begränsas av skärningspunkten mellan den belysande lasern och detektionsbanorna, som båda har ändlig bredd, betydligt mindre än den totala provvolymen i kyvetten. När integrationstiden ökar ökar därför sannolikheten för att ett aggregat diffunderar in i eller ut ur detektionsvolymen, och i detta avsnitt undersöks hur de härledda storheterna ZAve och PdI uppträder som funktion av delmätningslängden. Syftet är att optimera varaktigheten för att bibehålla eller förbättra signal-brusförhållandet, men med en delmätningslängd som samtidigt gör det möjligt för urvalsalgoritmen att förbli tillräckligt lyhörd för att klassificera varje delmätning som stationär eller transient.

Figur 2a visar ZAve och PdI för en serie mätningar av en polystyrenlatex med ett hydrodynamiskt storleksintervall som av tillverkaren anges vara 58-68 nm (Thermo-Scientific, 3060 A), som är dispergerad i 150 mM NaCl och som tillverkats med 200 nm filtrerat DI-vatten (18.2 MΩ).

Figur 2
figur2

(a) Fördelning av ZAve och PdI som en funktion av delmätningens längd och antalet delmätningar. Alla registrerade data visas, dvs. inga data valdes bort för denna figur: Se huvudtexten för diskussion. Den streckade linjen visar ISO-standarden för polydispersitetsindex. (b) Exempel på polydispersitetsindex, PdI, som funktion av ZAve för prover som innehåller spårmängder av ytterligare stort material (överst), (se tilläggsinformation) och stabila, välpreparerade prover (nederst).

Bemärk minskningen av standardavvikelsen över den uppmätta ZAve från 1.1 nm till 0,32 nm mellan fallen 1 × 10 s och 10 × 1 s, markerad i blått vilket indikerar att precisionen i DLS-mätningen ökar helt enkelt genom att använda ett medelvärde över kortare delmätningar men för samma totala integrationstid. Liknande beteende kan ses i mätningar av partiklar av olika storlek (se kompletterande information).

Mekanismen bakom denna förbättring kan förklaras genom att betrakta korrelationsfunktionens form när en transient spridare upptäcks. Korrelationsfunktionen är ungefär en exponentiell nedgång, med små störningar på grund av flera källor till brus, bland annat efter pulsering, skottbrus, normaliseringsfel och naturligtvis detektering av spridande partiklar av olika storlek21. Registrering av den korrelerade ljusspridningen under korta tidsintervall kan öka amplituden av dessa störningar, men medelvärdesbildning över flera delmätningar av korrelationsfunktioner, som var och en innehåller slumpmässigt brus, innebär att slutresultatet innehåller mindre brus än en korrelationsfunktion som registrerats under samma tidsperiod, men som behandlas som ett kontinuerligt spår. Detta är ett ytterst viktigt resultat eftersom det visar att inget annat än en noggrant beräknad delmätningslängd ger en trefaldig förbättring av precisionen för denna primära mätmetod i nanoskala.

Fortfarande, som vi visar i nästa avsnitt, gör den kortare delmätningslängden det också möjligt att klassificera data i stationärt tillstånd och transienta data, vilket vi kommer att visa löser en primär kritik mot DLS: Proportionaliteten hos den spridda intensiteten till den sjätte potensen av partikelradien, vilket innebär att data från den primära partikelkomponenten kan vara snedvridna eller till och med maskerade av närvaron av sällsynta stora partiklar. I praktiken innebär detta att det krävs en noggrann provberedning för att undvika betydande osäkerheter i resultatet av mätningen som orsakas av större, ofta oönskade fraktioner, t.ex. från filterspill, tillfälliga aggregat eller dåligt rengjorda laboratorieartiklar.

Klassificering av transienta och stationära data

Som tidigare nämnts använder många kommersiella DLS-instrument en delmätningstid i storleksordningen 10 sekunder och flera av dessa mätningar kombineras efter någon form av dammavstötningsalgoritm, vilket dock innebär att stora delar av tillförlitliga data kan utelämnas från en mätning om en delmätning innehåller en kort stöt av spridning från en transient händelse. Detta tyder på att en klassificering av data om stabila förhållanden och transienta data också kan uppnås genom att använda kortare korrelationstider, vilket också kan göra jämförelsen mellan delmätningar mer exakt eftersom effekterna av transient spridning inte skulle medelvärdesberäknas. Resultaten från en serie av dessa delmätningar kan sedan kombineras genom att analysera medelvärdet av autokorrelationsfunktionerna innan en storleksanalys utförs, vilket diskuteras i avsnitt 2.2.

Alla inspelade delmätningar klassificeras sedan i uppsättningar som beskriver systemets stabila tillstånd och transienta tillstånd, eller med andra ord, de som är representativa för det underliggande provet i stabilt tillstånd och de som är förknippade med ett utbrott av falska spridningar, vilket framgår av figur 2.2.

. 1c.

Identifieringen av transienta delmätningar bör härledas från egenskaperna hos det prov som undersöks för att undvika behovet av godtyckligt definierade tröskelvärden som kan vara provspecifika. Genom att reducera var och en av de sammanställda delmätningarna individuellt finns ett antal möjliga parametrar tillgängliga som kan användas som grund för att jämföra uppsättningar av delmätningar och det förefaller logiskt att basera denna jämförelse på en storleksanalys av de uppmätta autokorrelationsfunktionerna.

Kumulationsanalysen utgår från att ett prov är monodisperst, vilket innebär att både ZAve och PdI båda kommer att ge kontinuerliga och känsliga mått på partikelstorleken som vi kan använda för att jämföra delmätningar. PdI beskriver korrelationsfunktionens avvikelse från ett perfekt exponentiellt sönderfall. Det är ett direkt mått på störningen av korrelationsfunktionen och är särskilt känsligt för brus i korrelationsfunktionens baslinje, vilket är en typisk följd av transient spridning och, som vi kommer att visa, är därför en idealisk parameter att använda för att jämföra korrelationsfunktionerna från ett flertal delmätningar.

Ett exempel på ett sådant förhållande visas i figur 2b, där proverna innehåller antingen aggregerat material eller är dopade med en blandning av latexkulor (se tilläggsinformation). Här visar prover som innehåller spår av aggregat en positiv korrelation mellan uppmätt storlek och PdI, med vissa datapunkter klustrade vid en konsekvent storlek och PdI, medan prov som inte är dopade visar väldefinierade kluster av data. Övergående undermätningar kan därför identifieras som de som uppvisar ett oväntat värde för PdI. I detta fall betyder oväntat att PdI-värdet för en viss delmätning inte är representativt för delmätningarna i stationärt tillstånd och därför är en statistisk outlier. Det finns många metoder för att identifiera statistiska outliers, som var och en har styrkor och svagheter beroende på arten av den aktuella fördelningen och provstorleken.

Figur 3a visar fördelningarna av PdI för dispersioner som innehåller godtyckligt små mängder av falskt material, med fördelningar av PdI som varierar i centrum och bredd för de olika proverna. Med tanke på att PdI per definition är begränsad till intervallet och i allmänhet kommer att vara snedställd mot större värden, är aritmetiska deskriptorer av fördelningen, t.ex. medelvärde och standardavvikelse, olämpliga.

Figur 3
figur3

(a) Fördelningar av PdI för en rad aggregerade/kontaminerade prover, vilket visar på behovet av en provspecifik definition för att identifiera mätning av transienta partiklar. Dessa fördelningar visar också att PdI är en snedfördelad fördelning och att en tröskel på tre standardavvikelser från medelvärdet för outliers därför inte skulle vara robust. (b) Histogram av en sparsamt insamlad uppsättning mätningar för ett lysozymprov. Medan anpassningen med hjälp av minsta kvadraters regression och en gaussisk modell i a) på ett tillförlitligt sätt gjorde det möjligt att fastställa statistiken för tillräckligt samplade datamängder, visas ett försök att anpassa till en gles datamängd i blått, men den visar dålig korrelation med fördelningsdata på grund av uppenbart undermåttlig sampling. Dessutom visas en spridningsdiagram över de enskilda värdena som visar deras spridning. Den enskilda punkten som visas i rött har framgångsrikt identifierats som en outlier med Rosners generaliserade förfarande för många outliers.

När antalet diskreta delmätningar är tillräckligt stort kan ett histogram av data användas för att härleda en fördelningsbredd (se gaussiska anpassningar i figur 1). 3a), men när urvalet är mindre kan numeriska hypotesprövningsmetoder som de som beskrivs av Dixon29 och Rosner30 vara mer lämpliga, figur 3b.

Optimering av urvalsstorlek

Effektiviteten hos en metod för identifiering av utfallare kommer att vara kopplad till både det totala antalet datapunkter och antalet utfallare inom en fördelning. Det välpreparerade, monodisperse och stabila provet i figur 2a visar till exempel att en tillförlitlig storlek kan rapporteras för så få som 10 medelvärdesbestämda delmätningar av 1 s varaktighet, medan ett prov som ger upphov till mer störande korrelationsfunktioner, antingen på grund av låg spridning, betydande polydispersitet eller genom att det innehåller oönskade spridare, kommer att kräva ett större antal delmätningar för att ge större förtroende för identifiering av avvikande värden. Återigen motiverar detta en provtagningsdriven strategi där antalet delmätningar är beroende av kvaliteten på de data som samlas in från provet.

Möjliga tillvägagångssätt kan vara att övervaka spridningen av de enskilda delmätningsresultaten eller att utföra normalitetstester på dessa värden, men detta skulle normalt sett leda till att mätningen skulle leda till att ett större antal datapunkter samlas in. Ett alternativt tillvägagångssätt är att kontinuerligt övervaka det förmodade slutresultatet allteftersom mätningen fortskrider. Om statistiken för mätningen är lämpligt väldefinierad och störningarna i korrelationsfunktionen är lämpligt väl utjämnade ur slutresultatet, bör den rapporterade storleken bli konstant inom en viss grad av naturlig variation. Återigen kan hypotesprövningar användas för att jämföra det resultat som skulle bli resultatet av mätningen efter insamling av ytterligare delmätningar, och om dessa värden stämmer överens är provet tillräckligt karakteriserat och mätningen kan avslutas i enlighet med detta. Ytterligare förtroende kan läggas till denna metod genom att kontrollera om det finns särskilda orsaker till resultaten under hela mätningen, t.ex. trender och svängningar.

Ett exempel på detta tillvägagångssätt visas i figur 4a för ett lysozymprov, med en initialt felaktig underskattning av partikelstorleken som rapporteras, men som stabiliseras med insamlingen av efterföljande delmätningar. Observera också att identifieringen av avvikande händelser upprepas under mätningen när mer data samlas in, vilket innebär att en tillfällig händelse kommer att identifieras som sådan, oavsett när i mätprocessen den registrerades. Detta är en förbättring jämfört med andra metoder som kan jämföra data baserat på en första mätning, som kanske eller kanske inte var representativ för det verkliga provet.

Figur 4
figur4

(a) Överst: Den rapporterade ZAve mot antalet uppmätta delmätningar under mätningen av ett prov av lysozym. En uppskattning av standardfelet för varje rapporterad storlek visas med felstaplar. Resultatet är till en början oprecist och varierande men stabiliseras efter att en tillräcklig mängd data har samlats in. Botten: Konfidensnivå (CL) för ett hypotesprövningstest av datalikhet, beräknad för successiva värden som visas för ZAve. När konfidensnivån har nått ett tröskelvärde förväntas ingen upplösbar skillnad i ZAve och registreringen av ytterligare delmätningar kan därför avslutas. (b) Överst: Intensitetsvägd partikelstorleksfördelning för mätningar av 1 mg/mL lysozym med korta och långa korrelationstider uppmätta vid en 90° detektionsvinkel. De korta delmätningarna visar en skenbart stor storlekskomponent som är en brusartefakt i samband med provets låga spridningsintensitet. Nederst: Motsvarande korrelationsfunktionsbaslinjer för upprepade mätningar med långa och korta delmätningar. De korta delmätningarna visar en tidsmässigt upplöst, ytterligare nedbrytningsartefakt.

Detta resulterar i en förbättrad effektivitet i datainsamlingen utan ingripande från användarens sida och mätningar av stabila prover som kräver att färre data samlas in kan därför slutföras på kortare tid, medan komplexa prover som uppvisar en viss grad av osäkerhet automatiskt kommer att få en större mängd data insamlade för att ge ett resultat med jämförbar säkerhet.

Samplingoptimering

Som beskrivs i avsnitt 2.2 finns det flera källor till brus i korrelationsfunktionen och amplituden av detta brus kan vara tidsmässigt beroende. Även om avsnitt 2.2 talade för att använda korta korrelationstider finns det fall där detta kan vara skadligt.

För ett prov som uppvisar låga spridningsegenskaper, antingen genom ett litet spridningstvärsnitt, låg provkoncentration, liten skillnad i brytningsindex i förhållande till det omgivande dispergeringsmedlet eller en kombination därav, kan det finnas färre detekterade fotoner för att fylla korrelatorns tidsbins och detta kommer typiskt sett att manifestera sig som brus i korrelationsfunktionens baslinje vid längre korrelatorfördröjningstider, τ.

Kommersiella instrument för ljusspridning varierar vanligtvis ett antal instrumentella inställningar som en del av mätinställningen, t.ex. optimering av mätpositionen i kyvetten för att minimera den optiska väglängden för den inkommande lasern och den utgående spridningsdetekteringsvägen för att undvika multipel spridning från koncentrerade prover nära kyvettens mittpunkt eller, omvänt, för att undvika statisk spridning från cellväggen vid låga provkoncentrationer, och optimering av den detekterade fotonräknarfrekvensen så att den håller sig inom detektorns linjära område. Dessa instrumentella optimeringar är i allmänhet utformade för att göra det möjligt för användare som inte är vana vid att tolka ljusspridningsdata att få fram de mest tillförlitliga resultaten över ett brett spektrum av provkoncentrationer och provstorlekar, men en sådan optimering har inte tidigare tillämpats på korrelationstiden. Ett exempel på detta visas i figur 4b, där partikelstorleksfördelningar visas för ett prov av 1,0 mg/mL lysozym mätt vid en 90° detektionsvinkel. Den rapporterade PSD:n för en kort korrelationstid visar en uppenbar komponent med stor storlek utöver huvudpartikeltoppen). Om detta var en verklig provexffekt skulle mätningar vid en mindre detektionsvinkel ha visat samma stora komponent. Mätningarna av framåtspridning för samma prov var monomodala (se SI) och frånvaron av toppen i de uppmätta uppgifterna vid andra detektionsvinklar (kompletterande information) tyder på att den kan ha berott på en kombination av ett prov med låg spridning och statisk spridning, eventuellt från engångsprovkuven. Även om intensiteten hos det infallande ljuset kan optimeras kan vissa prover, t.ex. proteiner med låg koncentration, sprida ett suboptimalt antal fotoner även utan dämpning av den belysande lasern, vilket innebär att standardprocesser för ett kommersiellt dynamiskt ljusspridningssystem kanske inte är optimala och att längre korrelationstider kan användas24 , och att det krävs omfattande metodutveckling för att fastställa dessa inställningar. En ytterligare provstyrd anpassning av mätningen kan därför införas, varvid instrumentet använder den kortaste möjliga delmätningslängden som ger ett optimalt antal fotoner att mäta (se SI) och detta beskrivs i det optimerade mätschemat i nästa avsnitt.

Det optimala mätschemat

Det optimala mätschemat består av följande process:

  1. (1)

    Optimering av mätpositionen och intensiteten hos det infallande ljuset.

  2. (2)

    Om den detekterade spridningsnivån är låg även med den lägsta laserdämpningen optimeras delmätningslängden för att minska baslinjebruset.

  3. (3)

    Submätningar samlas in och analyseras med hjälp av kumulativ analys.

  4. (4)

    PdI-värdena från dessa analyser jämförs och outliers identifieras.

  5. (5)

    Korrelationsfunktionerna för delmätningarna i stationärt tillstånd medelvärdesbildas och resultatet analyseras för att rapportera ett ZAve.

  6. (6)

    Fler delmätningar registreras och analyseras på samma sätt som ovan och ett nytt slutgiltigt svar ZAve registreras.

  7. (7)

    Denna process upprepas tills de två föregående ZAve-resultaten från steg (5) och (6) konstateras stämma överens med hjälp av ett hypotesprövning.

  8. (8)

    Alla transienta delmätningar medelvärdesbestäms och analyseras också för att ge information om den transienta komponenten.

Med tanke på att ovanstående algoritm reagerar på provets egenskaper, där delmätningslängden, mängden insamlade data och vilka delmätningar som ska utelämnas från det stabila resultatet är beroende av provets och datakvaliteten, kallas metoden adaptiv korrelation, med inspiration från användningen av adaptiv optik inom astronomi31 , där återkoppling av data används för att korrigera observerade aberrationer.

Leave a Reply