Zlepšený dynamický rozptyl světla pomocí adaptivního a statisticky řízeného časově rozlišeného zpracování korelačních dat
V této práci popisujeme a hodnotíme nový proces měření a zpracování dat DLS, který rozděluje data o čase příchodu fotonů z detektoru na velmi malé bloky, z nichž každý je korelován jako samostatné dílčí měření. Statistické rozdělení řady veličin odvozených z každého korelovaného dílčího měření, vytvořené během procesu měření, se pak používá ke klasifikaci přechodných událostí, jako je ta, která je zobrazena na konci 10 s dílčího měření mezi 8 s a 10 s na obr. 1b, a k jejich analýze odděleně od zbývajících dat ustáleného stavu (0 s až <8 s na obr. 1c). Výsledek se pak samostatně sečte jako dvojice korelogramů přechodného a ustáleného stavu, které se následně redukují, aby se získaly distribuce velikosti částic v přechodném a ustáleném stavu. Zásadní je, že vzhledem k tomu, že jsou analyzována a uváděna všechna shromážděná data (přechodný a ustálený stav): žádná data nejsou odmítnuta nebo skryta před uživatelem a kompletní a nezkreslená reprezentace výsledků jakéhokoli vzorku, ať už polydisperzního nebo jiného, ale bez zvýšených nejistot u ustálených frakcí, které jsou předmětem zájmu v přítomnosti silných přechodných rozptylů. Dále se tento postup ze své podstaty zabývá limitním případem, kdy existuje tolik agregátů, že za primární frakci vzorku je třeba považovat tyto větší složky, tj. agregátů je tolik, že se jejich signál stává ustálenou frakcí27.
Zjistili jsme také, že klasifikace a oddělená redukce tříd přechodného a ustáleného stavu na základě velmi krátkých dílčích měření a způsobem založeným na statistice samotných dat vede ke statisticky relevantní minimalizaci variability v rámci třídy ustáleného stavu během krátkých celkových dob měření, což přímo vede ke zvýšení přesnosti údajů DLS v ustáleném stavu při současném zkrácení celkové doby měření pro dobře chovaný vzorek, a to o řád oproti přístrojům, které jsou v současnosti komerčně dostupné.
Vývoj techniky je popsán ve zbývající části tohoto oddílu za použití měření částic polystyrenového latexu jako modelového systému známých rozměrů a disperze lysozymu jako křehkého vzorku s nízkým rozptylem. V oddíle 3 je popsána řada případových studií demonstrujících výhody této techniky, v oddíle 4 jsou vyvozeny závěry a v oddíle 5 jsou popsány použité metody.
Metody analýzy
Ačkoli je technika stejně použitelná pro křížově korelovaná měření, většina komerčně dostupných přístrojů měří autokorelační funkci g2(|q|;τ) detekované, rozptýlené časové řady fotonů I(t) danou,
kde τ je doba zpoždění a I naměřená intenzita na detektoru v počtu fotonů za sekundu měřená v čase t. Korelační funkce prvního řádu, g1, se získá z g2 pomocí Siegertova vztahu1 a běžně se provádí kumulativní fit20 na g1 tak, že,
kde \(\bar{\Gamma }\,\) je průměrná, charakteristická rychlost rozpadu pro všechny velikostní třídy ve vzorku a \({\mu }_{2}/{\bar{\Gamma }}^{2}\,\)je index polydisperzity 2. řádu (PdI), který popisuje odchylku korelační funkce od jednoduchého exponenciálního rozpadu a poskytuje odhad rozptylu vzorku. Průměrný difuzní koeficient z, Dz, je pak dán vztahem
a průměrný hydrodynamický průměr, ZAve, vypočtený z Dz pomocí Stokesova-Einsteinova modelu pro sférické částice v kapalinách s nízkým Reynoldsovým číslem, rov. 6, kde η je viskozita disperzní látky, kB Boltzmannova konstanta a T teplota disperzní látky v Kelvinech,
Odhad rozdělení velikosti částic s vyšším rozlišením než kumulanty je dán fitováním korelační funkce na součet přes více exponenciál, provedené řadou možných inverzních metod, jako je CONTIN28 nebo nezáporné nejmenší čtverce (NNLS), což jsou dva běžně implementované příklady navržené tak, aby se vyrovnaly s obecně špatnou povahou takového přizpůsobení. Pro polydisperzní případ se rovnice. 4 se pak stává spojitým rozdělením nad D, ze kterého lze vypočítat rozsah poloměrů nebo průměrů přispívajících částic,
Délka dílčího měření a zvýšená přesnost
Časová řada příchodu fotonů je rozdělena na malá dílčí měření, která jsou pak jednotlivě korelována a redukována na vlastnosti vzorku, jak je popsáno v oddíle 2.1 a distribuce těchto odvozených veličin, sestavené v průběhu měření, se pak používají k identifikaci přechodových a ustálených údajů.
Experimentální nejistota veličin odvozených z údajů DLS (ZAve, PdI, početní rychlost atd.) při více měřeních je nepřímo úměrná druhé odmocnině z počtu měření obvyklým způsobem, avšak vztah mezi šumem v korelogramu v rámci každého dílčího měření a délkou dílčího měření je méně zřejmý. Vzpomeňme si na obr. 1a, že vzorkovaný objem; oblast, kterou pokrývá průsečík osvětlovacího laseru a detekční dráhy, přičemž obě mají konečnou šířku; je podstatně menší než celkový objem vzorku v kyvetě, a proto se s prodlužující se dobou integrace zvyšuje pravděpodobnost, že agregát difunduje do detekčního objemu nebo mimo něj, a v této části je třeba prozkoumat, jak se odvozené veličiny ZAve a PdI chovají v závislosti na délce dílčího měření. Cílem je optimalizovat dobu trvání, aby se zachoval nebo zlepšil odstup signálu od šumu, ale v takové délce dílčího měření, která současně umožní, aby výběrový algoritmus zůstal dostatečně citlivý a mohl každé dílčí měření klasifikovat jako ustálené nebo přechodné.
Obrázek 2a ukazuje ZAve a PdI pro sérii měření polystyrenového latexu s hydrodynamickým rozsahem velikosti udávaným výrobcem jako 58-68 nm (Thermo-Scientific, 3060 A), rozptýleného ve 150 mM NaCl vyrobeném s 200 nm filtrované DI vody (18 .2 MΩ).
Všimněte si snížení směrodatné odchylky nad naměřenou ZAve od 1.1 nm na 0,32 nm mezi případy 1 × 10 s a 10 × 1 s, zvýrazněné modře, což naznačuje, že přesnost měření DLS se zvyšuje pouhým použitím průměru přes kratší dílčí měření, ale při stejné celkové době integrace. Podobné chování lze pozorovat i při měření částic různých velikostí (viz Doplňkové informace).
Mechanismus tohoto zlepšení lze vysvětlit úvahou o tvaru korelační funkce při detekci přechodného rozptylu. Korelační funkce má přibližně podobu exponenciálního rozpadu s malými poruchami způsobenými několika zdroji šumu, včetně šumu po pulzování, šumu po výstřelu, normalizačních chyb a samozřejmě detekce různě velkých rozptylujících částic21. Záznam korelovaného rozptylu světla v krátkých časových intervalech může zvýšit amplitudu těchto perturbací, ale zprůměrování přes několik dílčích měření korelační funkce, z nichž každé obsahuje náhodný šum, znamená, že konečný výsledek obsahuje méně šumu než korelační funkce zaznamenaná se stejnou dobou trvání, ale zpracovaná jako jedna souvislá stopa. To je nesmírně důležitý výsledek, protože naznačuje, že nic jiného než pečlivě odvozená délka dílčího měření nepřináší trojnásobné zlepšení přesnosti této primární modality měření v nanorozměrech.
Dále, jak ukážeme v následující části, kratší délka dílčího měření také umožňuje klasifikaci dat v ustáleném a přechodném stavu, což, jak ukážeme, řeší primární kritiku DLS: úměrnost intenzity rozptylu šesté mocnině poloměru částic, což znamená, že data z primární složky částic mohou být zkreslená nebo dokonce maskovaná přítomností vzácných velkých částic. Z praktického hlediska to znamená nutnost pečlivé přípravy vzorku, aby se zabránilo významným nejistotám ve výsledku měření způsobeným většími, často nežádoucími frakcemi, například z nečistot z filtrů, přechodných agregátů nebo špatně vyčištěného laboratorního nádobí.
Klasifikace přechodných a ustálených dat
Jak již bylo uvedeno, mnoho komerčních přístrojů DLS používá dobu dílčího měření v řádu 10 sekund, přičemž několik těchto měření je kombinováno podle určité formy algoritmu pro odstranění prachu, což však znamená, že z měření mohou být vynechány velké úseky spolehlivých dat, pokud dílčí měření obsahuje krátký výbuch rozptylu z přechodné události. To naznačuje, že klasifikace ustálených a přechodných dat by mohla být dosažena také použitím kratších korelačních časů, což by také mohlo zpřesnit porovnání mezi dílčími měřeními, protože účinky přechodného rozptylu by nebyly zprůměrovány. Výsledky řady těchto dílčích měření by se pak mohly kombinovat analýzou průměru autokorelačních funkcí před provedením analýzy velikosti, jak je uvedeno v oddíle 2.2.
Všechna zaznamenaná dílčí měření se pak klasifikují do souborů, které popisují ustálený a přechodný stav systému, nebo jinými slovy těch, které jsou reprezentativním vzorkem základního, ustáleného stavu, a těch, které jsou spojeny s výbuchem falešného rozptylu, jak je znázorněno na obr. 2. 1c.
Identifikace přechodných dílčích měření by měla být odvozena z charakteristik zkoumaného vzorku, aby se předešlo potřebě libovolně definovaných prahových hodnot, které mohou být specifické pro daný vzorek. Tím, že se každé z kolerovaných dílčích měření redukuje jednotlivě, je k dispozici řada možných parametrů, které lze použít jako základ pro porovnání souborů dílčích měření, a zdá se logické založit toto porovnání na analýze velikosti naměřených autokorelačních funkcí.
Analýza kumulantů předpokládá, že vzorek je monodisperzní, což znamená, že ZAve i PdI budou poskytovat spojité a citlivé míry velikosti částic, které můžeme použít k porovnání dílčích měření. PdI popisuje odchylku korelační funkce od dokonalého exponenciálního rozpadu. Jedná se o přímé měření poruchy korelační funkce a je obzvláště citlivý na šum v základní linii korelační funkce, který je typickým důsledkem přechodného rozptylu, a jak ukážeme, je proto ideálním parametrem, který lze použít k porovnání korelačních funkcí z mnoha dílčích měření.
Příklad takového vztahu je uveden na obr. 2b, kde vzorky obsahují buď agregovaný materiál, nebo jsou dopovány směsí latexových kuliček (viz doplňkové informace). Zde vzorky obsahující stopové množství agregátu vykazují pozitivní korelaci mezi naměřenou velikostí a PdI, přičemž některé datové body se shlukují při shodné velikosti a PdI, zatímco vzorky bez příměsi vykazují dobře definované shluky dat. Přechodná dílčí měření lze tedy identifikovat jako ta, která se vyskytují při neočekávané hodnotě PdI. V tomto případě neočekávaná hodnota znamená, že PdI daného dílčího měření není reprezentativní pro dílčí měření v ustáleném stavu, a je tedy statisticky odlehlá. Pro identifikaci statistických odlehlých hodnot existuje mnoho metod, přičemž každá z nich má silné a slabé stránky v závislosti na povaze rozdělení, které je předmětem zájmu, a velikosti vzorku.
Obrázek 3a ukazuje rozdělení PdI pro rozptyly obsahující libovolně malé množství nepravého materiálu, přičemž rozdělení PdI se pro různé vzorky liší středem a šířkou. Vzhledem k tomu, že PdI je z definice omezeno na interval a obecně bude vychýleno směrem k větším hodnotám, nejsou aritmetické deskriptory rozdělení, jako je průměr a směrodatná odchylka, vhodné.
Pokud je počet diskrétních dílčích měření dostatečně velký, lze k odvození šířky rozdělení použít histogram dat (viz Gaussovo přizpůsobení na obr. 1). 3a), avšak pokud je velikost vzorku menší, mohou být vhodnější numerické metody testování hypotéz, jako jsou metody popsané Dixonem29 a Rosnerem30, obr. 3b.
Optimalizace velikosti vzorku
Účinnost jakékoli metody identifikace odlehlých hodnot bude spojena jak s celkovým počtem datových bodů, tak s počtem odlehlých hodnot v rámci rozdělení. Například dobře připravený, monodisperzní a stabilní vzorek zobrazený na obr. 2a ukazuje, že spolehlivou velikost lze zaznamenat již při 10 zprůměrovaných dílčích měřeních trvajících 1 s, zatímco vzorek, který vytváří více zašuměné korelační funkce, ať už v důsledku nízkého rozptylu, značné polydisperzity nebo tím, že obsahuje falešné rozptylovače, bude vyžadovat větší počet dílčích měření, aby bylo možné s větší jistotou identifikovat odlehlé hodnoty. To opět motivuje přístup založený na vzorku, kdy počet dílčích měření reaguje na kvalitu dat získaných ze vzorku.
Možnými přístupy by mohlo být sledování rozptylu výsledků jednotlivých dílčích měření nebo provádění testů normality těchto hodnot, což by však obvykle vedlo k získání většího počtu datových bodů. Alternativním přístupem je průběžné sledování rádoby konečného výsledku v průběhu měření, kdy je statistika měření vhodně dobře definována a poruchy korelační funkce jsou vhodně dobře zprůměrovány z konečného výsledku, uváděná velikost by se měla stát konstantní v rámci určitého stupně přirozené variability. Opět lze použít testy hypotéz k porovnání budoucího výsledku měření po shromáždění dalších dílčích měření, a pokud se tyto hodnoty shodují, pak je vzorek dostatečně charakterizován a měření lze odpovídajícím způsobem ukončit. Další jistotu lze této metodě dodat kontrolou zvláštních příčin ve výsledcích v průběhu měření, jako je trend a oscilace.
Příklad tohoto přístupu je uveden na obr. 4a pro vzorek lysozymu, u něhož bylo zpočátku zaznamenáno chybné podhodnocení velikosti částic, které se však stabilizovalo při sběru dalších dílčích měření. Všimněte si také, že identifikace odlehlých hodnot se v průběhu měření opakuje s přibývajícími daty, což znamená, že přechodná událost bude jako taková identifikována bez ohledu na to, kdy byla v procesu měření zaznamenána. To je zlepšení oproti jiným metodám, které mohou porovnávat údaje na základě počátečního měření, které mohlo, ale nemuselo být reprezentativní pro skutečný vzorek.
To vede ke zlepšení účinnosti sběru dat bez zásahu uživatele a měření stabilních vzorků, které vyžadují shromáždění menšího množství dat, lze proto dokončit v kratším čase, zatímco u složitých vzorků, které vykazují určitou úroveň nejistoty, se automaticky shromáždí větší množství dat, aby se získal výsledek se srovnatelnou spolehlivostí.
Optimalizace vzorkování
Jak je popsáno v části 2.2, existuje několik zdrojů šumu v korelační funkci a amplituda tohoto šumu může být časově závislá. Ačkoli oddíl 2.2 uvádí důvody pro použití krátkých korelačních časů, existují případy, kdy to může být na škodu.
U vzorku, který vykazuje nízké rozptylové vlastnosti, a to buď díky malému průřezu rozptylu, nízké koncentraci vzorku, malému rozdílu indexu lomu oproti okolnímu disperznímu činidlu nebo jejich kombinaci, může být detekováno méně fotonů, které zaplní časové biny korelátoru, a to se obvykle projeví jako šum v základní linii korelační funkce při delších dobách zpoždění korelátoru τ.
Komerční přístroje pro rozptyl světla obvykle v rámci postupu nastavení měření mění řadu přístrojových nastavení, jako je optimalizace polohy měření v kyvetě, aby se minimalizovala délka optické dráhy vstupujícího laseru a dráhy detekce vycházejícího rozptylu, aby se zabránilo vícenásobnému rozptylu od koncentrovaných vzorků v blízkosti středu kyvety nebo naopak, aby se zabránilo statickému rozptylu od buněčné stěny při nízkých koncentracích vzorku, a optimalizace rychlosti počítání detekovaných fotonů, aby zůstala v lineárním rozsahu detektoru. Tyto přístrojové optimalizace jsou obecně navrženy tak, aby umožnily uživatelům, kteří nejsou obeznámeni s interpretací dat rozptylu světla, získat co nejspolehlivější výsledky v širokém rozsahu koncentrací a velikostí vzorků, ale taková optimalizace nebyla dosud aplikována na korelační čas. Příklad je uveden na obr. 4b, kde jsou zobrazeny distribuce velikosti částic pro vzorek lysozymu o koncentraci 1,0 mg/ml měřený při detekčním úhlu 90°. Uvedená PSD pro krátký korelační čas ukazuje kromě hlavního píku částic také zjevnou velkou velikostní složku). Pokud by se jednalo o skutečný vliv vzorku, měření při menším detekčním úhlu by ukázalo stejně velkou složku. Měření přímého rozptylu pro stejný vzorek byla monomodální (viz SI) a nepřítomnost píku v v naměřených datech při jiných detekčních úhlech (doplňkové informace) naznačuje, že mohl být způsoben kombinací vzorku s nízkým rozptylem a statickým rozptylem, případně z jednorázové kyvety na vzorek. Zatímco intenzita dopadajícího světla může být optimalizována, některé vzorky, jako jsou proteiny s nízkou koncentrací, mohou rozptýlit suboptimální počet fotonů i bez útlumu osvětlujícího laseru, což znamená, že standardní provozní postupy pro komerční systém dynamického rozptylu světla nemusí být optimální a mohou být použity delší korelační časy24 , přičemž k určení těchto nastavení je nutný rozsáhlý vývoj metody. Proto lze zavést další úpravu měření na základě vzorku, kdy přístroj použije nejkratší možnou délku dílčího měření, která poskytne optimální počet měřených fotonů (viz SI), a to je popsáno v optimalizovaném schématu měření v následujícím oddíle.
Optimální schéma měření
Optimální schéma měření se skládá z následujícího procesu:
- (1)
Optimalizace polohy měření a intenzity dopadajícího světla.
- (2)
Je-li zjištěná úroveň rozptylu nízká i při nejnižším útlumu laseru, optimalizuje se délka dílčího měření, aby se snížil šum základní linie.
- (3)
Dílčí měření se shromáždí a analyzují pomocí kumulativní analýzy.
- (4)
Srovnají se hodnoty PdI z těchto analýz a identifikují se odlehlé hodnoty.
- (5)
Korelační funkce dílčích měření v ustáleném stavu se zprůměrují a výsledek se analyzuje, aby se oznámila ZAve.
- (6)
Další dílčí měření se zaznamenají a analyzují výše uvedeným způsobem a zaznamená se nová konečná odpověď ZAve.
- (7)
Tento postup se opakuje, dokud se pomocí testu hypotézy nezjistí, že předchozí dva výsledky ZAve z kroků (5) a (6) souhlasí.
- (8)
Všechna přechodná dílčí měření se rovněž zprůměrují a analyzují, aby se získaly informace o přechodné složce.
Vzhledem k tomu, že výše uvedený algoritmus reaguje na vlastnosti vzorku, přičemž délka dílčích měření, množství shromážděných dat a to, která dílčí měření se z výsledku ustáleného stavu vynechají, závisí na vzorku a kvalitě dat, nazývá se metoda adaptivní korelace, přičemž se inspiruje použitím adaptivní optiky v astronomii31 , kde se ke korekci pozorovaných aberací používá zpětná vazba dat.
.
Leave a Reply