Improved Dynamic Light Scattering using an adaptive and statistically driven time resolved treatment of correlation data
W tej pracy opisujemy i oceniamy nowy pomiar DLS i proces obróbki danych, który tnie dane o czasie przybycia fotonów z detektora na bardzo małe bloki, z których każdy jest skorelowany jako oddzielny pod-pomiar. Rozkład statystyczny szeregu wielkości pochodzących z każdego skorelowanego pomiaru cząstkowego, zbudowany podczas procesu pomiarowego, jest następnie wykorzystywany do klasyfikacji zdarzeń przejściowych, takich jak to pokazane na końcu 10-sekundowego pomiaru cząstkowego, pomiędzy 8 s a 10 s na Rys. 1b, i do ich analizy oddzielnie od pozostałych danych stanu ustalonego (0 s do <8 s na Rys. 1c). Wyniki są następnie oddzielnie sumowane jako para korelogramów w stanie nieustalonym i ustalonym, które są następnie redukowane w celu uzyskania rozkładów wielkości cząstek w stanie nieustalonym i ustalonym. Co istotne, ponieważ wszystkie zebrane dane (w stanie nieustalonym i ustalonym) są analizowane i raportowane: żadne dane nie są odrzucane lub ukrywane przed użytkownikiem, a kompletna i nieskośna reprezentacja wyników każdej próbki, polidyspersyjnej lub innej, ale bez zwiększonej niepewności frakcji w stanie ustalonym, która jest przedmiotem zainteresowania w obecności silnych rozpraszaczy nieustalonych. Ponadto, proces ten zajmuje się wewnętrznie przypadkiem granicznym, w którym istnieje tak wiele agregatów, że podstawowa frakcja próbki powinna być uważana za te większe składniki, tj. agregaty stają się tak liczne, że ich sygnał staje się frakcją stanu ustalonego27.
Odkryliśmy również, że klasyfikacja i oddzielna redukcja klas stanu nieustalonego i ustalonego w oparciu o bardzo krótkie podbiegi pomiarowe i w sposób oparty na statystyce samych danych, prowadzi do statystycznie istotnej minimalizacji zmienności w obrębie klasy stanu ustalonego w krótkich całkowitych czasach pomiaru, co prowadzi bezpośrednio do zwiększenia precyzji danych DLS stanu ustalonego, przy jednoczesnym skróceniu całkowitego czasu pomiaru dla dobrze zachowującej się próbki, o rząd wielkości w stosunku do tych, które obecnie występują w dostępnych komercyjnie przyrządach.
Rozwój techniki jest opisany w dalszej części tego rozdziału z wykorzystaniem pomiarów cząstek lateksu polistyrenowego jako systemu modelowego o znanych rozmiarach i dyspersji lizozymu jako delikatnej, słabo rozpraszającej próbki. W rozdziale 3 opisano kilka studiów przypadków demonstrujących korzyści płynące z zastosowania tej techniki, a w rozdziale 4 wyciągnięto wnioski i opisano zastosowane metody w rozdziale 5.
Metody analizy
Pomimo, że technikę tę można równie dobrze zastosować do pomiarów korelacji krzyżowej, większość dostępnych na rynku przyrządów mierzy funkcję autokorelacji g2(|q|;τ) wykrytego szeregu czasowego rozproszonych fotonów I(t) daną przez,
gdzie τ jest czasem opóźnienia, a I zmierzonym natężeniem w detektorze w fotonach na sekundę mierzonym w czasie t. Funkcję korelacji pierwszego rzędu, g1, uzyskuje się z g2 poprzez zależność Siegerta1 i powszechnie stosuje się dopasowanie kumulacyjne20 do g1 w taki sposób, że,
gdzie, \(\) jest średnią, charakterystyczną szybkością rozpadu dla wszystkich klas wielkości w próbce i \(\mu }_{2}/{ \bar{Gamma }}^{2},\jest wskaźnikiem polidyspersyjności drugiego rzędu (PdI), który opisuje odejście funkcji korelacji od pojedynczego rozkładu wykładniczego, zapewniając oszacowanie wariancji próbki. Średni z-średni współczynnik dyfuzji, Dz, jest następnie dany zależnością
i średnia średnica hydrodynamiczna, ZAve, obliczoną na podstawie Dz, przy użyciu modelu Stokesa-Einsteina dla cząstek sferycznych w cieczach o niskiej liczbie Reynoldsa, Eq. 6, gdzie η oznacza lepkość dyspergatora, kB – stałą Boltzmanna, a T – temperaturę dyspergatora w Kelwinach,
Oszacowanie rozkładu wielkości cząstek z rozdzielczością większą niż kumulanty jest możliwe przez dopasowanie funkcji korelacji do sumy wielu wykładników, Oszacowanie rozkładu wielkości cząstek z większą rozdzielczością niż kumulanty uzyskuje się poprzez dopasowanie funkcji korelacji do sumy wielu wykładników, co można osiągnąć za pomocą szeregu metod inwersji, takich jak CONTIN28 lub nieujemne najmniejsze kwadraty (NNLS), które są dwoma powszechnie stosowanymi przykładami zaprojektowanymi w celu radzenia sobie z ogólnie trudną naturą takiego dopasowania. Dla przypadku polidyspersyjnego, równanie 4 staje się ciągłym rozkładem na D. 4 staje się ciągłym rozkładem na D, z którego można obliczyć zakres promieni lub średnic cząstek uczestniczących,
Długość pod-pomiarów i zwiększona precyzja
Seria czasu przybycia fotonów jest podzielona na małe pod-pomiary, które są następnie indywidualnie skorelowane i zredukowane do właściwości próbki, jak opisano w sekcji 2.1 i rozkłady tych pochodnych wielkości, budowane w miarę postępu pomiaru, są następnie wykorzystywane do identyfikacji danych w stanie przejściowym i ustalonym.
Doświadczalna niepewność w wielorakich pomiarach wielkości pochodnych od danych DLS (ZAve, PdI, count-rate, itp.) jest odwrotnie proporcjonalna do pierwiastka kwadratowego z liczby pomiarów w zwykły sposób, jednakże związek pomiędzy szumem w korelogramie w obrębie każdego pomiaru cząstkowego a długością pomiaru cząstkowego jest mniej oczywisty. Przywołując rys. 1a, próbkowana objętość – region wyznaczony przez przecięcie ścieżek lasera oświetlającego i detekcji, przy czym obie te ścieżki mają skończoną szerokość – jest znacznie mniejsza niż całkowita objętość próbki w kuwecie, dlatego wraz ze wzrostem czasu integracji wzrasta prawdopodobieństwo, że agregat dyfunduje do lub z objętości detekcji, a w tej sekcji należy zbadać, jak wielkości pochodne ZAve i PdI zachowują się w funkcji czasu trwania pomiaru cząstkowego. Celem jest optymalizacja czasu trwania, aby utrzymać lub poprawić stosunek sygnału do szumu, ale przy długości pomiaru cząstkowego, która jednocześnie pozwala algorytmowi selekcji pozostać wystarczająco czułym, aby sklasyfikować każdy pomiar cząstkowy jako stan ustalony lub przejściowy.
Rycina 2a przedstawia ZAve i PdI dla serii pomiarów lateksu polistyrenowego o hydrodynamicznym zakresie wielkości określonym przez producenta jako 58-68 nm (Thermo-Scientific, 3060 A), rozproszonego w 150 mM NaCl sporządzonym z 200 nm filtrowanej wody DI (18.2 MΩ).
Zauważ zmniejszenie odchylenia standardowego nad zmierzonym ZAve z 1.1 nm do 0,32 nm między przypadkami 1 × 10 s i 10 × 1 s, zaznaczone na niebiesko, wskazujące, że precyzja pomiaru DLS jest zwiększona po prostu przy użyciu średniej z krótszych pomiarów cząstkowych, ale dla tego samego całkowitego czasu integracji. Podobne zachowanie można zaobserwować w pomiarach cząstek o różnych rozmiarach (patrz informacje uzupełniające).
Mechanizm stojący za tą poprawą może być wyjaśniony poprzez rozważenie postaci funkcji korelacji, gdy wykrywany jest przejściowy rozpraszacz. Funkcja korelacji jest w przybliżeniu rozkładem wykładniczym, z niewielkimi perturbacjami wynikającymi z kilku źródeł szumu, w tym po pulsacji, szumu strzału, błędów normalizacji i oczywiście detekcji różnej wielkości cząstek rozpraszających21. Rejestrowanie skorelowanego rozpraszania światła w krótkich odstępach czasu może zwiększyć amplitudę tych perturbacji, ale uśrednienie kilku funkcji korelacji pod-pomiarowej, z których każda zawiera losowy szum, oznacza, że wynik końcowy zawiera mniej szumu niż funkcja korelacji zarejestrowana w tym samym czasie, ale traktowana jako jeden ciągły ślad. Jest to niezwykle ważny wynik, ponieważ wskazuje, że nic więcej niż starannie uzyskana długość pod-pomiaru daje 3-krotną poprawę precyzji dla tej podstawowej modalności pomiarowej w nanoskali. Jak stwierdzono wcześniej, wiele komercyjnych przyrządów DLS wykorzystuje czas pomiaru cząstkowego rzędu 10 sekund, przy czym kilka z tych pomiarów jest łączonych zgodnie z jakąś formą algorytmu odrzucania pyłu, jednakże oznacza to, że duże sekcje wiarygodnych danych mogą być pominięte w pomiarze, jeżeli pomiar cząstkowy zawiera krótki wybuch rozpraszania ze zdarzenia przejściowego. Wskazuje to, że klasyfikacja danych w stanie ustalonym i nieustalonym może być również osiągnięta poprzez zastosowanie krótszych czasów korelacji, co może również sprawić, że porównanie pomiędzy pomiarami cząstkowymi będzie dokładniejsze, ponieważ efekty rozpraszania nieustalonego nie zostaną uśrednione. Wyniki serii tych pomiarów cząstkowych mogłyby być następnie połączone poprzez analizę średniej funkcji autokorelacji przed wykonaniem analizy wielkości, jak omówiono w punkcie 2.2. Wszystkie zarejestrowane pomiary cząstkowe są następnie klasyfikowane do zbiorów, które opisują stan ustalony i przejściowy systemu lub innymi słowy te, które są reprezentatywne dla bazowej, ustalonej próbki stanu i te, które są związane z wybuchem rozproszenia pozornego, jak pokazano na Rys. 1c. 1c. Identyfikacja przejściowych pomiarów cząstkowych powinna być wyprowadzona z charakterystyki badanej próbki, aby uniknąć konieczności stosowania arbitralnie zdefiniowanych progów, które mogą być specyficzne dla próbki. Poprzez redukcję każdego z zestawionych pomiarów cząstkowych indywidualnie, dostępna jest pewna liczba możliwych parametrów, które mogą być wykorzystane jako podstawa do porównania zestawów pomiarów cząstkowych i wydaje się logiczne, aby oprzeć to porównanie na analizie wielkości mierzonych funkcji autokorelacji. Analiza kumulantów zakłada, że próbka jest monodyspersyjna, co oznacza, że zarówno ZAve jak i PdI dadzą ciągłe i czułe miary wielkości cząstek, które możemy wykorzystać do porównania pomiarów cząstkowych. PdI opisuje odchylenie funkcji korelacji od idealnego rozkładu wykładniczego. Jest to bezpośredni pomiar perturbacji funkcji korelacji i jest szczególnie wrażliwy na szum w linii podstawowej funkcji korelacji, który jest typową konsekwencją przejściowego rozpraszania i, jak pokażemy, jest zatem idealnym parametrem do wykorzystania do porównania funkcji korelacji z wielu pomiarów cząstkowych. Przykład takiej zależności pokazano na Rys. 2b, gdzie próbki zawierają albo materiał zagregowany albo są domieszkowane mieszaniną kul lateksowych (patrz informacje uzupełniające). Tutaj, próbki zawierające śladowe ilości agregatu wykazują pozytywną korelację pomiędzy zmierzoną wielkością a PdI, z niektórymi punktami danych skupionymi przy stałej wielkości i PdI, podczas gdy próbki bez domieszki wykazują dobrze zdefiniowane skupiska danych. Przejściowe pomiary cząstkowe mogą być zatem identyfikowane jako te, które występują przy nieoczekiwanej wartości PdI. W tym przypadku, nieoczekiwane oznacza, że PdI danego pomiaru cząstkowego nie jest reprezentatywne dla pomiarów cząstkowych w stanie ustalonym i dlatego jest statystycznie odstające. Istnieje wiele metod identyfikacji statystycznych wartości odstających, a każda z nich ma mocne i słabe strony w zależności od charakteru rozkładu zainteresowania i wielkości próbki. Rysunek 3a przedstawia rozkłady PdI dla dyspersji zawierających arbitralnie małe ilości materiału zakłócającego, z rozkładami PdI różniącymi się pod względem środka i szerokości dla różnych próbek. Biorąc pod uwagę, że PdI jest ograniczony, z definicji, do przedziału i będzie ogólnie skośny w kierunku większych wartości, arytmetyczne deskryptory rozkładu, takie jak średnia i odchylenie standardowe, nie są właściwe. Gdy liczba dyskretnych pomiarów cząstkowych jest wystarczająco duża, histogram danych może być użyty do uzyskania szerokości rozkładu (patrz dopasowanie gaussowskie na Rys. 3a). 3a), jednak gdy wielkość próbki jest mniejsza, bardziej odpowiednie mogą być numeryczne metody testowania hipotez, takie jak te opisane przez Dixona29 i Rosnera30, Rys. 3b. Wydajność każdej metody identyfikacji wartości odstających będzie powiązana zarówno z całkowitą liczbą punktów danych, jak i liczbą wartości odstających w rozkładzie. Na przykład, dobrze przygotowana, monodyspersyjna i stabilna próbka pokazana na Rys. 2a pokazuje, że wiarygodna wielkość może być podana dla zaledwie 10 uśrednionych pomiarów cząstkowych o czasie trwania 1 s, podczas gdy próbka, która wytwarza bardziej zaszumione funkcje korelacji, albo z powodu niskiego rozpraszania, znacznej polidyspersyjności lub zawierając niepożądane rozpraszacze, będzie wymagała większej liczby pomiarów cząstkowych, aby dać większą pewność identyfikacji wartości odstających. Ponownie, motywuje to podejście oparte na próbce, w którym liczba pomiarów cząstkowych odpowiada jakości danych zebranych z próbki. Możliwe podejścia mogą polegać na monitorowaniu rozprzestrzeniania się poszczególnych wyników pomiarów cząstkowych lub przeprowadzeniu testów normalności na tych wartościach, jednak to zazwyczaj spowodowałoby, że pomiar wymagałby pozyskania większej liczby punktów danych. Alternatywnym podejściem jest ciągłe monitorowanie niedoszłego wyniku końcowego w miarę postępu pomiaru, gdy statystyka pomiaru jest odpowiednio dobrze zdefiniowana, a perturbacje w funkcji korelacji są odpowiednio dobrze uśrednione w wyniku końcowym, podawana wielkość powinna stać się stała w pewnym stopniu naturalnej zmienności. Ponownie, testy hipotez mogą być użyte do porównania niedoszłych wyników pomiaru po zebraniu dodatkowych pomiarów cząstkowych, i jeśli te wartości się zgadzają, wtedy próbka jest odpowiednio scharakteryzowana, a pomiar może być odpowiednio zakończony. Dalsze zaufanie może być dodane do tej metody przez sprawdzenie specjalnych przyczyn w wynikach w trakcie pomiaru, takich jak tendencja i oscylacja. Przykład tego podejścia jest pokazany na Rys. 4a dla próbki lizozymu, z początkowo błędnym niedoszacowaniem wielkości cząstek zgłoszonych, ale które stabilizuje się z gromadzeniem kolejnych pomiarów cząstkowych. Należy również zauważyć, że identyfikacja wartości odstających jest powtarzana podczas pomiaru w miarę gromadzenia kolejnych danych, co oznacza, że zdarzenie przejściowe zostanie zidentyfikowane jako takie, niezależnie od tego, kiedy w procesie pomiarowym zostało zarejestrowane. Jest to udoskonalenie w stosunku do innych metod, które mogą porównywać dane w oparciu o początkowy pomiar, który mógł być lub nie być reprezentatywny dla prawdziwej próbki. Wynika z tego zwiększona wydajność zbierania danych bez interwencji użytkownika, a pomiary stabilnych próbek, które wymagają mniejszej ilości danych do zebrania, mogą być zatem zakończone w krótszym czasie, podczas gdy złożone próbki, które wykazują pewien poziom niepewności, będą automatycznie miały większą ilość danych zebranych w celu uzyskania wyniku z porównywalną pewnością. Jak opisano w sekcji 2.2, istnieje kilka źródeł szumu w funkcji korelacji, a amplituda tego szumu może być zależna od czasu. Chociaż w sekcji 2.2 przedstawiono argumenty za stosowaniem krótkich czasów korelacji, istnieją przypadki, w których może to być szkodliwe. W przypadku próbki, która wykazuje niskie właściwości rozpraszania, poprzez mały przekrój rozpraszania, niskie stężenie próbki, małą różnicę współczynnika załamania światła w stosunku do otaczającego dyspergatora lub kombinację tych czynników, może być mniej wykrytych fotonów do wypełnienia przedziałów czasowych korelatora i będzie to zwykle przejawiało się jako szum w linii podstawowej funkcji korelacji przy dłuższych czasach opóźnienia korelatora, τ. Komercyjne przyrządy do rozpraszania światła zazwyczaj zmieniają szereg ustawień instrumentalnych w ramach procedury ustawiania pomiaru, takich jak optymalizacja pozycji pomiarowej w kuwecie w celu zminimalizowania długości ścieżki optycznej wchodzącego lasera i wychodzącej ścieżki detekcji rozpraszania, aby uniknąć wielokrotnego rozpraszania ze skoncentrowanych próbek w pobliżu środka kuwety lub odwrotnie, aby uniknąć statycznego rozpraszania ze ściany komórkowej przy niskich stężeniach próbki i optymalizacja prędkości zliczania wykrytych fotonów, aby pozostać w zakresie liniowym detektora. Te instrumentalne optymalizacje są ogólnie zaprojektowane, aby umożliwić użytkownikom, którzy nie są zaznajomieni z interpretacją danych rozpraszania światła, uzyskanie najbardziej wiarygodnych wyników w szerokim zakresie stężeń i rozmiarów próbki, ale taka optymalizacja nie była wcześniej stosowana do czasu korelacji. Przykład tego pokazano na Rys. 4b, gdzie przedstawiono rozkłady wielkości cząstek dla próbki lizozymu o stężeniu 1,0 mg/mL mierzonej pod kątem detekcji 90°. Podany PSD dla krótkiego czasu korelacji pokazuje widoczny składnik o dużej wielkości oprócz głównego piku cząstki). Gdyby był to rzeczywisty efekt próbki, pomiary przy mniejszym kącie detekcji wykazałyby ten sam duży składnik. Pomiary rozpraszania w przód dla tej samej próbki były monomodalne (patrz SI), a brak piku w zmierzonych danych przy innych kątach detekcji (informacje uzupełniające) wskazuje, że mógł on być spowodowany połączeniem próbki o niskim rozproszeniu i rozpraszania statycznego, być może z jednorazowej kuwety na próbki. Podczas gdy intensywność padającego światła może być zoptymalizowana, niektóre próbki, takie jak białka o niskim stężeniu, mogą rozpraszać mniejszą niż optymalna liczbę fotonów, nawet bez tłumienia lasera oświetlającego, co oznacza, że standardowe procesy operacyjne dla komercyjnego systemu dynamicznego rozpraszania światła mogą nie być optymalne i mogą być stosowane dłuższe czasy korelacji24 , przy czym do określenia tych ustawień wymagane jest szeroko zakrojone opracowanie metody. Można zatem wprowadzić dalsze dostosowanie pomiaru w oparciu o próbkę, w którym przyrząd stosuje najkrótszą możliwą długość pomiaru cząstkowego, która da optymalną liczbę fotonów do zmierzenia (patrz SI) i jest to opisane w zoptymalizowanym schemacie pomiaru w następnej sekcji. Na optymalny schemat pomiaru składa się następujący proces: Optymalizacja pozycji pomiarowej i natężenia światła padającego. Jeśli wykryty poziom rozpraszania jest niski nawet przy najniższym tłumieniu lasera, optymalizuje się długość pomiaru cząstkowego w celu zmniejszenia szumu linii podstawowej. Pomiary cząstkowe są zbierane i analizowane przy użyciu analizy kumulantów. Wartości PdI z tych analiz są porównywane i identyfikowane są wartości odstające. Funkcje korelacji pomiarów cząstkowych w stanie ustalonym są uśredniane, a wynik analizowany w celu podania wartości ZAve. Więcej pomiarów cząstkowych jest rejestrowanych i analizowanych jak wyżej, a nowa ostateczna odpowiedź ZAve jest rejestrowana. Proces ten powtarza się do momentu, gdy okaże się, że poprzednie dwa wyniki ZAve z kroków (5) i (6) zgadzają się przy użyciu testu hipotezy. Wszystkie przejściowe pomiary cząstkowe są również uśredniane i analizowane w celu dostarczenia informacji o składniku przejściowym. Biorąc pod uwagę odpowiedź powyższego algorytmu na charakterystykę próbki, gdzie długość pomiaru cząstkowego, ilość zebranych danych i które pomiary cząstkowe pominąć w wyniku stanu ustalonego zależą od próbki i jakości danych, metodę nazwano Korelacją Adaptacyjną, czerpiąc inspirację z zastosowania Optyki Adaptacyjnej w astronomii31, gdzie sprzężenie zwrotne danych jest wykorzystywane do korygowania zaobserwowanych aberracji.Klasyfikacja danych przejściowych i danych stanu ustalonego
Optymalizacja wielkości próbki
Optymalizacja próbkowania
Optymalny schemat pomiaru
Leave a Reply