Verbesserte dynamische Lichtstreuung unter Verwendung einer adaptiven und statistisch gesteuerten zeitaufgelösten Behandlung von Korrelationsdaten

In dieser Arbeit beschreiben und bewerten wir einen neuen DLS-Mess- und Datenbehandlungsprozess, der die Photonenankunftszeitdaten vom Detektor in sehr kleine Blöcke zerlegt, von denen jeder als separate Teilmessung korreliert wird. Die statistische Verteilung einer Reihe von Größen, die aus jeder korrelierten Teilmessung abgeleitet und während des Messvorgangs aufgebaut wird, wird dann verwendet, um transiente Ereignisse, wie das am Ende der 10-s-Teilmessung gezeigte, zwischen 8 s und 10 s in Abb. 1b zu klassifizieren und sie getrennt von den übrigen stationären Daten (0 s bis <8 s in Abb. 1c) zu analysieren. Das Ergebnis wird dann separat als Korrelogramm-Paar für den instationären und den stationären Zustand summiert, die dann reduziert werden, um die instationären und stationären Partikelgrößenverteilungen zu erhalten. Entscheidend ist, dass alle gesammelten Daten (instationär und stationär) analysiert und berichtet werden: Es werden keine Daten zurückgewiesen oder vor dem Benutzer verborgen, und es ergibt sich eine vollständige und unverzerrte Darstellung aller Probenergebnisse, ob polydispers oder nicht, jedoch ohne die erhöhten Unsicherheiten in den stationären Anteilen, die bei Vorhandensein von starken instationären Streuern von Interesse sind. Darüber hinaus befasst sich dieses Verfahren mit dem Grenzfall, in dem so viele Aggregate vorhanden sind, dass die primäre Fraktion der Probe als diese größeren Komponenten betrachtet werden sollte, d. h. die Aggregate werden so zahlreich, dass ihr Signal zur stationären Fraktion wird27.

Wir stellen außerdem fest, dass die Klassifizierung und getrennte Reduktion der instationären und stationären Klassen auf der Grundlage sehr kurzer Messunterläufe und auf eine Weise, die auf der Statistik der Daten selbst basiert, zu einer statistisch relevanten Minimierung der Variabilität innerhalb der stationären Klasse über kurze Gesamtmesszeiten führt, was direkt zu einer Erhöhung der Präzision der stationären DLS-Daten führt, während gleichzeitig die Gesamtmesszeit für eine sich gut verhaltende Probe um eine Größenordnung im Vergleich zu den derzeit im Handel erhältlichen Instrumenten reduziert wird.

Im weiteren Verlauf dieses Abschnitts wird die Entwicklung der Technik anhand von Messungen an Polystyrol-Latexpartikeln als Modellsystem bekannter Größe und Dispersionen von Lysozym als fragile, wenig streuende Probe beschrieben. Eine Reihe von Fallstudien, die die Vorteile der Technik demonstrieren, werden in Abschnitt 3 beschrieben; Schlussfolgerungen werden in Abschnitt 4 gezogen und die verwendeten Methoden in Abschnitt 5 beschrieben.

Analysemethoden

Während die Technik auch auf kreuzkorrelierte Messungen anwendbar ist, messen die meisten handelsüblichen Instrumente die Autokorrelationsfunktion g2(|q|;τ) der detektierten, gestreuten Photonenzeitreihe I(t), die durch,

$${g}^{2}(|{\boldsymbol{q}}|;\tau )=\frac{\langle I(t)I(t+\tau )\rangle }{\langle I(t){\rangle }^{2}}$$
(3)

wobei τ die Verzögerungszeit und I die gemessene Intensität am Detektor in Photonenzählungen pro Sekunde zum Zeitpunkt t ist. Die Korrelationsfunktion erster Ordnung, g1, wird aus g2 über die Siegert-Relation1 abgeleitet, und ein Kumulanten-Fit20 für g1 wird üblicherweise so implementiert, dass,

$${g}^{1}(|{\boldsymbol{q}}|;\tau )=exp(-\bar{\Gamma }(\tau -\frac{{\mu }_{2}}{2!}{\tau }^{2}+\frac{{\mu }_{3}}{3!}{\tau }^{3}+\ldots ))$$
(4)

wobei \(\bar{\Gamma }\,\) die durchschnittliche, charakteristische Zerfallsrate über alle Größenklassen in der Probe ist und \({\mu }_{2}/{\bar{\Gamma }}^{2}\,\) ist der Polydispersitätsindex 2. Ordnung (PdI), der die Abweichung der Korrelationsfunktion von einem einfachen exponentiellen Zerfall beschreibt und einen Schätzwert für die Varianz der Probe liefert. Der z-durchschnittliche Diffusionskoeffizient, Dz, wird dann durch die Beziehung

$$$\bar{\Gamma }={|{\boldsymbol{q}}|}^{2}{D}_{z}$$
(5)

und den durchschnittlichen hydrodynamischen Durchmesser gegeben, ZAve, berechnet aus Dz, unter Verwendung des Stokes-Einstein-Modells für kugelförmige Teilchen in Flüssigkeiten mit niedriger Reynoldszahl, Gl. 6, wobei η die Viskosität des Dispersionsmittels, kB die Boltzmann-Konstante und T die Temperatur des Dispersionsmittels in Kelvin ist,

$${D}_{z}=\frac{{k}_{B}T}{3\pi \eta {Z}_{Ave}}$$
(6)

Eine Schätzung der Partikelgrößenverteilung mit höherer Auflösung als bei Kumulanten wird durch Anpassung der Korrelationsfunktion an eine Summe über mehrere Exponentiale gegeben, Dies wird durch eine Reihe möglicher Inversionsmethoden wie CONTIN28 oder nicht-negative kleinste Quadrate (NNLS) erreicht, die zwei häufig verwendete Beispiele für die Bewältigung der allgemein ungünstigen Natur einer solchen Anpassung sind. Für den polydispersen Fall wird Gl. 4 dann zu einer kontinuierlichen Verteilung über D, aus der ein Bereich von beitragenden Partikelradien oder -durchmessern berechnet werden kann,

$${g}^{1}(|{\boldsymbol{q}}|;\tau )=\int G(\Gamma )\,exp(\,-\,\Gamma {\rm{\tau }})d\Gamma $$
(7)

Teilmessungslänge und verbesserte Präzision

Die Photonenankunftszeitreihe wird in kleine Teilmessungen unterteilt, die dann einzeln korreliert und in Probeneigenschaften reduziert werden, wie in Abschnitt 2 beschrieben.Die experimentelle Unsicherheit in den aus den DLS-Daten abgeleiteten Größen (ZAve, PdI, Zählrate usw.) über mehrere Messungen ist umgekehrt proportional zur Quadratwurzel der Anzahl der Messungen in der üblichen Weise, jedoch ist die Beziehung zwischen dem Rauschen im Korrelogramm innerhalb jeder Teilmessung und der Länge der Teilmessung weniger offensichtlich. Wie in Abb. 1a dargestellt, ist das abgetastete Volumen, d. h. der Bereich, der durch den Schnittpunkt der Beleuchtungslaser- und der Detektionspfade (beide mit endlicher Breite) begrenzt wird, deutlich kleiner als das Gesamtvolumen der Probe in der Küvette, so dass mit zunehmender Integrationszeit die Wahrscheinlichkeit steigt, dass ein Aggregat in das Detektionsvolumen hinein- oder aus diesem herausdiffundiert. Ziel ist es, die Dauer zu optimieren, um das Signal-Rausch-Verhältnis beizubehalten oder zu verbessern, aber mit einer Untermessungslänge, die es dem Auswahlalgorithmus gleichzeitig ermöglicht, ausreichend schnell zu reagieren, um jede Untermessung als stationär oder transient zu klassifizieren.

Abbildung 2a zeigt den ZAve und PdI für eine Reihe von Messungen eines Polystyrol-Latex mit einem hydrodynamischen Größenbereich, der vom Hersteller mit 58-68 nm angegeben wird (Thermo-Scientific, 3060 A), dispergiert in 150 mM NaCl, hergestellt mit 200 nm gefiltertem DI-Wasser (18.2 MΩ).

Abbildung 2
Abbildung2

(a) Verteilung von ZAve und PdI als Funktion der Untermessungsdauer und Anzahl der Untermessungen. Es werden alle aufgezeichneten Daten gezeigt, d.h. es wurden keine Daten für diese Abbildung ausgewählt: Zur Diskussion siehe Haupttext. Die gestrichelte Linie zeigt die ISO-Norm für den Polydispersitätsindex. (b) Beispiele für den Polydispersitätsindex, PdI, als Funktion von ZAve für Proben, die Spurenmengen von zusätzlichem großen Material enthalten (oben), (siehe ergänzende Informationen) und stabile, gut vorbereitete Proben (unten).

Beachten Sie die Verringerung der Standardabweichung über den gemessenen ZAve von 1.1 nm auf 0,32 nm zwischen den Fällen 1 × 10 s und 10 × 1 s, blau hervorgehoben, was darauf hindeutet, dass die Präzision der DLS-Messung einfach durch die Verwendung eines Durchschnitts über kürzere Teilmessungen bei gleicher Gesamtintegrationszeit erhöht wird. Ein ähnliches Verhalten ist bei Messungen von Partikeln unterschiedlicher Größe zu beobachten (siehe ergänzende Informationen).

Der Mechanismus hinter dieser Verbesserung lässt sich erklären, wenn man die Form der Korrelationsfunktion betrachtet, wenn ein transienter Streuer erkannt wird. Die Korrelationsfunktion ist annähernd ein exponentieller Zerfall, mit kleinen Störungen aufgrund verschiedener Rauschquellen, darunter Afterpulsing, Schussrauschen, Normalisierungsfehler und natürlich die Erkennung von Streuteilchen unterschiedlicher Größe21. Die Aufzeichnung der korrelierten Lichtstreuung über kurze Zeitintervalle kann die Amplitude dieser Störungen erhöhen, aber die Mittelung über mehrere Teilmessungskorrelationsfunktionen, die jeweils zufälliges Rauschen enthalten, bedeutet, dass das Endergebnis weniger Rauschen enthält als eine Korrelationsfunktion, die mit derselben Dauer aufgezeichnet, aber als eine einzige kontinuierliche Spur behandelt wird. Dies ist ein äußerst wichtiges Ergebnis, da es darauf hinweist, dass nichts anderes als eine sorgfältig abgeleitete Teilmessungslänge eine dreifache Verbesserung der Präzision für diese primäre nanoskalige Messmodalität ergibt.

Wie wir im nächsten Abschnitt zeigen werden, ermöglicht die kürzere Untermessungslänge auch die Klassifizierung von stationären und instationären Daten, was, wie wir zeigen werden, einen Hauptkritikpunkt der DLS löst: die Proportionalität der gestreuten Intensität zur sechsten Potenz des Partikelradius, was bedeutet, dass die Daten der primären Partikelkomponente durch die Anwesenheit seltener großer Partikel verzerrt oder sogar maskiert werden können. In der Praxis bedeutet dies, dass eine sorgfältige Probenvorbereitung erforderlich ist, um erhebliche Unsicherheiten im Messergebnis zu vermeiden, die durch größere, oft unerwünschte Fraktionen verursacht werden, z. B. durch Filterrückstände, vorübergehende Aggregate oder schlecht gereinigtes Laborgeschirr.

Klassifizierung von instationären und stationären Daten

Wie bereits erwähnt, verwenden viele handelsübliche DLS-Geräte eine Teilmesszeit in der Größenordnung von 10 Sekunden, wobei mehrere dieser Messungen nach einer Art von Staubunterdrückungsalgorithmus kombiniert werden. Dies deutet darauf hin, dass eine Klassifizierung von stationären und instationären Daten auch durch die Verwendung kürzerer Korrelationszeiten erreicht werden könnte, was auch den Vergleich zwischen Teilmessungen genauer machen könnte, da die Auswirkungen der instationären Streuung nicht herausgemittelt würden. Die Ergebnisse einer Reihe dieser Teilmessungen könnten dann kombiniert werden, indem der Mittelwert der Autokorrelationsfunktionen analysiert wird, bevor eine Größenanalyse durchgeführt wird, wie in Abschnitt 2.2.

Alle aufgezeichneten Teilmessungen werden dann in Gruppen eingeteilt, die den stationären und den instationären Zustand des Systems beschreiben, oder anders ausgedrückt, die für die zugrunde liegende, stationäre Probe repräsentativ sind, und diejenigen, die mit einem Ausbruch von Störstreuungen verbunden sind, wie in Abb. 1c.

Die Identifizierung transienter Teilmessungen sollte von den Merkmalen der untersuchten Probe abgeleitet werden, um die Notwendigkeit willkürlich definierter Schwellenwerte zu vermeiden, die möglicherweise probenspezifisch sind. Durch die individuelle Reduktion jeder der gesammelten Teilmessungen steht eine Reihe möglicher Parameter zur Verfügung, die als Grundlage für den Vergleich von Teilmessungssätzen verwendet werden können, und es erscheint logisch, diesen Vergleich auf eine Größenanalyse der gemessenen Autokorrelationsfunktionen zu stützen.

Die Analyse von Kumulierungsmitteln geht davon aus, dass eine Probe monodispers ist, was bedeutet, dass sowohl der ZAve als auch der PdI kontinuierliche und empfindliche Maße für die Partikelgröße liefern, die wir zum Vergleich von Teilmessungen verwenden können. Der PdI beschreibt die Abweichung der Korrelationsfunktion von einem perfekten exponentiellen Zerfall. Er ist ein direktes Maß für die Störung der Korrelationsfunktion und reagiert besonders empfindlich auf das Rauschen in der Basislinie der Korrelationsfunktion, das eine typische Folge der transienten Streuung ist, und ist daher, wie wir zeigen werden, ein idealer Parameter für den Vergleich der Korrelationsfunktionen aus einer Vielzahl von Teilmessungen.

Ein Beispiel für eine solche Beziehung ist in Abb. 2b dargestellt, wo die Proben entweder aggregiertes Material enthalten oder mit einer Mischung aus Latexkugeln dotiert sind (siehe ergänzende Informationen). Hier zeigen die Proben, die Spuren von Aggregaten enthalten, eine positive Korrelation zwischen gemessener Größe und PdI, wobei einige Datenpunkte bei einer konsistenten Größe und PdI geclustert sind, während die nicht dotierten Proben gut definierte Datencluster aufweisen. Transiente Untermessungen können daher als solche identifiziert werden, die einen unerwarteten Wert für den PdI aufweisen. Unerwartet bedeutet in diesem Fall, dass der PdI einer bestimmten Teilmessung nicht repräsentativ für die stationären Teilmessungen ist und daher einen statistischen Ausreißer darstellt. Es gibt viele Methoden zur Identifizierung von statistischen Ausreißern, wobei jede von ihnen Stärken und Schwächen hat, die von der Art der interessierenden Verteilung und dem Stichprobenumfang abhängen.

Abbildung 3a zeigt die Verteilungen des PdI für Dispersionen, die beliebig kleine Mengen von Störmaterial enthalten, wobei die Verteilungen des PdI in der Mitte und in der Breite für die verschiedenen Proben variieren. Da der PdI per Definition auf das Intervall begrenzt ist und im Allgemeinen zu größeren Werten hin schief ist, sind arithmetische Beschreibungen der Verteilung wie Mittelwert und Standardabweichung nicht geeignet.

Abbildung 3
Abbildung3

(a) Verteilungen von PdI für eine Reihe von aggregierten/kontaminierten Proben, die zeigen, dass eine probenspezifische Definition erforderlich ist, um die Messung von transienten Partikeln zu identifizieren. Diese Verteilungen zeigen auch, dass der PdI eine verzerrte Verteilung ist, so dass ein Schwellenwert von drei Standardabweichungen vom Mittelwert für Ausreißer nicht robust wäre. (b) Histogramm eines spärlich gesammelten Satzes von Messungen für eine Lysozym-Probe. Während die Anpassung unter Verwendung einer Regression der kleinsten Quadrate und eines Gauß-Modells in (a) eine zuverlässige Bestimmung der Statistiken von ausreichend gesammelten Datensätzen ermöglichte, ist ein Versuch der Anpassung an einen spärlichen Datensatz in blau dargestellt, zeigt aber aufgrund der offensichtlich zu geringen Stichprobengröße eine schlechte Korrelation mit den Verteilungsdaten. Ebenfalls dargestellt ist ein Streudiagramm der einzelnen Werte, das deren Streuung zeigt. Der rot dargestellte Einzelpunkt wird durch das verallgemeinerte Rosner-Verfahren für viele Ausreißer erfolgreich als Ausreißer identifiziert.

Wenn die Anzahl der diskreten Teilmessungen ausreichend groß ist, kann ein Histogramm der Daten verwendet werden, um eine Verteilungsbreite abzuleiten (siehe Gauß-Fits in Abb. 3a). 3a). Ist der Stichprobenumfang jedoch geringer, können numerische Hypothesentestverfahren wie die von Dixon29 und Rosner30 beschriebenen geeigneter sein (Abb. 3b).

Optimierung des Stichprobenumfangs

Die Effizienz jeder Methode zur Identifizierung von Ausreißern hängt sowohl von der Gesamtzahl der Datenpunkte als auch von der Anzahl der Ausreißer innerhalb einer Verteilung ab. Die in Abb. 2a gezeigte, gut vorbereitete, monodisperse und stabile Probe zeigt beispielsweise, dass bereits mit 10 gemittelten Teilmessungen von 1 s Dauer eine zuverlässige Größe angegeben werden kann, während eine Probe, die verrauschte Korrelationsfunktionen erzeugt, entweder durch geringe Streuung, signifikante Polydispersität oder durch das Vorhandensein von Störstreuern, eine größere Anzahl von Teilmessungen erfordert, um Ausreißer mit größerer Sicherheit zu identifizieren. Auch dies spricht für einen probengesteuerten Ansatz, bei dem die Anzahl der Teilmessungen von der Qualität der aus der Probe gewonnenen Daten abhängt.

Mögliche Ansätze wären die Überwachung der Streuung der einzelnen Teilmessergebnisse oder die Durchführung von Normalitätstests für diese Werte, was jedoch in der Regel dazu führen würde, dass eine größere Anzahl von Datenpunkten erfasst wird. Ein alternativer Ansatz ist die kontinuierliche Überwachung des vermeintlichen Endergebnisses im Verlauf der Messung. Wenn die Statistik der Messung angemessen gut definiert ist und die Störungen in der Korrelationsfunktion angemessen gut aus dem Endergebnis herausgemittelt werden, sollte die gemeldete Größe bis zu einem gewissen Grad der natürlichen Schwankung konstant werden. Auch hier können Hypothesentests verwendet werden, um das Ergebnis der Messung nach der Erfassung zusätzlicher Teilmessungen zu vergleichen. Wenn diese Werte übereinstimmen, ist die Probe angemessen charakterisiert, und die Messung kann entsprechend beendet werden. Diese Methode kann noch zuverlässiger gemacht werden, indem während der gesamten Messung auf besondere Ursachen für die Ergebnisse, wie z. B. Tendenzen und Oszillationen, geachtet wird.

Ein Beispiel für diesen Ansatz ist in Abb. 4a für eine Lysozym-Probe dargestellt, bei der eine anfänglich fehlerhafte Unterschätzung der Partikelgröße gemeldet wird, die sich jedoch mit der Erfassung der nachfolgenden Teilmessungen stabilisiert. Man beachte auch, dass die Identifizierung von Ausreißern während der Messung wiederholt wird, wenn mehr Daten gesammelt werden, was bedeutet, dass ein vorübergehendes Ereignis als solches identifiziert wird, unabhängig davon, wann es im Messprozess aufgezeichnet wurde. Dies ist eine Verbesserung gegenüber anderen Methoden, die Daten auf der Grundlage einer ersten Messung vergleichen, die möglicherweise nicht repräsentativ für die tatsächliche Probe war.

Abbildung 4
Abbildung4

(a) Oben: Die gemeldete ZAve gegen die Anzahl der gemessenen Teilmessungen während der Messung einer Lysozym-Probe. Eine Schätzung des Standardfehlers für jede gemeldete Größe ist durch Fehlerbalken dargestellt. Das Ergebnis ist anfangs ungenau und schwankend, stabilisiert sich aber, nachdem eine ausreichende Menge an Daten gesammelt wurde. Unten: Konfidenzniveau (CL) eines Hypothesentests der Datenähnlichkeit, berechnet für aufeinanderfolgende Werte für die ZAve. Wenn das Konfidenzniveau einen Schwellenwert erreicht hat, wird kein auflösbarer Unterschied in der ZAve erwartet und die Aufzeichnung weiterer Teilmessungen kann daher beendet werden. (b) Oben: Intensitätsgewichtete Partikelgrößenverteilung für Messungen von 1 mg/mL Lysozym mit kurzen und langen Korrelationszeiten, gemessen bei einem Detektionswinkel von 90°. Die kurzen Teilmessungen zeigen eine scheinbar große Größenkomponente, bei der es sich um ein Rauschartefakt handelt, das mit der geringen Streuungsintensität der Probe zusammenhängt. Unten: Entsprechende Korrelationsfunktions-Basislinien für Wiederholungsmessungen mit langen und kurzen Teilmessungen. Die kurzen Teilmessungen zeigen ein zeitlich aufgelöstes, zusätzliches Zerfallsartefakt.

Dies führt zu einer verbesserten Effizienz der Datenerfassung ohne Eingreifen des Benutzers, und Messungen von stabilen Proben, die weniger Daten erfordern, können daher in kürzerer Zeit abgeschlossen werden, während bei komplexen Proben, die ein gewisses Maß an Unsicherheit aufweisen, automatisch eine größere Datenmenge erfasst werden muss, um ein Ergebnis mit vergleichbarer Sicherheit zu erhalten.

Stichprobenoptimierung

Wie in Abschnitt 2.2 beschrieben, gibt es mehrere Quellen für Rauschen in der Korrelationsfunktion, und die Amplitude dieses Rauschens kann zeitabhängig sein. Während in Abschnitt 2.2 für die Verwendung kurzer Korrelationszeiten plädiert wurde, gibt es Fälle, in denen dies nachteilig sein kann.

Bei einer Probe, die geringe Streueigenschaften aufweist, entweder durch einen kleinen Streuquerschnitt, eine niedrige Probenkonzentration, einen geringen Unterschied im Brechungsindex zum umgebenden Dispergiermittel oder eine Kombination davon, gibt es möglicherweise weniger detektierte Photonen, die die Korrelatorzeitbins füllen, was sich typischerweise als Rauschen in der Basislinie der Korrelationsfunktion bei längeren Korrelatorverzögerungszeiten τ manifestiert.

Handelsübliche Lichtstreuungsinstrumente variieren typischerweise eine Reihe von instrumentellen Einstellungen als Teil des Messaufbauverfahrens, wie die Optimierung der Messposition innerhalb der Küvette, um die optische Weglänge des einlaufenden Lasers und des auslaufenden Streuungsdetektionsweges zu minimieren, um Mehrfachstreuung von konzentrierten Proben in der Nähe der Küvettenmitte zu vermeiden oder umgekehrt, um statische Streuung von der Zellwand bei niedrigen Probenkonzentrationen zu vermeiden, und die Optimierung der detektierten Photonenzählrate, um innerhalb des linearen Bereichs des Detektors zu bleiben. Diese instrumentellen Optimierungen sind im Allgemeinen so konzipiert, dass Benutzer, die mit der Interpretation von Lichtstreudaten nicht vertraut sind, die zuverlässigsten Ergebnisse über einen breiten Bereich von Probenkonzentrationen und -größen erhalten können, aber eine solche Optimierung wurde bisher nicht auf die Korrelationszeit angewendet. Ein Beispiel hierfür ist in Abb. 4b zu sehen, wo die Partikelgrößenverteilungen für eine Probe von 1,0 mg/mL Lysozym gezeigt werden, die bei einem Detektionswinkel von 90° gemessen wurde. Die angegebene PSD für eine kurze Korrelationszeit zeigt eine offensichtliche große Größenkomponente zusätzlich zum Hauptpartikelpeak). Wäre dies ein echter Probeneffekt, hätten die Messungen bei einem kleineren Erfassungswinkel die gleiche große Komponente gezeigt. Die Vorwärtsstreumessungen für dieselbe Probe waren monomodal (siehe SI), und das Fehlen des Peaks in den Messdaten bei anderen Erfassungswinkeln (ergänzende Informationen) deutet darauf hin, dass er möglicherweise auf eine Kombination aus einer wenig streuenden Probe und statischer Streuung, möglicherweise von der Einweg-Probenküvette, zurückzuführen ist. Während die Intensität des einfallenden Lichts optimiert werden kann, streuen einige Proben, wie z. B. Proteine in niedriger Konzentration, auch ohne Abschwächung des beleuchtenden Lasers eine suboptimale Anzahl von Photonen, was bedeutet, dass die Standardbetriebsverfahren für ein kommerzielles dynamisches Lichtstreusystem möglicherweise nicht optimal sind und längere Korrelationszeiten verwendet werden können24 , wobei eine umfangreiche Methodenentwicklung erforderlich ist, um diese Einstellungen zu bestimmen. Daher kann eine weitere probengesteuerte Anpassung der Messung eingeführt werden, bei der das Gerät die kürzestmögliche Teilmesslänge verwendet, die eine optimale Anzahl von zu messenden Photonen ergibt (siehe SI), und dies wird im optimierten Messschema im nächsten Abschnitt beschrieben.

Das optimale Messschema

Das optimale Messschema besteht aus dem folgenden Prozess:

  1. (1)

    Optimierung der Messposition und der einfallenden Lichtintensität.

  2. (2)

    Wenn die detektierte Streuung auch bei geringster Laserdämpfung gering ist, wird die Teilmesslänge optimiert, um das Grundlinienrauschen zu reduzieren.

  3. (3)

    Teilmessungen werden gesammelt und mit Hilfe der Kumulantenanalyse analysiert.

  4. (4)

    Die PdI-Werte aus diesen Analysen werden verglichen und Ausreißer identifiziert.

  5. (5)

    Die Korrelationsfunktionen der stationären Teilmessungen werden gemittelt, und das Ergebnis wird analysiert, um einen ZAve zu ermitteln.

  6. (6)

    Weitere Teilmessungen werden wie oben beschrieben aufgezeichnet und analysiert, und eine neue endgültige Antwort ZAve wird ermittelt.

  7. (7)

    Dieser Vorgang wird so lange wiederholt, bis mit Hilfe eines Hypothesentests festgestellt wird, dass die beiden vorherigen ZAve-Ergebnisse aus den Schritten (5) und (6) übereinstimmen.

  8. (8)

    Alle instationären Teilmessungen werden ebenfalls gemittelt und analysiert, um Informationen über die instationäre Komponente zu erhalten.

Da der obige Algorithmus auf die Eigenschaften der Probe reagiert, wobei die Länge der Teilmessungen, die Menge der gesammelten Daten und die aus dem stationären Ergebnis auszulassenden Teilmessungen alle von der Probe und der Datenqualität abhängen, wird die Methode als Adaptive Korrelation bezeichnet, in Anlehnung an die Adaptive Optik in der Astronomie31 , bei der eine Datenrückkopplung zur Korrektur der beobachteten Aberrationen verwendet wird.

Leave a Reply