Improved Dynamic Light Scattering using an adaptive and statistically driven time resolved treatment of correlation data
In questo lavoro descriviamo e valutiamo un nuovo processo di misurazione e trattamento dati DLS che taglia i dati sul tempo di arrivo dei fotoni dal rivelatore in blocchi molto piccoli, ognuno dei quali viene correlato come una sottomisura separata. La distribuzione statistica di un certo numero di quantità derivate da ogni sottomisura correlata, costruita durante il processo di misurazione, viene poi utilizzata per classificare gli eventi transitori, come quello mostrato alla fine della sottomisura di 10 s, tra 8 s e 10 s in Fig. 1b, e per analizzarli separatamente dai restanti dati di stato stabile (da 0 s a <8 s in Fig. 1c). Il risultato viene poi sommato separatamente come coppia di correlogrammi transitori e stazionari, che vengono poi ridotti per ottenere le distribuzioni granulometriche transitorie e stazionarie. Fondamentalmente, poiché tutti i dati raccolti (transitorio e stato stazionario) vengono analizzati e riportati: nessun dato viene rifiutato o nascosto all’utente e una rappresentazione completa e non distorta dei risultati di qualsiasi campione, polidispersi o meno, ma senza le maggiori incertezze nelle frazioni di interesse allo stato stazionario in presenza di forti dispersori transitori. Inoltre, questo processo si occupa intrinsecamente del caso limite in cui esistono così tanti aggregati che la frazione primaria del campione dovrebbe essere considerata come questi componenti più grandi, cioè gli aggregati diventano così numerosi che il loro segnale diventa la frazione di stato stazionario27.
Troviamo anche che la classificazione e la riduzione separata delle classi di stato transitorio e stazionario basato su sub-run di misurazione molto breve e in un modo basato sulle statistiche dei dati stessi, porta a una minimizzazione statisticamente rilevante della variabilità all’interno della classe di stato stazionario su brevi tempi di misurazione totale che porta direttamente a un aumento della precisione dei dati DLS stato stazionario mentre contemporaneamente riducendo il tempo di misurazione totale per un campione ben comportato, da un ordine di grandezza su quelli attualmente trovati in strumenti disponibili in commercio.
Lo sviluppo della tecnica è descritto nel resto di questa sezione utilizzando misure di particelle di lattice di polistirene come sistema modello di dimensioni note e dispersioni di lisozima come campione fragile e a bassa dispersione. Un certo numero di casi di studio che dimostrano i benefici della tecnica sono descritti nella sezione 3, mentre le conclusioni sono tratte nella sezione 4 e i metodi utilizzati sono descritti nella sezione 5.
Metodi di analisi
Sebbene la tecnica sia ugualmente applicabile a misure con correlazione incrociata, la maggior parte degli strumenti disponibili in commercio misura la funzione di autocorrelazione g2(|q|;τ) della serie temporale di fotoni rilevati e sparsi I(t) data da,
dove τ è il tempo di ritardo, e I l’intensità misurata al rivelatore in conteggi di fotoni per secondo misurati al tempo t. La funzione di correlazione del primo ordine, g1, è recuperata da g2 attraverso la relazione di Siegert1 e un cumulants-fit20 a g1 è comunemente implementato in modo tale che,
dove, \(\bar{\Gamma },\) è il tasso di decadimento medio e caratteristico su tutte le classi di dimensione nel campione e \({\mu {2}/{bar{\Gamma}^{2},\)è l’indice di polidispersità di 2° ordine (PdI) che descrive l’allontanamento della funzione di correlazione da un singolo decadimento esponenziale fornendo una stima della varianza del campione. Il coefficiente di diffusione medio z, Dz, è quindi dato dalla relazione
e il diametro idrodinamico medio, ZAve, calcolato da Dz, usando il modello di Stokes-Einstein per particelle sferiche in liquidi con basso numero di Reynolds, Eq. 6, dove η è la viscosità del disperdente, kB, la costante di Boltzmann e T, la temperatura del disperdente in Kelvin,
Una stima della distribuzione delle dimensioni delle particelle a una risoluzione maggiore dei cumulanti è data dall’adattamento della funzione di correlazione a una somma su esponenziali multipli, realizzato con un certo numero di metodi di inversione possibili come CONTIN28 o i minimi quadrati non negativi (NNLS), che sono due esempi comunemente implementati progettati per far fronte alla natura generalmente mal posta di un tale adattamento. Per il caso polidisperso, Eq. 4 diventa allora una distribuzione continua su D, da cui una gamma di raggi o diametri delle particelle che contribuiscono può essere calcolata,
Lunghezza delle sottomisure e maggiore precisione
La serie temporale di arrivo dei fotoni è divisa in piccole sottomisure che sono poi correlate individualmente e ridotte in proprietà del campione come descritto nella Sezione 2.L’incertezza sperimentale nelle quantità derivate dai dati DLS (ZAve, PdI, count-rate, ecc.) su misure multiple è inversamente proporzionale alla radice quadrata del numero di misure nel modo usuale, tuttavia, la relazione tra il rumore nel correlogramma all’interno di ogni sotto-misura e la lunghezza della sotto-misura è meno ovvia. Ricordando la Fig. 1a, il volume campionato, la regione sottesa dall’intersezione del laser illuminante e dei percorsi di rilevamento, entrambi di larghezza finita, è significativamente più piccolo del volume totale del campione nella cuvetta, quindi, come il tempo di integrazione aumenta la probabilità che un aggregato si diffonda in, o fuori, il volume di rilevamento aumenta e in questa sezione è quello di esplorare come le quantità derivate, ZAve e PdI si comportano in funzione della durata della sub misura. L’obiettivo è quello di ottimizzare la durata per mantenere o migliorare il rapporto segnale/rumore, ma in una lunghezza di sottomisura che permetta contemporaneamente all’algoritmo di selezione di rimanere abbastanza reattivo da classificare ogni sottomisura come stazionaria o transitoria.
La figura 2a mostra la ZAve e la PdI per una serie di misurazioni di un lattice di polistirene con una gamma di dimensioni idrodinamiche specificate dal produttore come 58-68 nm (Thermo-Scientific, 3060 A), disperso in 150 mM NaCl fatto con 200 nm di acqua DI filtrata (18.2 MΩ).
Nota la riduzione della deviazione standard sulla ZAve misurata da 1.1 nm a 0,32 nm tra i casi 1 × 10 s e 10 × 1 s, evidenziato in blu che indica che la precisione della misura DLS è aumentata semplicemente usando una media su sottomisure più brevi ma per lo stesso tempo di integrazione totale. Un comportamento simile può essere visto nelle misure di particelle di dimensioni diverse (vedi le informazioni supplementari).
Il meccanismo dietro questo miglioramento può essere spiegato considerando la forma della funzione di correlazione quando viene rilevato uno scatterer transitorio. La funzione di correlazione è approssimativamente un decadimento esponenziale, con piccole perturbazioni dovute a diverse fonti di rumore tra cui dopo pulsazione, rumore di colpo, errori di normalizzazione e, naturalmente, il rilevamento di particelle di diffusione di dimensioni diverse21. Registrando la diffusione della luce correlata su brevi intervalli di tempo può aumentare l’ampiezza di queste perturbazioni, ma la media su diverse funzioni di correlazione sub misura, ciascuno contenente rumore casuale, significa che il risultato finale contiene meno rumore di una funzione di correlazione registrato con la stessa durata ma trattati come una traccia continua. Questo è un risultato estremamente importante in quanto indica che nulla più di una lunghezza di sottomisura accuratamente derivata produce un miglioramento di 3 volte nella precisione per questa modalità di misurazione primaria su scala nanometrica.
Inoltre, come mostriamo nella prossima sezione, la lunghezza di sottomisura più corta permette anche la classificazione dei dati stazionari e transitori, che dimostreremo risolve una critica primaria della DLS: la proporzionalità dell’intensità diffusa alla sesta potenza del raggio della particella, il che significa che i dati della componente primaria delle particelle possono essere distorti o addirittura mascherati dalla presenza di rare particelle grandi. In termini pratici, questo impone la necessità di una scrupolosa preparazione del campione per evitare incertezze significative nel risultato della misurazione causate da frazioni più grandi, spesso indesiderate, da residui di filtraggio, aggregati transitori o da stoviglie da laboratorio mal pulite, per esempio.
Classificazione dei dati transitori e stabili
Come detto in precedenza, molti strumenti DLS commerciali utilizzano un tempo di sotto-misura dell’ordine di 10 secondi con diverse di queste misure combinate seguendo una qualche forma di algoritmo di rifiuto della polvere, tuttavia significa che ampie sezioni di dati affidabili possono essere omesse da una misura se una sotto-misura contiene un breve scoppio di dispersione da un evento transitorio. Questo suggerisce che una classificazione dei dati statici e transitori potrebbe anche essere ottenuta utilizzando tempi di correlazione più brevi e questo potrebbe anche rendere il confronto tra le sotto-misure più accurato in quanto gli effetti della dispersione transitoria non sarebbero mediati. I risultati di una serie di queste sottomisure potrebbero poi essere combinati analizzando la media delle funzioni di autocorrelazione prima di eseguire l’analisi delle dimensioni, come discusso nella sezione 2.2.
Tutte le sottomisure registrate sono poi classificate in insiemi che descrivono lo stato stazionario e transitorio del sistema o in altre parole quelle che sono rappresentative del campione sottostante allo stato stazionario e quelle che sono associate con un’esplosione di dispersione spuria come mostrato nella Fig. 1c.
L’identificazione delle sottomisure transitorie dovrebbe essere derivata dalle caratteristiche del campione in esame per evitare la necessità di soglie definite arbitrariamente che possono essere specifiche del campione. Riducendo ciascuna delle sottomisure raccolte individualmente, sono disponibili una serie di possibili parametri che possono essere utilizzati come base per il confronto di serie di sottomisure e sembra logico basare questo confronto su un’analisi delle dimensioni delle funzioni di autocorrelazione misurate.
L’analisi dei cumulanti presuppone che un campione sia monodisperso, il che significa che sia la ZAve che la PdI daranno entrambe misure continue e sensibili della dimensione delle particelle che possiamo utilizzare per confrontare le sottomisure. Il PdI descrive l’allontanamento della funzione di correlazione da un perfetto decadimento esponenziale. È una misura diretta della perturbazione della funzione di correlazione ed è particolarmente sensibile al rumore nella linea di base della funzione di correlazione che è una conseguenza tipica della dispersione transitoria e, come mostreremo, è quindi un parametro ideale da utilizzare per confrontare le funzioni di correlazione da una pluralità di sub misurazioni.
Un esempio di tale relazione è mostrato in Fig. 2b, dove i campioni contengono materiale aggregato o sono drogati con una miscela di sfere di lattice (vedi informazioni supplementari). Qui, i campioni contenenti tracce di aggregato mostrano una correlazione positiva tra le dimensioni misurate e PdI, con alcuni punti di dati raggruppati ad una dimensione coerente e PdI, mentre i campioni non drogati mostrano cluster ben definiti di dati. Le misure sub transitorie possono quindi essere identificate come quelle che si presentano ad un valore inaspettato per il PdI. In questo caso, inaspettato significa che il PdI di una data sottomisura non è rappresentativo delle sottomisure allo stato stazionario ed è quindi un outlier statistico. Esistono molti metodi per identificare gli outlier statistici, ognuno dei quali ha punti di forza e di debolezza a seconda della natura della distribuzione di interesse e della dimensione del campione.
La figura 3a mostra le distribuzioni del PdI per dispersioni contenenti arbitrariamente piccole quantità di materiale spurio, con distribuzioni del PdI che variano in centro e larghezza per i diversi campioni. Dato che il PdI è limitato, per definizione, all’intervallo e sarà generalmente inclinato verso valori più grandi, i descrittori aritmetici della distribuzione come la media e la deviazione standard non sono appropriati.
Se il numero di sotto-misure discrete è sufficientemente grande un istogramma dei dati può essere utilizzato per derivare una larghezza di distribuzione (vedi Gaussian fits in Fig. 3a), tuttavia quando la dimensione del campione è più piccola, i metodi di test di ipotesi numerica come quelli descritti da Dixon29 e Rosner30 possono essere più appropriati, Fig. 3b.
Ottimizzare la dimensione del campione
L’efficienza di qualsiasi metodo di identificazione degli outlier sarà accoppiata sia al numero totale di punti dati sia al numero di outlier all’interno di una distribuzione. Per esempio, il campione ben preparato, monodisperso e stabile mostrato in Fig. 2a dimostra che una dimensione affidabile può essere riportata per un minimo di 10 misurazioni medie di 1 s di durata, mentre un campione che produce funzioni di correlazione più rumorose, sia attraverso una bassa dispersione, avendo una significativa polidispersità o contenendo dispersori spuri, richiederà un maggior numero di misurazioni secondarie per dare più fiducia all’identificazione dei valori anomali. Ancora una volta, questo motiva un approccio guidato dal campione in cui il numero di sottomisure risponde alla qualità dei dati raccolti dal campione.
Approcci possibili potrebbero essere quelli di monitorare la diffusione dei risultati delle singole sottomisure o di eseguire test di normalità su questi valori, tuttavia questo porterebbe tipicamente la misurazione ad acquisire un maggior numero di punti dati. Un approccio alternativo è quello di monitorare continuamente il presunto risultato finale mentre la misurazione procede, dove le statistiche della misurazione sono adeguatamente ben definite e le perturbazioni nella funzione di correlazione sono adeguatamente ben mediate dal risultato finale, la dimensione riportata dovrebbe diventare costante entro un certo grado di variazione naturale. Anche in questo caso, i test di ipotesi possono essere utilizzati per confrontare il risultato della misurazione dopo la raccolta di ulteriori sottomisure, e se questi valori concordano, allora il campione è adeguatamente caratterizzato e la misurazione può terminare di conseguenza. Un’ulteriore fiducia può essere aggiunta a questo metodo controllando cause particolari nei risultati durante la misurazione, come tendenze e oscillazioni.
Un esempio di questo approccio è mostrato nella Fig. 4a per un campione di lisozima, con una sottostima inizialmente errata della dimensione delle particelle riportata, ma che si stabilizza con la raccolta di successive sottomisure. Si noti inoltre che l’identificazione degli outlier viene ripetuta durante la misurazione man mano che vengono raccolti più dati, il che significa che un evento transitorio verrà identificato come tale, indipendentemente dal momento in cui è stato registrato nel processo di misurazione. Questo è un miglioramento rispetto ad altri metodi che possono confrontare i dati basati su una misurazione iniziale, che può o non può essere stata rappresentativa del vero campione.
Questo si traduce in una migliore efficienza di raccolta dei dati senza l’intervento dell’utente e le misurazioni di campioni stabili che richiedono meno dati da raccogliere possono quindi essere completate in un tempo più breve, mentre i campioni complessi che mostrano un certo livello di incertezza avranno automaticamente una maggiore quantità di dati raccolti per produrre un risultato con fiducia comparabile.
Ottimizzazione del campionamento
Come descritto nella sezione 2.2, ci sono diverse fonti di rumore nella funzione di correlazione e l’ampiezza di questo rumore può essere dipendente dal tempo. Mentre la sezione 2.2 ha spiegato la necessità di utilizzare tempi di correlazione brevi, ci sono casi in cui questo può essere dannoso.
Per un campione che dimostra basse proprietà di dispersione, attraverso una piccola sezione trasversale di dispersione, una bassa concentrazione del campione, una piccola differenza di indice di rifrazione rispetto al disperdente circostante o una loro combinazione, ci possono essere meno fotoni rilevati per popolare i bins di tempo del correlatore e questo si manifesta tipicamente come rumore nella linea di base della funzione di correlazione a tempi di ritardo del correlatore più lunghi, τ.
Gli strumenti commerciali di diffusione della luce variano tipicamente una serie di impostazioni strumentali come parte della procedura di set-up della misurazione, come l’ottimizzazione della posizione di misurazione all’interno della cuvetta per ridurre al minimo la lunghezza del percorso ottico del laser in entrata e il percorso di rilevazione della diffusione in uscita per evitare la diffusione multipla da campioni concentrati vicino al centro della cuvetta o, al contrario, per evitare la diffusione statica dalla parete cellulare a basse concentrazioni di campione e l’ottimizzazione del tasso di conteggio dei fotoni rilevati per rimanere entro il range lineare del rilevatore. Queste ottimizzazioni strumentali sono generalmente progettate per consentire agli utenti che non hanno familiarità con l’interpretazione dei dati di diffusione della luce per recuperare i risultati più affidabili su una vasta gamma di concentrazioni e dimensioni del campione, ma tale ottimizzazione non è stato precedentemente applicato al tempo di correlazione. Un esempio di questo è mostrato in Fig. 4b, con le distribuzioni delle dimensioni delle particelle mostrate per un campione di 1,0 mg/mL di lisozima misurato ad un angolo di rilevamento di 90°. La PSD riportata per un breve tempo di correlazione mostra un’apparente componente di grandi dimensioni oltre al picco principale delle particelle). Se questo fosse un effetto reale del campione, le misurazioni a un angolo di rilevamento più piccolo avrebbero mostrato la stessa grande componente. Le misure di diffusione in avanti per lo stesso campione erano monomodali (vedi SI) e l’assenza del picco a nei dati misurati ad altri angoli di rilevamento (informazioni supplementari) indica che potrebbe essere stato a causa di una combinazione di un campione a bassa dispersione e dispersione statica, forse, dalla cuvetta campione monouso. Mentre l’intensità della luce incidente può essere ottimizzato, alcuni campioni come le proteine a bassa concentrazione può diffondere un numero sub ottimale di fotoni anche senza attenuazione del laser illuminante, il che significa che i processi operativi standard per un sistema commerciale di diffusione della luce dinamica non può essere ottimale e tempi di correlazione più lunghi possono essere utilizzati 24 con ampio sviluppo del metodo necessario per determinare queste impostazioni. Si può quindi introdurre un ulteriore adattamento della misurazione guidato dal campione, per cui lo strumento utilizza la lunghezza di sotto-misura più breve possibile che produrrà un numero ottimale di fotoni da misurare (vedi SI) e questo è descritto nello schema di misurazione ottimizzato nella prossima sezione.
Lo schema di misurazione ottimale
Lo schema di misurazione ottimale è costituito dal seguente processo:
- (1)
Ottimizzazione della posizione di misurazione e dell’intensità della luce incidente.
- (2)
Se il livello di scattering rilevato è basso anche con l’attenuazione laser più bassa, la lunghezza della sottomisura viene ottimizzata per ridurre il rumore della linea di base.
- (3)
Le sottomisure vengono raccolte e analizzate utilizzando l’analisi dei cumulanti.
- (4)
I valori PdI di queste analisi vengono confrontati e i valori anomali identificati.
- (5)
Le funzioni di correlazione delle sottomisure allo stato stazionario sono mediate, e il risultato analizzato per riportare una ZAve.
- (6)
Altre sottomisure sono registrate e analizzate come sopra, e una nuova risposta finale ZAve registrata.
- (7)
Questo processo viene ripetuto fino a quando i due precedenti risultati ZAve dai passi (5) e (6) sono trovati in accordo usando un test di ipotesi.
- (8)
Tutte le sotto-misure transitorie sono anche mediate e analizzate per fornire informazioni sulla componente transitoria.
Data la risposta dell’algoritmo di cui sopra alle caratteristiche del campione, con la lunghezza delle sottomisure, la quantità di dati raccolti e quali sottomisure omettere dal risultato dello stato stazionario, tutte dipendenti dal campione e dalla qualità dei dati, il metodo è stato soprannominato Correlazione Adattiva, prendendo ispirazione dall’uso dell’Ottica Adattiva in astronomia31, dove il feedback dei dati è usato per correggere le aberrazioni osservate.
Leave a Reply