Improved Dynamic Light Scattering using an adaptive and statistically driven time resolved treatment of correlation data
En este trabajo describimos y evaluamos un nuevo proceso de medición y tratamiento de datos DLS que corta los datos de tiempo de llegada de fotones del detector en bloques muy pequeños, cada uno de los cuales se correlaciona como una submedición separada. La distribución estadística de una serie de cantidades derivadas de cada submedición correlacionada, construida durante el proceso de medición, se utiliza entonces para clasificar los eventos transitorios, como el que se muestra al final de la submedición de 10 s, entre 8 s y 10 s en la Fig. 1b, y para analizarlos por separado a los datos restantes de estado estable (0 s a <8 s en la Fig. 1c). El resultado se suma por separado como un par de correlogramas transitorios y de estado estacionario, que luego se reducen para obtener las distribuciones de tamaño de partículas transitorias y de estado estacionario. Es crucial, ya que todos los datos recogidos (transitorios y en estado estacionario) son analizados y reportados: ningún dato es rechazado u ocultado al usuario y una representación completa y no sesgada de cualquier resultado de la muestra, polidispersa o no, pero sin el aumento de las incertidumbres en las fracciones de interés en estado estacionario en presencia de fuertes dispersores transitorios. Además, este proceso se ocupa intrínsecamente del caso límite en el que existen tantos agregados que debe considerarse que la fracción primaria de la muestra son estos componentes más grandes, es decir, los agregados se vuelven tan numerosos que su señal se convierte en la fracción de estado estacionario27.
También descubrimos que la clasificación y la reducción separada de las clases de estado transitorio y de estado estacionario basadas en subcortes de medición muy cortos y de una manera basada en las estadísticas de los propios datos, conduce a una minimización estadísticamente relevante de la variabilidad dentro de la clase de estado estacionario en tiempos de medición totales cortos que conducen directamente a un aumento de la precisión de los datos de DLS de estado estacionario, mientras que simultáneamente se reduce el tiempo de medición total para una muestra de buen comportamiento, en un orden de magnitud sobre los que se encuentran actualmente en los instrumentos disponibles en el mercado.
El desarrollo de la técnica se describe en el resto de esta sección utilizando mediciones de partículas de látex de poliestireno como sistema modelo de tamaños conocidos y dispersiones de lisozima como muestra frágil y de baja dispersión. En la sección 3 se describen varios casos prácticos que demuestran las ventajas de la técnica, y en la sección 4 se extraen conclusiones y se describen los métodos utilizados en la sección 5.
Métodos de análisis
Si bien la técnica es igualmente aplicable a las mediciones con correlación cruzada, la mayoría de los instrumentos disponibles en el mercado miden la función de autocorrelación g2(|q|;τ) de la serie temporal de fotones detectados y dispersados I(t), dada por,
donde τ es el tiempo de retardo, e I la intensidad medida en el detector en cuentas de fotones por segundo medidas en el tiempo t. ¡La función de correlación de primer orden, g1, se obtiene a partir de g2 a través de la relación de Siegert1 y normalmente se implementa un ajuste de cumulantes20 a g1 de forma que,
donde, \(\bar{{Gamma }\\}) es la tasa de decaimiento media y característica sobre todas las clases de tamaño de la muestra y \({\mu }{2}/{bar{Gamma }^{2}\},\) es el índice de polidispersidad de segundo orden (PdI) que describe la desviación de la función de correlación de un único decaimiento exponencial y proporciona una estimación de la varianza de la muestra. El coeficiente de difusión medio de z, Dz, viene dado entonces por la relación
y el diámetro hidrodinámico medio ZAve, calculado a partir de Dz, utilizando el modelo de Stokes-Einstein para partículas esféricas en líquidos con bajo número de Reynolds, Ec. 6, donde η es la viscosidad del dispersante, kB, la constante de Boltzmann y T, la temperatura del dispersante en Kelvin,
Una estimación de la distribución del tamaño de las partículas a mayor resolución que los cumulantes se da ajustando la función de correlación a una suma sobre múltiples exponenciales, Esto se consigue mediante una serie de métodos de inversión posibles, como el CONTIN28 o los mínimos cuadrados no negativos (NNLS), que son dos ejemplos comúnmente implementados y diseñados para hacer frente a la naturaleza generalmente mal planteada de dicho ajuste. Para el caso polidisperso, la Ec. 4 se convierte entonces en una distribución continua sobre D, a partir de la cual se puede calcular un rango de radios o diámetros de partículas contribuyentes,
Longitud de submedición y mejora de la precisión
La serie temporal de llegada de fotones se divide en pequeñas submediciones que luego se correlacionan individualmente y se reducen a propiedades de la muestra como se describe en la sección 2.1 y las distribuciones de estas cantidades derivadas, construidas a medida que avanza la medición, se utilizan entonces para identificar los datos transitorios y de estado estacionario.
La incertidumbre experimental en las cantidades derivadas de los datos DLS (ZAve, PdI, tasa de recuento, etc.) a lo largo de múltiples mediciones es inversamente proporcional a la raíz cuadrada del número de mediciones de la manera habitual, sin embargo, la relación entre el ruido en el correlograma dentro de cada submedición y la longitud de la submedición es menos evidente. Recordando la Fig. 1a, el volumen muestreado; la región subtendida por la intersección del láser iluminador y las trayectorias de detección, ambas de anchura finita; es significativamente menor que el volumen total de muestra en la cubeta, por lo tanto, a medida que el tiempo de integración aumenta la probabilidad de que un agregado se difunda dentro o fuera del volumen de detección aumenta y en esta sección se trata de explorar cómo las cantidades derivadas, ZAve y PdI se comportan en función de la duración de la submedición. El objetivo es optimizar la duración para mantener o mejorar la relación señal-ruido, pero en una longitud de submedición que permita simultáneamente que el algoritmo de selección siga siendo lo suficientemente sensible como para clasificar cada submedición como de estado estacionario o transitorio.
La figura 2a muestra la ZAve y la PdI para una serie de mediciones de un látex de poliestireno con un rango de tamaño hidrodinámico especificado por el fabricante como 58-68 nm (Thermo-Scientific, 3060 A), dispersado en 150 mM de NaCl hecho con agua DI filtrada de 200 nm (18.2 MΩ).
Nótese la reducción de la desviación estándar sobre la ZAve medida de 11 nm a 0,32 nm entre los casos de 1 × 10 s y 10 × 1 s, resaltada en azul, lo que indica que la precisión de la medición DLS se incrementa simplemente utilizando un promedio sobre submediciones más cortas pero para el mismo tiempo de integración total. Puede observarse un comportamiento similar en las mediciones de partículas de diferentes tamaños (véase la información complementaria).
El mecanismo que subyace a esta mejora puede explicarse considerando la forma de la función de correlación cuando se detecta un dispersor transitorio. La función de correlación es aproximadamente un decaimiento exponencial, con pequeñas perturbaciones debidas a varias fuentes de ruido, incluyendo después de la pulsación, el ruido de disparo, los errores de normalización y, por supuesto, la detección de partículas de dispersión de diferente tamaño21. El registro de la dispersión de la luz correlacionada en intervalos de tiempo cortos puede aumentar la amplitud de estas perturbaciones, pero el promedio de varias funciones de correlación de submedición, cada una de las cuales contiene ruido aleatorio, significa que el resultado final contiene menos ruido que una función de correlación registrada con la misma duración pero tratada como una traza continua. Este es un resultado extremadamente importante, ya que indica que nada más que una longitud de submedición cuidadosamente derivada produce una mejora de 3 veces en la precisión para esta modalidad de medición primaria a nanoescala.
Además, como mostramos en la siguiente sección, la longitud de submedición más corta también permite la clasificación de los datos de estado estacionario y transitorio, lo que demostraremos que resuelve una crítica primaria de la DLS: la proporcionalidad de la intensidad dispersa a la sexta potencia del radio de la partícula, lo que significa que los datos del componente primario de la partícula pueden estar sesgados o incluso enmascarados por la presencia de partículas grandes raras. En términos prácticos, esto impone la necesidad de una preparación escrupulosa de la muestra para evitar incertidumbres significativas en el resultado de la medición causadas por fracciones más grandes, a menudo no deseadas, procedentes de desechos de filtros, agregados transitorios o material de laboratorio mal limpiado, por ejemplo.
Clasificación de datos transitorios y de estado estacionario
Como se ha dicho anteriormente, muchos instrumentos comerciales de DLS utilizan un tiempo de submedición del orden de 10 segundos con varias de estas mediciones que se combinan siguiendo algún tipo de algoritmo de rechazo de polvo, sin embargo significa que grandes secciones de datos fiables pueden omitirse de una medición si una submedición contiene una breve ráfaga de dispersión de un evento transitorio. Esto indica que la clasificación de los datos estables y transitorios también podría lograrse utilizando tiempos de correlación más cortos y esto también podría hacer que la comparación entre las submediciones fuera más precisa, ya que los efectos de la dispersión transitoria no se promediarían. Los resultados de una serie de estas submediciones podrían combinarse analizando el promedio de las funciones de autocorrelación antes de realizar el análisis de tamaño, como se explica en la Sección 2.2.
Todas las submediciones registradas se clasifican entonces en conjuntos que describen el estado estacionario y la transitoriedad del sistema o, en otras palabras, los que son representativos de la muestra subyacente de estado estacionario y los que están asociados a una ráfaga de dispersión espuria, como se muestra en la Fig. 1c.
La identificación de las submedidas transitorias debe derivarse de las características de la muestra investigada para evitar la necesidad de umbrales definidos arbitrariamente que pueden ser específicos de la muestra. Al reducir cada una de las submediciones cotejadas individualmente, se dispone de una serie de posibles parámetros que pueden utilizarse como base para la comparación de conjuntos de submediciones, y parece lógico basar esta comparación en un análisis del tamaño de las funciones de autocorrelación medidas.
El análisis de los acumuladores supone que una muestra está monodispersa, lo que significa que tanto la ZAve como la PdI darán medidas continuas y sensibles del tamaño de las partículas que podemos utilizar para comparar submediciones. El PdI describe la desviación de la función de correlación de un decaimiento exponencial perfecto. Es una medida directa de la perturbación de la función de correlación y es especialmente sensible al ruido en la línea de base de la función de correlación que es una consecuencia típica de la dispersión transitoria y, como mostraremos, es por lo tanto un parámetro ideal para utilizar para comparar las funciones de correlación de una pluralidad de submediciones.
Un ejemplo de tal relación se muestra en la Fig. 2b, donde las muestras contienen material agregado o están dopadas con una mezcla de esferas de látex (ver información suplementaria). Aquí, las muestras que contienen trazas de agregados muestran una correlación positiva entre el tamaño medido y el PdI, con algunos puntos de datos agrupados en un tamaño y un PdI consistentes, mientras que las muestras no dopadas muestran grupos de datos bien definidos. Por lo tanto, las submediciones transitorias pueden identificarse como aquellas que se presentan con un valor inesperado para el PdI. En este caso, inesperado significa que el PdI de una determinada submedición no es representativo de las submediciones en estado estacionario y, por tanto, es un valor atípico estadístico. Existen muchos métodos para identificar los valores atípicos estadísticos, cada uno de los cuales tiene puntos fuertes y débiles dependiendo de la naturaleza de la distribución de interés y del tamaño de la muestra.
La figura 3a muestra las distribuciones del PdI para dispersiones que contienen cantidades arbitrariamente pequeñas de material espurio, con distribuciones del PdI que varían en el centro y la anchura para las diferentes muestras. Dado que la PdI se limita, por definición, al intervalo y generalmente estará sesgada hacia valores mayores, los descriptores aritméticos de la distribución, como la media y la desviación estándar, no son apropiados.
Cuando el número de submediciones discretas es lo suficientemente grande, se puede utilizar un histograma de los datos para obtener una anchura de distribución (véase el ajuste gaussiano en la Fig. 3a), sin embargo, cuando el tamaño de la muestra es menor, los métodos de prueba de hipótesis numérica como los descritos por Dixon29 y Rosner30 pueden ser más apropiados, Fig. 3b.
Optimización del tamaño de la muestra
La eficiencia de cualquier método de identificación de valores atípicos estará acoplada tanto al número total de puntos de datos como al número de valores atípicos dentro de una distribución. Por ejemplo, la muestra bien preparada, monodispersa y estable que se muestra en la Fig. 2a demuestra que se puede informar de un tamaño fiable con tan sólo 10 submediciones promediadas de 1 s de duración, mientras que una muestra que produzca funciones de correlación más ruidosas, ya sea por una baja dispersión, por tener una polidispersión significativa o por contener dispersores espurios, requerirá un mayor número de submediciones para dar más confianza a la identificación de valores atípicos. Una vez más, esto motiva un enfoque impulsado por la muestra en el que el número de submediciones responde a la calidad de los datos recogidos de la muestra.
Posibles enfoques podrían ser el control de la dispersión de los resultados de las submediciones individuales o la realización de pruebas de normalidad en estos valores, sin embargo, esto normalmente impulsaría la medición para adquirir un mayor número de puntos de datos. Un enfoque alternativo consiste en controlar continuamente el posible resultado final a medida que avanza la medición, cuando las estadísticas de la medición están convenientemente bien definidas, y las perturbaciones en la función de correlación están convenientemente bien promediadas en el resultado final, el tamaño notificado debería ser constante dentro de cierto grado de variación natural. Una vez más, se pueden utilizar pruebas de hipótesis para comparar el resultado que se obtendría de la medición tras la recopilación de submediciones adicionales, y si estos valores coinciden, entonces la muestra está adecuadamente caracterizada, y la medición puede finalizar en consecuencia. Se puede añadir más confianza a este método comprobando si hay causas especiales en los resultados a lo largo de la medición, como tendencias y oscilaciones.
Un ejemplo de este enfoque se muestra en la Fig. 4a para una muestra de lisozima, con una subestimación inicialmente errónea del tamaño de las partículas, pero que se estabiliza con la recogida de submediciones posteriores. Obsérvese también que la identificación de valores atípicos se repite durante la medición a medida que se recogen más datos, lo que significa que un evento transitorio se identificará como tal, independientemente del momento en que se haya registrado en el proceso de medición. Esto supone una mejora con respecto a otros métodos que pueden comparar datos basados en una medición inicial, que puede o no haber sido representativa de la muestra real.
Esto da lugar a una mayor eficiencia en la recopilación de datos sin la intervención del usuario y las mediciones de muestras estables que requieren la recopilación de menos datos pueden, por lo tanto, completarse en un tiempo más corto, mientras que las muestras complejas que muestran algún nivel de incertidumbre tendrán automáticamente una mayor cantidad de datos recopilados para producir un resultado con una confianza comparable.
Optimización del muestreo
Como se describió en la sección 2.2, hay varias fuentes de ruido en la función de correlación y la amplitud de este ruido puede depender temporalmente. Mientras que en la sección 2.2 se ha defendido el uso de tiempos de correlación cortos, hay casos en los que esto puede ser perjudicial.
Para una muestra que demuestra propiedades de baja dispersión, ya sea a través de una pequeña sección transversal de dispersión, una baja concentración de la muestra, una pequeña diferencia en el índice de refracción con el dispersante circundante o una combinación de los mismos, puede haber menos fotones detectados para poblar los bines de tiempo del correlacionador y esto se manifestará típicamente como ruido en la línea de base de la función de correlación en tiempos de retardo del correlacionador más largos, τ.
Los instrumentos comerciales de dispersión de luz suelen variar una serie de ajustes instrumentales como parte del procedimiento de configuración de la medición, como la optimización de la posición de medición dentro de la cubeta para minimizar la longitud de la trayectoria óptica del láser entrante y la trayectoria de detección de la dispersión saliente para evitar la dispersión múltiple de las muestras concentradas cerca del centro de la cubeta o, a la inversa, para evitar la dispersión estática de la pared celular a bajas concentraciones de la muestra y la optimización de la tasa de recuento de fotones detectados para permanecer dentro del rango lineal del detector. Estas optimizaciones instrumentales están generalmente diseñadas para permitir a los usuarios que no están familiarizados con la interpretación de los datos de dispersión de luz obtener los resultados más fiables en una amplia gama de concentraciones y tamaños de muestra, pero dicha optimización no se ha aplicado previamente al tiempo de correlación. Un ejemplo de esto se muestra en la Fig. 4b, con distribuciones de tamaño de partículas mostradas para una muestra de 1,0 mg/mL de lisozima medida a un ángulo de detección de 90°. La PSD reportada para un tiempo de correlación corto muestra un aparente componente de tamaño grande además del pico principal de la partícula). Si esto fuera un efecto real de la muestra, las mediciones con un ángulo de detección menor habrían mostrado el mismo componente grande. Las mediciones de dispersión hacia delante para la misma muestra fueron monomodales (véase SI) y la ausencia del pico en los datos medidos en otros ángulos de detección (información suplementaria) indica que puede haberse debido a una combinación de una muestra de baja dispersión y una dispersión estática, posiblemente, de la cubeta de muestra desechable. Aunque la intensidad de la luz incidente puede optimizarse, algunas muestras, como las proteínas de baja concentración, pueden dispersar un número subóptimo de fotones, incluso sin atenuación del láser de iluminación, lo que significa que los procesos operativos estándar para un sistema comercial de dispersión de luz dinámica pueden no ser óptimos y pueden utilizarse tiempos de correlación más largos24 , siendo necesario un amplio desarrollo del método para determinar estos ajustes. Por lo tanto, puede introducirse otra adaptación de la medición impulsada por la muestra, mediante la cual el instrumento utiliza la longitud de submedición más corta posible que producirá un número óptimo de fotones a medir (véase SI) y esto se describe en el esquema de medición optimizado en la siguiente sección.
El esquema de medición óptimo
El esquema de medición óptimo se compone del siguiente proceso:
- (1)
Optimización de la posición de medición y la intensidad de la luz incidente.
- (2)
Si el nivel de dispersión detectado es bajo incluso con la menor atenuación del láser, se optimiza la longitud de la submedición para reducir el ruido de la línea de base.
- (3)
Se reúnen las submediciones y se analizan utilizando el análisis de cumulantes.
- (4)
Se comparan los valores PdI de estos análisis y se identifican los valores atípicos.
- (5)
Se promedian las funciones de correlación de las submediciones en estado estacionario y se analiza el resultado para obtener una ZAve.
- (6)
Se registran y analizan más submediciones como se ha indicado anteriormente y se registra una nueva respuesta final ZAve.
- (7)
Este proceso se repite hasta que los dos resultados anteriores de ZAve de los pasos (5) y (6) coincidan utilizando una prueba de hipótesis.
- (8)
Todas las submediciones transitorias también se promedian y analizan para proporcionar información sobre la componente transitoria.
Dada la respuesta del algoritmo anterior a las características de la muestra, con la longitud de la submedición, la cantidad de datos recogidos y las submediciones que se omiten del resultado del estado estacionario, todo ello dependiente de la muestra y de la calidad de los datos, el método se denomina Correlación Adaptativa, inspirándose en el uso de la Óptica Adaptativa en astronomía31, donde la retroalimentación de datos se utiliza para corregir las aberraciones observadas.
Leave a Reply