Improved Dynamic Light Scattering using an adaptive and statistically driven time resolved treatment of correlation data
Neste trabalho descrevemos e avaliamos um novo processo de medição e tratamento de dados DLS que corta os dados de tempo de chegada dos fótons do detector em blocos muito pequenos, cada um dos quais é correlacionado como uma sub-medição separada. A distribuição estatística de um número de quantidades derivadas de cada submedida correlacionada, construída durante o processo de medição, é então utilizada para classificar eventos transitórios, como o mostrado no final da submedição de 10 s, entre 8 s e 10 s na Fig. 1b, e para analisá-los separadamente para os dados de estado estacionário restantes (0 s a <8 s na Fig. 1c). O resultado é então somado separadamente como um par de correlogramas em estado transiente e em estado estacionário, que são então reduzidos para render as distribuições de tamanho de partícula em estado transiente e em estado estacionário. Crucialmente, uma vez que todos os dados coletados (transitórios e em estado estacionário) são analisados e reportados: nenhum dado é rejeitado ou escondido do usuário e uma representação completa e não distorcida de qualquer resultado amostral, polidispersa ou não, mas sem o aumento das incertezas nas frações de interesse em estado estacionário na presença de fortes dispersores transitórios. Além disso, este processo lida intrinsecamente com o caso limite em que existem tantos agregados que a fração primária da amostra deve ser considerada como estes componentes maiores, ou seja, os agregados tornam-se tão numerosos que seu sinal se torna a fração de estado estacionário27.
A classificação e redução separada das classes de estado estacionário e transiente com base em subexecutórios de medição muito curtos e de forma baseada nas estatísticas dos próprios dados, leva a uma minimização estatisticamente relevante da variabilidade dentro da classe de estado estacionário ao longo de tempos de medição totais curtos, levando directamente a um aumento da precisão dos dados DLS de estado estacionário, reduzindo simultaneamente o tempo total de medição de uma amostra bem comportada, por uma ordem de grandeza acima dos actualmente encontrados nos instrumentos comercialmente disponíveis.
O desenvolvimento da técnica é descrito no resto desta secção utilizando medições de partículas de látex de poliestireno como um sistema modelo de tamanhos conhecidos e dispersões de lisozima como uma amostra frágil e de baixa dispersão. Vários estudos de caso demonstrando os benefícios da técnica são descritos na Seção 3 com conclusões tiradas na Seção 4 e os métodos utilizados, descritos na Seção 5.
Métodos de análise
Apesar de a técnica ser igualmente aplicável a medidas correlacionadas, a maioria dos instrumentos comercialmente disponíveis mede a função de autocorrelação g2(|q|;τ) da série temporal de fótons disperso detectados I(t) dada por,
onde τ é o tempo de atraso, e eu a intensidade medida no detector em contagens de fotões por segundo medidas no tempo t. A função de correlação de primeira ordem, g1, é recuperada de g2 através da relação Siegert1 e um cumulants-fit20 a g1 é normalmente implementado de tal forma que,
onde, {\i1}(Gamma {\i},{\i}) é a taxa de decaimento média e característica de todas as classes de tamanho na amostra e na Gamma,\)é o índice de polidispersidade de segunda ordem (PdI) que descreve a saída da função de correlação de uma única decadência exponencial fornecendo uma estimativa da variância da amostra. O coeficiente de difusão z-average, Dz, é então dado pela relação
e o diâmetro hidrodinâmico médio, ZAve, calculado a partir de Dz, utilizando o modelo Stokes-Einstein para partículas esféricas em líquidos com baixo número de Reynolds, Eq. 6, onde η é a viscosidade do dispersante, kB, a constante de Boltzmann e T, a temperatura do dispersante em Kelvin,
Uma estimativa da distribuição do tamanho das partículas para uma resolução maior do que a dos comulantes é dada encaixando a função de correlação a uma soma em múltiplos exponenciais, realizados por vários métodos de inversão possíveis, como o CONTIN28 ou os mínimos quadrados não negativos (NNLS), que são dois exemplos comumente implementados para lidar com a natureza geralmente mal posicionada de um tal ajuste. Para o caso polidisperso, Eq. 4 torna-se então uma distribuição contínua sobre D, a partir da qual um intervalo de raios ou diâmetros de partículas contribuintes pode ser calculado,
Sub comprimento de medição e melhor precisão
A série cronológica de chegada dos fótons é dividida em pequenas submedidas que são então individualmente correlacionadas e reduzidas em propriedades da amostra como descrito na Secção 2.1 e as distribuições destas grandezas derivadas, construídas à medida que a medição prossegue, são então utilizadas para identificar dados transitórios e em estado estacionário.
A incerteza experimental em quantidades derivadas dos dados DLS (ZAve, PdI, taxa de contagem, etc.) em múltiplas medições é inversamente proporcional à raiz quadrada do número de medições da forma usual, no entanto, a relação entre o ruído no correlograma dentro de cada submedida e o comprimento da submedida é menos óbvia. Recordando a Fig. 1a, o volume amostrado; a região subtendida pela intersecção do laser iluminante e os caminhos de detecção, ambos de largura finita; é significativamente menor do que o volume total da amostra na cubeta, portanto, como o tempo de integração aumenta a probabilidade de um agregado difundir para dentro ou fora do volume de detecção aumenta e nesta seção é para explorar como as quantidades derivadas, ZAve e PdI se comportam em função da duração da submedida. O objetivo é otimizar a duração a fim de manter ou melhorar o sinal-para-ruído, mas em um comprimento de submedida que simultaneamente permita que o algoritmo de seleção permaneça suficientemente responsivo para classificar cada submedida como estado estável ou transitório.
Figure 2a mostra o ZAve e PdI para uma série de medições de um látex de poliestireno com uma faixa de tamanho hidrodinâmico especificada pelo fabricante como 58-68 nm (Termo-científico, 3060 A), disperso em NaCl de 150 mM feito com água DI filtrada de 200 nm (18.2 MΩ).
Note a redução do desvio padrão sobre o ZAve medido de 1.1 nm a 0,32 nm entre os casos de 1 × 10 s e 10 × 1 s, destacado em azul indicando que a precisão da medição DLS é aumentada simplesmente usando uma média sobre submedidas mais curtas, mas para o mesmo tempo total de integração. Comportamento semelhante pode ser visto em medições de partículas de tamanhos diferentes (ver a informação suplementar).
O mecanismo por trás desta melhoria pode ser explicado considerando a forma da função de correlação quando um dispersor transitório é detectado. A função de correlação é aproximadamente uma decadência exponencial, com pequenas perturbações devidas a várias fontes de ruído, incluindo após pulsação, ruído de disparo, erros de normalização e, claro, a detecção de partículas dispersas de tamanhos diferentes21. O registro da dispersão de luz correlacionada em intervalos curtos de tempo pode aumentar a amplitude dessas perturbações, mas a média de várias funções de correlação de submedidas, cada uma contendo ruído aleatório, significa que o resultado final contém menos ruído do que uma função de correlação registrada com a mesma duração, mas tratada como um traço contínuo. Este é um resultado extremamente importante, pois indica que nada mais do que um comprimento de submedida cuidadosamente derivado produz uma melhoria de 3 vezes na precisão para esta modalidade de medição primária de nanoescala.
Outra, como mostramos na próxima secção, o menor comprimento de submedida também permite a classificação de dados em estado estacionário e transientes, o que demonstraremos resolve uma crítica primária ao DLS: a proporcionalidade da intensidade dispersa à sexta potência do raio da partícula, o que significa que os dados da componente da partícula primária podem ser distorcidos ou mesmo mascarados pela presença de partículas grandes raras. Em termos práticos, isto impõe a necessidade de um escrupuloso preparo da amostra para evitar incertezas significativas no resultado da medição, causadas por frações maiores, muitas vezes indesejadas, de filtros estragados, agregados transitórios ou artigos de laboratório mal limpos, por exemplo.
Classificação de dados transitórios e de estado estacionário
Como foi dito anteriormente, muitos instrumentos comerciais de DLS usam um tempo de submedida da ordem de 10 segundos, com várias dessas medições sendo combinadas seguindo alguma forma de algoritmo de rejeição de poeira, no entanto, significa que grandes seções de dados confiáveis podem ser omitidas de uma medição se uma submedida contiver um pequeno estouro de dispersão de um evento transitório. Isso indica que uma classificação de dados em estado estacionário e transientes também pode ser obtida usando tempos de correlação mais curtos e isso também pode tornar a comparação entre as submedidas mais precisa, já que os efeitos da dispersão transitória não seriam calculados como média. Os resultados de uma série dessas submedidas poderiam então ser combinados através da análise da média das funções de autocorrelação antes de realizar a análise de tamanho, como discutido na Seção 2.2.
Todas as submedidas registradas são então classificadas em conjuntos que descrevem o estado estacionário e a transiência do sistema ou, em outras palavras, aquelas que são representativas da amostra subjacente, em estado estacionário e aquelas que estão associadas a uma explosão de dispersão espúria, como mostrado na Fig. 1c.
A identificação de submedidas transitórias deve ser derivada das características da amostra em investigação para evitar a necessidade de limiares arbitrariamente definidos que podem ser específicos da amostra. Reduzindo cada uma das submedidas coletadas individualmente, uma série de parâmetros possíveis estão disponíveis que podem ser usados como base para comparação de conjuntos de submedidas e parece lógico basear esta comparação em uma análise de tamanho das funções de autocorrelação medidas.
Análise de fumulantes assume que uma amostra é monodispersível, o que significa que tanto o ZAve como o PdI darão medidas contínuas e sensíveis do tamanho da partícula que podemos usar para comparar as submedidas. O PdI descreve o desvio da função de correlação de uma decadência exponencial perfeita. É uma medida direta da perturbação da função de correlação e é especialmente sensível ao ruído na linha de base da função de correlação que é uma consequência típica da dispersão transitória e, como mostraremos, é portanto um parâmetro ideal para usar para comparar as funções de correlação a partir de uma pluralidade de submedidas.
Um exemplo de tal relação é mostrado na Fig. 2b, onde as amostras contêm material agregado ou são dopadas com uma mistura de esferas de látex (ver informação suplementar). Aqui, amostras contendo quantidades vestigiais de agregado mostram uma correlação positiva entre o tamanho medido e PdI, com alguns pontos de dados agrupados em um tamanho consistente e PdI, enquanto que amostras não agrupadas mostram clusters de dados bem definidos. Submedidas transitórias podem, portanto, ser identificadas como aquelas que apresentam um valor inesperado para o PdI. Neste caso, inesperado significa que o PdI de uma determinada submedida não é representativo das submedidas em estado estacionário e é, portanto, um valor estatisticamente mais alto. Existem muitos métodos para identificar outliers estatísticos, cada um com pontos fortes e fracos dependendo da natureza da distribuição de interesse e do tamanho da amostra.
Figure 3a mostra as distribuições do PdI para dispersões contendo arbitrariamente pequenas quantidades de material espúrio, com distribuições do PdI variando no centro e largura para as diferentes amostras. Dado que o PdI é limitado, por definição, ao intervalo e geralmente será inclinado para valores maiores, os descritores aritméticos da distribuição, como a média e o desvio padrão, não são apropriados.
Onde o número de submedidas discretas é suficientemente grande um histograma dos dados pode ser usado para derivar uma largura de distribuição (veja Gaussian encaixa na Fig. 3a), porém quando o tamanho da amostra é menor, métodos de teste de hipóteses numéricas como os descritos por Dixon29 e Rosner30 podem ser mais apropriados, Fig. 3b.
Optimização do tamanho da amostra
A eficiência de qualquer método de identificação outlier será acoplada tanto ao número total de pontos de dados quanto ao número de outliers dentro de uma distribuição. Por exemplo, a amostra bem preparada, monodispersa e estável mostrada na Fig. 2a demonstra que um tamanho confiável pode ser relatado para apenas 10 submedidas médias de 1 s de duração, enquanto uma amostra que produz funções de correlação mais ruidosas, seja através de baixa dispersão, com polidispersibilidade significativa ou por conter dispersores espúrios, exigirá um maior número de submedidas a fim de dar mais confiança na identificação de outliers. Mais uma vez, isto motiva uma abordagem orientada para a amostra, pela qual o número de submedidas é responsivo à qualidade dos dados coletados da amostra.
As abordagens possíveis podem ser monitorar a dispersão dos resultados das submedidas individuais ou realizar testes de normalidade sobre esses valores, no entanto, isso normalmente levaria a medida a adquirir um maior número de pontos de dados. Uma abordagem alternativa é monitorar continuamente o resultado final à medida que a medição avança, onde as estatísticas da medição são adequadamente definidas, e as perturbações na função de correlação são adequadamente calculadas a partir do resultado final, o tamanho reportado deve tornar-se constante até dentro de algum grau de variação natural. Novamente, testes de hipóteses podem ser usados para comparar o resultado da medição após a coleta de submedidas adicionais, e se esses valores concordarem, então a amostra é adequadamente caracterizada, e a medição pode terminar de acordo. Pode-se adicionar mais confiança a este método verificando causas especiais nos resultados ao longo da medição, tais como tendência e oscilação.
Um exemplo desta abordagem é mostrado na Fig. 4a para uma amostra de lisozima, com uma subestimação inicialmente errada do tamanho da partícula relatada, mas que se estabiliza com a coleta de submedidas subsequentes. Note também que a identificação outlier é repetida durante a medição à medida que mais dados são recolhidos, o que significa que um evento transitório será identificado como tal, independentemente de quando no processo de medição foi registado. Esta é uma melhoria em relação a outros métodos que podem comparar dados baseados em uma medição inicial, que pode ou não ter sido representativa da amostra verdadeira.
>
Isso resulta em uma maior eficiência na coleta de dados sem intervenção do usuário e medições de amostras estáveis que requerem menos dados a serem coletados podem, portanto, ser completadas em um tempo mais curto, enquanto amostras complexas que mostram algum nível de incerteza terão automaticamente uma maior quantidade de dados coletados para produzir um resultado com confiança comparável.
Otimização da amostragem
Como descrito na Secção 2.2, existem várias fontes de ruído na função de correlação e a amplitude deste ruído pode ser temporalmente dependente. Embora a Seção 2.2 tenha argumentado para o uso de tempos de correlação curtos, há casos em que isso pode ser prejudicial.
Para uma amostra que demonstra propriedades de dispersão baixas, através de uma pequena seção transversal de dispersão, baixa concentração da amostra, pequena diferença no índice de refração para o dispersante ao redor ou uma combinação deles, pode haver menos fótons detectados para povoar as caixas de tempo do correlacionador e isso normalmente se manifestará como ruído na linha de base da função de correlação em tempos de atraso mais longos do correlacionador, τ.
Os instrumentos de dispersão de luz comercial normalmente variam uma série de configurações instrumentais como parte do procedimento de configuração da medição, tais como a optimização da posição de medição dentro da cubeta para minimizar o comprimento do percurso óptico do laser de entrada e o percurso de detecção de dispersão de saída para evitar a dispersão múltipla de amostras concentradas perto do centro da cubeta ou, inversamente, para evitar a dispersão estática da parede celular a baixas concentrações de amostras e a optimização da taxa de contagem de fotões detectados para se manter dentro do intervalo linear do detector. Estas optimizações instrumentais são geralmente concebidas para permitir aos utilizadores que não estão familiarizados com a interpretação dos dados de dispersão de luz obterem os resultados mais fiáveis numa vasta gama de concentrações e tamanhos de amostras, mas tal optimização não foi aplicada anteriormente ao tempo de correlação. Um exemplo disso é mostrado na Fig. 4b, com distribuições de tamanho de partícula mostradas para uma amostra de lisozima de 1,0 mg/mL medida em um ângulo de detecção de 90°. O PSD relatado para um curto tempo de correlação mostra um componente aparente de grande tamanho, além do pico principal da partícula). Se este fosse um efeito real da amostra, as medições com um ângulo de detecção menor teriam mostrado o mesmo componente grande. As medidas de dispersão para a mesma amostra foram monomodais (ver SI) e a ausência do pico nos dados medidos em outros ângulos de detecção (Informação suplementar) indica que pode ter sido devido a uma combinação de uma amostra de dispersão baixa e dispersão estática, possivelmente, a partir da cubeta descartável da amostra. Embora a intensidade da luz incidente possa ser otimizada, algumas amostras, como as proteínas de baixa concentração, podem espalhar um número sub otimizado de fótons, mesmo sem atenuação do laser iluminante, o que significa que os processos operacionais padrão para um sistema comercial de dispersão dinâmica de luz podem não ser ótimos e que podem ser usados tempos de correlação mais longos24 com o extenso desenvolvimento de métodos necessários para determinar essas configurações. Por isso, pode ser introduzida uma outra adaptação da medição por amostragem, em que o instrumento utiliza o menor comprimento de submedida possível, que irá produzir um número óptimo de fotões a medir (ver SI) e isto é descrito no esquema de medição optimizado na próxima secção.
O esquema de medição optimizado
O esquema de medição optimizado é composto pelo seguinte processo:
- (1)
Optimização da posição de medição e da intensidade da luz incidente.
- (2)
Se o nível de dispersão detectado for baixo, mesmo com a menor atenuação laser, o comprimento da submedida é optimizado para reduzir o ruído de base.
- (3)
As submedidas são recolhidas e analisadas utilizando a análise de cumulantes.
- (4)
Os valores PdI destas análises são comparados e os valores aberrantes são identificados.
- (5)
As funções de correlação das submedidas em estado estacionário são médias, e o resultado analisado para relatar um ZAve.
- (6)
Outras submedidas são registradas e analisadas como acima, e uma nova resposta final ZAve é registrada.
- (7)
Este processo é repetido até que os dois resultados ZAve anteriores dos passos (5) e (6) concordem usando um teste de hipóteses.
- (8)
Todas as submedidas transitórias são também calculadas como média e analisadas para fornecer informações sobre o componente transiente.
Dada a resposta do algoritmo acima às características da amostra, com comprimento de submedida, quantidade de dados coletados e quais submedidas a omitir do resultado do estado estacionário sendo todas dependentes da amostra e da qualidade dos dados, o método é chamado de Correlação Adaptativa, inspirando-se no uso da Óptica Adaptativa em astronomia31, onde o feedback dos dados é usado para corrigir as aberrações observadas.
Leave a Reply