Amélioration de la diffusion dynamique de la lumière à l’aide d’un traitement adaptatif et statistiquement résolu dans le temps des données de corrélation
Dans ce travail, nous décrivons et évaluons un nouveau processus de mesure et de traitement des données de DLS qui découpe les données de temps d’arrivée des photons du détecteur en très petits blocs, dont chacun est corrélé comme une sous-mesure séparée. La distribution statistique d’un certain nombre de quantités dérivées de chaque sous-mesure corrélée, établie au cours du processus de mesure, est ensuite utilisée pour classer les événements transitoires, tels que celui illustré à la fin de la sous-mesure de 10 s, entre 8 s et 10 s sur la figure 1b, et pour les analyser séparément des données de régime permanent restantes (0 s à <8 s sur la figure 1c). Le résultat est ensuite additionné séparément sous la forme d’une paire de corrélogrammes en régime transitoire et en régime permanent, qui sont ensuite réduits pour donner les distributions de taille des particules en régime transitoire et en régime permanent. Il est important de noter que toutes les données collectées (transitoires et statiques) sont analysées et rapportées : aucune donnée n’est rejetée ou cachée à l’utilisateur et une représentation complète et non biaisée des résultats de tout échantillon, polydispersé ou non, mais sans les incertitudes accrues dans les fractions statiques d’intérêt en présence de diffuseurs transitoires forts. En outre, ce procédé traite intrinsèquement le cas limite où il existe tant d’agrégats que la fraction primaire de l’échantillon doit être considérée comme étant ces composants plus grands, c’est-à-dire que les agrégats deviennent si nombreux que leur signal devient la fraction d’état d’équilibre27.
Nous constatons également que la classification et la réduction séparée des classes d’état transitoire et d’état stationnaire basées sur des sous-courses de mesure très courtes et d’une manière basée sur les statistiques des données elles-mêmes, conduit à une minimisation statistiquement pertinente de la variabilité au sein de la classe d’état stationnaire sur des temps de mesure totaux courts conduisant directement à une augmentation de la précision des données DLS d’état stationnaire tout en réduisant simultanément le temps de mesure total pour un échantillon se comportant bien, d’un ordre de grandeur par rapport à ceux que l’on trouve actuellement dans les instruments disponibles dans le commerce.
Le développement de la technique est décrit dans le reste de cette section en utilisant des mesures de particules de latex de polystyrène comme système modèle de tailles connues et des dispersions de lysozyme comme échantillon fragile à faible diffusion. Un certain nombre d’études de cas démontrant les avantages de la technique sont décrites dans la section 3 avec des conclusions tirées dans la section 4 et les méthodes utilisées, décrites dans la section 5.
Méthodes d’analyse
Alors que la technique est également applicable aux mesures à corrélation croisée, la plupart des instruments disponibles dans le commerce mesurent la fonction d’autocorrélation g2(|q|;τ) de la série temporelle de photons détectés et diffusés I(t) donnée par,
où τ est le temps de retard, et I l’intensité mesurée au détecteur en comptes de photons par seconde mesurée au temps t. La fonction de corrélation de premier ordre, g1, est récupérée à partir de g2 via la relation de Siegert1 et un ajustement des cumulants20 à g1 est couramment mis en œuvre de sorte que,
où, \(\bar{\Gamma }\,\) est le taux de décroissance moyen, caractéristique de toutes les classes de taille de l’échantillon et \({\mu }_{2}/{\bar{\Gamma }}^{2}\,\)est l’indice de polydispersité d’ordre 2 (PdI) qui décrit l’écart de la fonction de corrélation par rapport à une décroissance exponentielle unique fournissant une estimation de la variance de l’échantillon. Le coefficient de diffusion moyen en z, Dz, est alors donné par la relation
et le diamètre hydrodynamique moyen, ZAve, calculé à partir de Dz, en utilisant le modèle de Stokes-Einstein pour les particules sphériques dans les liquides à faible nombre de Reynolds, Eq. 6, où η est la viscosité du dispersant, kB, la constante de Boltzmann et T, la température du dispersant en Kelvin,
Une estimation de la distribution de taille des particules à plus haute résolution que les cumulants est donnée en ajustant la fonction de corrélation à une somme sur plusieurs exponentielles, accompli par un certain nombre de méthodes d’inversion possibles telles que CONTIN28 ou les moindres carrés non négatifs (NNLS), qui sont deux exemples couramment mis en œuvre conçus pour faire face à la nature généralement mal posée d’un tel ajustement. Pour le cas polydispersé, Eq. 4 devient alors une distribution continue sur D, à partir de laquelle une gamme de rayons ou de diamètres de particules contribuantes peut être calculée,
Longueur des sous mesures et précision améliorée
La série temporelle d’arrivée des photons est divisée en petites sous mesures qui sont ensuite corrélées individuellement et réduites en propriétés de l’échantillon comme décrit dans la section 2.1 et les distributions de ces quantités dérivées, construites au fur et à mesure de la mesure, sont ensuite utilisées pour identifier les données transitoires et stables.
L’incertitude expérimentale des quantités dérivées des données DLS (ZAve, PdI, taux de comptage, etc.) sur plusieurs mesures est inversement proportionnelle à la racine carrée du nombre de mesures de la manière habituelle, cependant, la relation entre le bruit dans le corrélogramme à l’intérieur de chaque sous mesure et la longueur de la sous mesure est moins évidente. En rappelant la figure 1a, le volume échantillonné, c’est-à-dire la région sous-tendue par l’intersection du laser d’éclairage et des trajets de détection, tous deux de largeur finie, est nettement plus petit que le volume total de l’échantillon dans la cuvette. Par conséquent, plus le temps d’intégration augmente, plus la probabilité qu’un agrégat diffuse dans le volume de détection ou en sorte augmente, et dans cette section, nous allons étudier comment les quantités dérivées, ZAve et PdI, se comportent en fonction de la durée de la sous-mesure. L’objectif est d’optimiser la durée afin de maintenir ou d’améliorer le rapport signal/bruit, mais dans une durée de sous mesure qui permet simultanément à l’algorithme de sélection de rester suffisamment réactif pour classer chaque sous mesure en état stable ou transitoire.
La figure 2a montre le ZAve et le PdI pour une série de mesures d’un latex de polystyrène dont la plage de taille hydrodynamique spécifiée par le fabricant est de 58-68 nm (Thermo-Scientific, 3060 A), dispersé dans du NaCl 150 mM réalisé avec de l’eau DI filtrée 200 nm (18.2 MΩ).
Notez la réduction de l’écart type sur la ZAve mesurée de 1.1 nm à 0,32 nm entre les cas 1 × 10 s et 10 × 1 s, surligné en bleu indiquant que la précision de la mesure DLS est augmentée en utilisant simplement une moyenne sur des sous-mesures plus courtes mais pour le même temps d’intégration total. Un comportement similaire peut être observé dans les mesures de particules de différentes tailles (voir les informations supplémentaires).
Le mécanisme derrière cette amélioration peut être expliqué en considérant la forme de la fonction de corrélation lorsqu’un diffuseur transitoire est détecté. La fonction de corrélation est approximativement une décroissance exponentielle, avec de petites perturbations dues à plusieurs sources de bruit, y compris après l’impulsion, le bruit de tir, les erreurs de normalisation et, bien sûr, la détection de particules de diffusion de taille différente21. L’enregistrement de la diffusion de la lumière corrélée sur de courts intervalles de temps peut augmenter l’amplitude de ces perturbations, mais le calcul de la moyenne sur plusieurs fonctions de corrélation de sous-mesure, chacune contenant un bruit aléatoire, signifie que le résultat final contient moins de bruit qu’une fonction de corrélation enregistrée pendant la même durée mais traitée comme une trace continue. Ce résultat est extrêmement important car il indique que rien de plus qu’une longueur de sous-mesure soigneusement dérivée donne une amélioration de 3 fois la précision pour cette modalité de mesure primaire à l’échelle nanométrique.
De plus, comme nous le montrons dans la section suivante, la longueur de sous-mesure plus courte permet également la classification des données en régime permanent et transitoire, ce qui, nous le démontrerons, résout une critique primaire de la DLS : la proportionnalité de l’intensité diffusée à la sixième puissance du rayon de la particule, ce qui signifie que les données de la composante primaire de la particule peuvent être faussées ou même masquées par la présence de rares grandes particules. En termes pratiques, cela impose la nécessité d’une préparation scrupuleuse de l’échantillon pour éviter des incertitudes significatives dans le résultat de la mesure causées par des fractions plus grandes, souvent non désirées, provenant de déchets de filtres, d’agrégats transitoires ou de matériel de laboratoire mal nettoyé, par exemple.
Classification des données transitoires et stables
Comme indiqué précédemment, de nombreux instruments DLS commerciaux utilisent un temps de sous-mesure de l’ordre de 10 secondes, plusieurs de ces mesures étant combinées en suivant une certaine forme d’algorithme de rejet de la poussière, ce qui signifie toutefois que de grandes sections de données fiables peuvent être omises d’une mesure si une sous-mesure contient une courte salve de diffusion provenant d’un événement transitoire. Cela suggère qu’une classification des données en régime permanent et transitoire pourrait également être réalisée en utilisant des temps de corrélation plus courts, ce qui pourrait également rendre la comparaison entre les mesures secondaires plus précise, car les effets de la diffusion transitoire ne seraient pas atténués. Les résultats d’une série de ces sous mesures pourraient alors être combinés en analysant la moyenne des fonctions d’autocorrélation avant d’effectuer une analyse de taille, comme discuté dans la section 2.2.
Toutes les sous mesures enregistrées sont alors classées en ensembles qui décrivent l’état stable et la transience du système ou en d’autres termes ceux qui sont représentatifs de l’échantillon sous-jacent, stable, et ceux qui sont associés à une rafale de diffusion parasite comme le montre la figure. 1c.
L’identification des sous mesures transitoires doit être dérivée des caractéristiques de l’échantillon étudié pour éviter le besoin de seuils définis arbitrairement qui peuvent être spécifiques à l’échantillon. En réduisant individuellement chacune des sous mesures collationnées, on dispose d’un certain nombre de paramètres possibles qui peuvent servir de base à la comparaison d’ensembles de sous mesures et il semble logique de baser cette comparaison sur une analyse de taille des fonctions d’autocorrélation mesurées.
L’analyse des cumulants suppose qu’un échantillon est monodispersé, ce qui signifie que le ZAve et le PdI donneront tous deux des mesures continues et sensibles de la taille des particules que nous pouvons utiliser pour comparer les sous mesures. Le PdI décrit l’écart de la fonction de corrélation par rapport à une décroissance exponentielle parfaite. C’est une mesure directe de la perturbation de la fonction de corrélation et elle est particulièrement sensible au bruit dans la ligne de base de la fonction de corrélation qui est une conséquence typique de la diffusion transitoire et, comme nous le montrerons, c’est donc un paramètre idéal à utiliser pour comparer les fonctions de corrélation d’une pluralité de sous mesures.
Un exemple d’une telle relation est illustré à la figure 2b, où les échantillons contiennent soit un matériau agrégé, soit sont dopés avec un mélange de sphères de latex (voir les informations supplémentaires). Ici, les échantillons contenant des traces d’agrégat montrent une corrélation positive entre la taille mesurée et le PdI, avec certains points de données regroupés à une taille et un PdI cohérents, alors que les échantillons non dopés montrent des groupes de données bien définis. Les sous-mesures transitoires peuvent donc être identifiées comme celles qui présentent une valeur inattendue pour le PdI. Dans ce cas, inattendu signifie que le PdI d’une mesure secondaire donnée n’est pas représentatif des mesures secondaires en régime permanent et est donc une valeur statistique aberrante. De nombreuses méthodes existent pour identifier les valeurs aberrantes statistiques, chacune ayant des forces et des faiblesses en fonction de la nature de la distribution d’intérêt et de la taille de l’échantillon.
La figure 3a montre les distributions du PdI pour des dispersions contenant des quantités arbitrairement faibles de matériau parasite, les distributions du PdI variant en centre et en largeur pour les différents échantillons. Étant donné que la PdI est limitée, par définition, à l’intervalle et sera généralement biaisée vers des valeurs plus grandes, les descripteurs arithmétiques de la distribution tels que la moyenne et l’écart-type ne sont pas appropriés.
Lorsque le nombre de sous mesures discrètes est suffisamment grand, un histogramme des données peut être utilisé pour dériver une largeur de distribution (voir les ajustements gaussiens dans la Fig. 3a), cependant lorsque la taille de l’échantillon est plus petite, des méthodes numériques de test d’hypothèse telles que celles décrites par Dixon29 et Rosner30 peuvent être plus appropriées, Fig. 3b.
Optimisation de la taille de l’échantillon
L’efficacité de toute méthode d’identification des aberrations sera couplée à la fois au nombre total de points de données et au nombre d’aberrations dans une distribution. Par exemple, l’échantillon bien préparé, monodispersé et stable présenté sur la figure 2a démontre qu’une taille fiable peut être rapportée pour aussi peu que 10 sous-mesures moyennées d’une durée de 1 s, alors qu’un échantillon qui produit des fonctions de corrélation plus bruyantes, soit par une faible diffusion, soit en ayant une polydispersité significative ou en contenant des diffuseurs parasites, nécessitera un plus grand nombre de sous-mesures afin de donner plus de confiance à l’identification des valeurs aberrantes. Encore une fois, cela motive une approche axée sur l’échantillon dans laquelle le nombre de sous-mesures est sensible à la qualité des données recueillies à partir de l’échantillon.
Des approches possibles pourraient être de surveiller la dispersion des résultats des sous-mesures individuelles ou d’effectuer des tests de normalité sur ces valeurs, cependant cela conduirait généralement la mesure à acquérir un plus grand nombre de points de données. Une autre approche consiste à surveiller en permanence le résultat final potentiel au fur et à mesure de l’avancement de la mesure. Lorsque les statistiques de la mesure sont suffisamment bien définies et que les perturbations de la fonction de corrélation sont suffisamment bien réparties dans le résultat final, la taille rapportée devrait devenir constante avec un certain degré de variation naturelle. Là encore, des tests d’hypothèse peuvent être utilisés pour comparer le résultat escompté de la mesure après la collecte de sous-mesures supplémentaires, et si ces valeurs concordent, alors l’échantillon est correctement caractérisé, et la mesure peut se terminer en conséquence. Une confiance supplémentaire peut être ajoutée à cette méthode en vérifiant les causes spéciales dans les résultats tout au long de la mesure, telles que la tendance et l’oscillation.
Un exemple de cette approche est montré à la figure 4a pour un échantillon de lysozyme, avec une sous-estimation initialement erronée de la taille des particules rapportée, mais qui se stabilise avec la collecte de sous-mesures ultérieures. Notez également que l’identification des valeurs aberrantes est répétée au cours de la mesure, à mesure que les données sont recueillies, ce qui signifie qu’un événement transitoire sera identifié comme tel, quel que soit le moment du processus de mesure où il a été enregistré. Il s’agit d’une amélioration par rapport à d’autres méthodes qui peuvent comparer des données basées sur une mesure initiale, qui peut ou non avoir été représentative du véritable échantillon.
Il en résulte une efficacité de collecte de données améliorée sans intervention de l’utilisateur et les mesures d’échantillons stables qui nécessitent moins de données à collecter peuvent donc être réalisées en un temps plus court, tandis que les échantillons complexes qui présentent un certain niveau d’incertitude auront automatiquement une plus grande quantité de données collectées pour donner un résultat avec une confiance comparable.
Optimisation de l’échantillonnage
Comme décrit dans la section 2.2, il existe plusieurs sources de bruit dans la fonction de corrélation et l’amplitude de ce bruit peut dépendre du temps. Bien que la section 2.2 ait plaidé en faveur de l’utilisation de temps de corrélation courts, il existe des cas où cela peut être préjudiciable.
Pour un échantillon qui présente de faibles propriétés de diffusion, par le biais d’une petite section transversale de diffusion, d’une faible concentration de l’échantillon, d’une faible différence d’indice de réfraction par rapport au dispersant environnant ou d’une combinaison de ces éléments, il peut y avoir moins de photons détectés pour peupler les bins temporels du corrélateur et cela se manifestera typiquement sous forme de bruit dans la ligne de base de la fonction de corrélation à des temps de retard du corrélateur plus longs, τ.
Les instruments commerciaux de diffusion de la lumière font généralement varier un certain nombre de réglages instrumentaux dans le cadre de la procédure de mise en place de la mesure, tels que l’optimisation de la position de mesure dans la cuvette pour minimiser la longueur du chemin optique du laser entrant et du chemin de détection de la diffusion sortante afin d’éviter la diffusion multiple d’échantillons concentrés près du centre de la cuvette ou, inversement, pour éviter la diffusion statique de la paroi cellulaire à de faibles concentrations d’échantillons et l’optimisation du taux de comptage des photons détectés pour rester dans la plage linéaire du détecteur. Ces optimisations instrumentales sont généralement conçues pour permettre aux utilisateurs qui ne sont pas familiers avec l’interprétation des données de diffusion de la lumière de récupérer les résultats les plus fiables sur une large gamme de concentrations et de tailles d’échantillons, mais une telle optimisation n’a pas été appliquée auparavant au temps de corrélation. La figure 4b en donne un exemple, avec les distributions de la taille des particules pour un échantillon de 1,0 mg/mL de lysozyme mesuré à un angle de détection de 90°. La DSP rapportée pour un temps de corrélation court montre une composante apparente de grande taille en plus du pic principal de la particule). S’il s’agissait d’un effet réel de l’échantillon, les mesures à un angle de détection plus petit auraient montré la même composante importante. Les mesures de diffusion directe pour le même échantillon étaient monomodales (voir SI) et l’absence du pic dans les données mesurées à d’autres angles de détection (informations supplémentaires) indique qu’il peut être dû à une combinaison d’un échantillon à faible diffusion et d’une diffusion statique, peut-être de la cuvette d’échantillon jetable. Alors que l’intensité de la lumière incidente peut être optimisée, certains échantillons tels que les protéines à faible concentration peuvent diffuser un nombre sous-optimal de photons, même sans atténuation du laser d’éclairage, ce qui signifie que les processus d’exploitation standard d’un système commercial de diffusion dynamique de la lumière peuvent ne pas être optimaux et que des temps de corrélation plus longs peuvent être utilisés24, avec un développement de méthode important nécessaire pour déterminer ces paramètres. Une autre adaptation de la mesure basée sur l’échantillon peut donc être introduite, par laquelle l’instrument utilise la longueur de sous mesure la plus courte possible qui donnera un nombre optimal de photons à mesurer (voir SI) et ceci est décrit dans le schéma de mesure optimisé dans la section suivante.
Le schéma de mesure optimal
Le schéma de mesure optimal est constitué du processus suivant :
- (1)
Optimisation de la position de mesure et de l’intensité de la lumière incidente.
- (2)
Si le niveau de diffusion détecté est faible même avec l’atténuation laser la plus faible, la longueur de la sous-mesure est optimisée pour réduire le bruit de base.
- (3)
Les sous-mesures sont rassemblées et analysées en utilisant l’analyse des cumulants.
- (4)
Les valeurs PdI de ces analyses sont comparées et les valeurs aberrantes identifiées.
- (5)
Les fonctions de corrélation des sous mesures en régime permanent sont moyennées, et le résultat analysé pour rapporter une ZAve.
- (6)
D’autres sous mesures sont enregistrées et analysées comme ci-dessus, et une nouvelle ZAve de réponse finale enregistrée.
- (7)
Ce processus est répété jusqu’à ce que les deux résultats ZAve précédents des étapes (5) et (6) s’avèrent concorder en utilisant un test d’hypothèse.
- (8)
Toutes les sous mesures transitoires sont également moyennées et analysées pour fournir des informations sur la composante transitoire.
Etant donné la réponse de l’algorithme ci-dessus aux caractéristiques de l’échantillon, la longueur des sous-mesures, la quantité de données collectées et les sous-mesures à omettre du résultat de l’état stable dépendant toutes de l’échantillon et de la qualité des données, la méthode est surnommée corrélation adaptative, s’inspirant de l’utilisation de l’optique adaptative en astronomie31, où le retour des données est utilisé pour corriger les aberrations observées.
Leave a Reply