Les scientifiques de l'Advanced Photon Source explorent des moyens d'analyser les données de rayons X plus rapidement et avec plus de précision. Un nouveau progiciel appelé TomocuPy s'est avéré jusqu'à 30 fois plus rapide que la pratique actuelle.
En ce qui concerne la collecte et le traitement des données radiographiques, un objectif reste constant : le faire plus rapidement.
Ceci est particulièrement important pour les scientifiques travaillant à l'Advanced Photon Source (APS), une installation utilisateur du Bureau des sciences du Département américain de l'énergie (DOE) au Laboratoire national d'Argonne du DOE. L'APS est sur le point de subir une mise à niveau complète, qui augmentera la luminosité de ses faisceaux de rayons X jusqu'à 500 fois. Les scientifiques utilisent ces faisceaux pour voir les ions se déplacer à l'intérieur des batteries, par exemple, ou pour déterminer la structure protéique exacte des maladies infectieuses. Lorsque l'APS mis à niveau émergera en 2024, ils pourront collecter ces données à un rythme exponentiellement plus rapide.
Mais pour suivre le rythme de la science, l'analyse et la reconstruction de ces données - qui les façonnent sous une forme utile - devront également être beaucoup plus rapides avant la fin de la mise à niveau de l'APS. Les données de différentes techniques de rayons X sont analysées de différentes manières, mais les scientifiques d'Argonne ont travaillé sur plusieurs nouvelles méthodes utilisant l'intelligence artificielle pour aider à accélérer la chronologie. Des processus plus rapides ont été créés pour Imagerie par rayons X et pour déterminer pics de données importants dans les données de diffraction des rayons Xpour n'en nommer que quelques-uns.
Viktor Nikitin d'Argonne, assistant physicien travaillant à l'APS, vient de dévoiler une nouvelle façon de reconstruire les données prises par un processus appelé tomographie. Le progiciel de Nikitin, appelé TomocuPy, s'appuie sur les outils actuels utilisés par les scientifiques pour les données de tomographie. Il améliore la vitesse du processus de 20 à 30 fois en exploitant des ordinateurs équipés d'unités de traitement graphique (GPU) et en reconstruisant plusieurs blocs de données à la fois. Nikitin est l'unique auteur d'un article expliquant TomocuPy, publié dans le Journal du rayonnement synchrotronbien qu'il s'empresse de noter qu'il n'a pas travaillé dans le vide : il a été aidé par ses collègues de l'APS (dont son chef de groupe, Francesco De Carlo) et il s'est appuyé sur les méthodes de reconstruction de données précédentes développées pour fonctionner sur des unités centrales de traitement (CPU ).
Mais les innovations de Nikitin sont importantes et impliquent une compréhension du fonctionnement de la tomographie : tranche par tranche. La tomographie consiste à utiliser un faisceau de rayons X pour observer plusieurs parties de l'échantillon, à en extraire des coupes transversales (ou tranches), puis à utiliser un ordinateur pour reconstruire ces tranches en un tout. TomocuPy de Nikitin construit un pipeline pour traiter les tranches où la séquence d'opérations, telles que la lecture et l'écriture à partir de disques durs et de calculs, peut se produire simultanément. Les méthodes actuelles examinent chaque tranche une à la fois et les assemblent en arrière-plan.
TomocuPy tire également parti des multiples processeurs de chaque GPU utilisé et les exécute tous simultanément. Empilez-en suffisamment et vous pourrez examiner des milliers de tranches dans le temps qu'il aurait fallu auparavant pour en analyser une. La méthode de Nikitin permet également de gagner du temps de calcul en réduisant la précision d'analyse de chaque GPU pour correspondre à la sortie du détecteur. Si la sortie est de 16 bits, dit-il, vous n'avez pas besoin de calculs de 32 bits pour l'analyser.
"La tomographie consiste en de nombreuses petites opérations, traitant de petites images", a déclaré Nikitin. "Les GPU peuvent le faire jusqu'à 30 fois plus vite. La méthode précédente utilise des CPU et n'utilise pas le pipeline d'informations que TomocuPy fait, et c'est beaucoup plus lent."
Ce pipeline comprend un processus de diffusion en continu pour déplacer les données entre diverses applications. Ce processus a été développé par Siniša Veseli d'Argonne, un ingénieur logiciel principal. Le cadre utilisé à l'APS a des limites sur la quantité de données pouvant être déplacées, mais ces données peuvent désormais être distribuées à plusieurs applications différentes à la fois. Cela, dit Veseli, aide l'autoroute de l'information à l'APS à suivre le torrent de données provenant de ses détecteurs de rayons X.
"Après la mise à niveau de l'APS, les taux de calcul vont être beaucoup plus élevés", a-t-il déclaré. "Nous aurons de nouveaux détecteurs et l'accélérateur sera plus brillant. Nous devons trouver des outils capables de gérer cette échelle de débit d'images. Désormais, tout se fait en temps réel sur le réseau."
Les GPU utilisés pour TomocuPy sont souvent utilisés pour des applications d'intelligence artificielle et peuvent être adaptés pour fonctionner avec des algorithmes d'apprentissage automatique. C'est important, a déclaré Nikitin, car l'objectif final est des expériences qui peuvent s'adapter aux données reconstruites en temps réel. En tant que membre du groupe d'imagerie de l'APS, Nikitin voit de première main la nécessité d'une telle vitesse. Il donne un exemple d'expérience utilisant la pression pour tester la durabilité d'un nouveau matériau.
"Vous appliquez une pression et une fissure microscopique apparaît. Lorsque vous augmentez la pression, vous voulez zoomer sur cette région, mais il est toujours difficile de trouver où se trouve la fissure", a-t-il déclaré. "Nous voulons avoir la reconstruction des données immédiatement pour trouver la région sur laquelle vous souhaitez zoomer. Avant, cela prendrait 10 à 15 minutes, et la fissure se serait déjà formée."
Nikitin et ses collègues ont utilisé une expérience dynamique similaire - le suivi de la formation d'hydrates de gaz à l'intérieur d'un échantillon poreux à la ligne de lumière 2-BM de l'APS - pour tester l'efficacité de TomocuPy. Les hydrates de gaz sont de minuscules particules qui ressemblent à de la glace, mais contiennent des gaz (du méthane, dans ce cas) et se forment dans des conditions froides. L'équipe a utilisé diverses ressources GPU, y compris le supercalculateur Polaris de l'Argonne Leadership Computing Facility (ALCF), pour démontrer la capacité de l'outil à reconstruire rapidement et avec précision les données radiographiques. Ils ont pu reconstruire les données et les utiliser pour trouver des zones d'intérêt beaucoup plus rapidement que les méthodes précédentes ne le permettaient. L'ALCF est une installation utilisateur du DOE Office of Science.
Finalement, a déclaré Nikitin, le plan est d'utiliser l'intelligence artificielle pour aider à diriger les expériences, soit en zoomant automatiquement sur les parties intéressantes d'un échantillon, soit en modifiant les conditions environnementales telles que la température et la pression en réponse à une énorme quantité de données de mise à niveau APS rapidement reconstruites. . Cela sera possible, a-t-il dit, avec l'aide des énormes supercalculateurs de l'ALCF.
"Nous construisons une connexion rapide entre l'APS et l'ALCF", a-t-il déclaré. "En exécutant TomocuPy sur un superordinateur, nous pouvons faire en une journée ce qui peut prendre jusqu'à un mois."
Citation: Un scientifique développe une nouvelle méthode de reconstruction de données par rayons X (2023, 3 mars) récupéré le 3 mars 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.
Source