Un scientifique discute de l’intelligence artificielle au-delà de la clinique
Un scientifique discute de l’intelligence artificielle au-delà de la clinique

L'intelligence artificielle au-delà de la clinique
Génération d'hypothèses scientifiques guidée par l'IA. Crédit: Nature (2023). DOI : 10.1038/s41586-023-06221-2

Avec l'avènement de ChatGPT4, l'utilisation de l'intelligence artificielle en médecine a absorbé l'attention du public, dominé les gros titres et suscité des débats animés sur les promesses et les dangers de l'IA médicale.

Mais le potentiel de l'IA va bien au-delà des premières lignes de la médecine.

L'IA change déjà la façon dont les scientifiques découvrent et conçoivent des médicaments. Il prédit comment les molécules interagissent et comment les protéines se replient avec une vitesse et une précision jamais vues auparavant. Un jour, l'IA pourrait même être utilisée de manière routinière pour sauvegarder le fonctionnement des réacteurs nucléaires.

Ce ne sont là que quelques-unes des applications passionnantes de l'IA dans les sciences naturelles, selon un commentaire dans Nature rédigé par Marinka Zitnik, professeure adjointe d'informatique biomédicale à la Harvard Medical School. Zitnik a dirigé une équipe d'auteurs-chercheurs de 36 laboratoires universitaires et industriels du monde entier.

Zitnik, qui est également membre associé du corps professoral du Kempner Institute for the Study of Natural & Artificial Intelligence de l'Université de Harvard, a évoqué le rôle croissant de l'IA dans la science et la découverte. La recherche est publiée dans la revue Nature.

Harvard Medicine News : Nous avons été inondés de nouvelles et de commentaires sur l'utilisation de l'IA en médecine, mais nous n'entendons pas autant parler de l'IA dans la science et la découverte au-delà de la médecine. Pourquoi donc?

Zitnik : Je pense que c'est parce que la réalisation de la vaste opportunité que représente l'IA pour les sciences de la vie et les sciences naturelles en général n'a pas encore eu lieu. La pratique de la science peut varier d'une discipline à l'autre, mais la méthode scientifique qui nous aide à expliquer le monde naturel constitue un principe universel et fondamental dans toutes les disciplines.

La méthode scientifique existe depuis le 17ème siècle, mais les techniques utilisées pour générer des hypothèses, collecter des données, effectuer des expériences et collecter des mesures peuvent désormais toutes être améliorées et accélérées grâce à l'utilisation réfléchie et responsable de l'IA.

HMNews : Où voyez-vous l'impact le plus immédiat de l'IA dans la découverte scientifique ?

Zitnik : Les découvertes faites grâce à l'utilisation combinée de l'expertise humaine et de l'intelligence artificielle affectent déjà notre vie quotidienne. L'IA est utilisée pour synthétiser de nouveaux médicaments. Il est utilisé pour concevoir de nouveaux matériaux avec des propriétés qui les rendent robustes et rigides pour soutenir la construction de ponts et de bâtiments.

Des algorithmes d'IA ont été utilisés pour fournir une rétroaction et un contrôle en temps réel des ballons stratosphériques pour les prévisions météorologiques. En physique, qui peut sembler si éloignée de la vie quotidienne, des algorithmes d'IA récemment développés ont été utilisés pour contrôler un simulateur de tokamak - un réacteur à fusion nucléaire en développement - afin de rendre son fonctionnement sûr moins dépendant de l'intuition et de l'expérience humaines.

HMNews : Qu'est-ce qui vous enthousiasme à long terme ?

Zitnik : Je suis très enthousiasmé par le potentiel de l'IA non seulement pour contribuer à la compréhension scientifique, mais aussi pour l'acquérir de manière autonome afin de générer des connaissances par elle-même. Il a été démontré que les modèles d'IA peuvent capturer des concepts scientifiques complexes, tels que le tableau périodique des éléments, à partir de la littérature sans aucune orientation.

La capacité à développer des connaissances autonomes peut guider les découvertes futures intégrées dans les publications passées. Il pourrait s'agir par exemple de la découverte d'une molécule pour traiter la maladie d'Alzheimer. Une telle découverte nécessiterait d'identifier des relations indirectes entre les publications et entre les disciplines - chimie, biologie, médecine - reliant les propriétés chimiques des molécules au comportement biologique des voies moléculaires impliquées dans la maladie d'Alzheimer, puis aux phénotypes cliniques et aux symptômes des patients.

Relier toutes ces disciplines et publications pour identifier des principes partagés et générer une nouvelle hypothèse serait impossible pour un humain. Les "copilotes" de l'IA pourraient lire non seulement des publications scientifiques, mais aussi des données de recherche brutes, des images et des données de laboratoire expérimentales, puis extraire des connaissances latentes et les présenter comme une hypothèse à évaluer par des experts humains. Cela nécessite que les modèles d'IA formulent des hypothèses qui ne sont ni écrites ni directement impliquées ou suggérées dans la littérature scientifique existante.

Ce sont les défis qui consomment la majeure partie du temps d'un scientifique et qui différencient souvent les très bons scientifiques des scientifiques exceptionnels. Nous espérons qu'à l'avenir, les scientifiques passeront moins de temps à effectuer des travaux de routine en laboratoire et plus de temps à guider, accéder et évaluer les hypothèses d'IA et à orienter les modèles d'IA vers les questions de recherche qui les intéressent.

Une autre possibilité intéressante est l'idée d'une conception, d'une découverte et d'une évaluation pilotées par l'IA humaine dans la boucle. Il serait possible d'automatiser les flux de travail scientifiques de routine et de combiner l'expérimentation réelle dans le monde physique avec des modèles d'IA virtuels et la robotique.

Cela nous permettrait de tirer parti des prédictions et de mener des expériences à haut débit. Cela créerait des laboratoires autonomes où certaines des expériences seraient directement guidées par les prédictions et les résultats des modèles d'IA.

HMNews : Quels sont certains des pièges que vous prévoyez ? Où devrions-nous faire très attention ?

Zitnik : Un défi concerne des considérations pratiques. La mise en œuvre et l'intégration d'un modèle avec des équipements de laboratoire nécessitent beaucoup de travail et une ingénierie logicielle et matérielle complexe, la conservation des données et de meilleures interfaces utilisateur. Actuellement, des variations mineures dans les logiciels et le matériel peuvent entraîner des changements considérables dans les performances de l'IA.

Ainsi, il devient risqué de coupler des outils d'IA virtuels avec des dispositifs physiques réels pouvant fonctionner dans le monde réel. Les données et les modèles doivent être standardisés. En fin de compte, si cela est fait correctement, je m'attendrais à voir l'émergence de laboratoires autonomes et de moteurs de découverte semi-autonomes.

Un autre défi concerne les fondements de l'apprentissage automatique. Il y a des lacunes dans ce que les algorithmes peuvent actuellement faire par rapport à ce que nous avons besoin qu'ils fassent pour être utilisés de manière routinière. Les données scientifiques sont multimodales, comme les trous noirs en cosmologie, le langage naturel dans la littérature scientifique, les séquences biologiques comme les acides aminés et les structures moléculaires et atomiques 3D. L'intégration de ces données est difficile mais nécessaire car l'examen d'un ensemble de données isolé ne peut pas donner une vue globale du problème.

Un autre défi important est que la plupart des modèles d'IA fonctionnent encore aujourd'hui comme des boîtes noires. Cela signifie que les scientifiques, les utilisateurs, ne peuvent pas pleinement comprendre ou expliquer le fonctionnement de ces modèles. C'est un défi parce que la compréhension scientifique est au cœur de l'avancement de la science. Comment développer des modèles de deep learning plus transparents ? Cela reste insaisissable.

La mauvaise application et l'utilisation abusive de l'IA constituent un autre défi. Les algorithmes peuvent être développés dans un but mais utilisés dans un autre. Cela peut créer des vulnérabilités à la manipulation. Par exemple, dans les sciences moléculaires, nous avons constaté une utilisation croissante de l'IA générative pour concevoir des structures moléculaires. L'IA peut générer des structures qui ont des propriétés de type médicament, représentant des molécules qui seraient délivrées à des tissus spécifiques, ce qui en fait des candidats-médicaments prometteurs. Cependant, on pourrait prendre exactement le même algorithme et modifier les critères.

Ainsi, au lieu d'optimiser les molécules pour qu'elles se comportent comme des médicaments, l'algorithme pourrait générer des molécules qui ressemblent à des armes biologiques. Il devrait y avoir une conversation critique sur ce qu'est une utilisation responsable de l'IA en science. Nous devons penser à établir des processus d'examen éthique et des lignes directrices de mise en œuvre qui n'existent pas actuellement.

HMNews : Que voyez-vous comme certaines des solutions ?

Zitnik : Relever les défis nécessitera de nouveaux modes de pensée et de collaboration. À l'avenir, nous devons changer la façon dont les équipes de recherche sont formées. Nous nous attendons à voir davantage de spécialistes de l'IA et d'ingénieurs logiciels et matériels devenir des membres essentiels des équipes de recherche scientifique.

Nous nous attendons à de nouvelles formes de collaboration impliquant le gouvernement à tous les niveaux, les entreprises et les établissements d'enseignement. L'implication des entreprises est importante car, à mesure que les modèles d'IA continuent de croître en taille, la formation de ces modèles nécessitera des ressources qui n'existent généralement que dans une poignée de grandes entreprises technologiques.

Les universités, en revanche, sont mieux intégrées entre les disciplines. Il n'y a que dans les universités que nous avons des départements de chimie, de biologie, de physique, de sociologie, etc. Ainsi, le milieu universitaire est mieux placé pour comprendre et étudier comment prévenir les divers risques et abus de l'IA.

Plus d'information: Hanchen Wang et al, Découverte scientifique à l'ère de l'intelligence artificielle, Nature (2023). DOI : 10.1038/s41586-023-06221-2

Fourni par la Harvard Medical School

Citation: Q&A : Un scientifique discute de l'intelligence artificielle au-delà de la clinique (2023, 16 août) récupéré le 20 août 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top