L’algorithme produit l’une des meilleures solutions aux équations de Schrödinger des molécules à ce jour

[ad_1]

Un nouvel algorithme d’apprentissage en profondeur de chercheurs autrichiens a produit des solutions numériques plus précises que jamais à l’équation de Schrödinger pour un certain nombre de molécules différentes à un coût de calcul relativement modeste – bien que le travail lui-même ait pu être dépassé par la suite par les recherches de DeepMind de Google. Étonnamment, les chercheurs autrichiens ont découvert que, alors qu’un certain « pré-entraînement » de leur algorithme pouvait améliorer ses capacités prédictives, un entraînement plus substantiel était activement nocif.

Comme l’équation de Schrödinger ne peut être résolue analytiquement que pour l’atome d’hydrogène, les chercheurs souhaitant estimer les énergies des molécules sont obligés de s’appuyer sur des méthodes numériques. Des approximations plus simples telles que la théorie fonctionnelle de la densité et la méthode Hartree-Fock, qui est presque aussi ancienne que l’équation de Schrödinger elle-même, peuvent traiter des systèmes beaucoup plus grands mais donnent souvent des résultats inexacts. Des techniques plus récentes telles que le champ autocohérent dans l’espace actif complet (CASSCF) donnent des résultats plus proches des expériences, mais nécessitent beaucoup plus de calculs.

Pour trouver plus rapidement des solutions plus précises aux fonctions d’onde des molécules, les chercheurs ont développé des algorithmes d’apprentissage en profondeur qui échantillonnent les énergies en plusieurs points et apprennent à rechercher l’état fondamental de la molécule. «Souvent, les gens ont exécuté un schéma numérique établi, puis ont utilisé un algorithme d’apprentissage automatique pour essayer d’apprendre les détails manquants», explique Philipp Grohs de l’université de Vienne.

Grohs et ses collègues de l’Université de Vienne sont partis des deux principaux algorithmes d’apprentissage automatique au monde : FermiNet – développé par DeepMind de Google – et PauliNet – produit par des chercheurs de Berlin. FermiNet a une structure plus simple et plus efficace et a tendance à atteindre des solutions plus précises, tandis que PauliNet se nourrit de plus de détails à partir de schémas établis sur ce à quoi la solution devrait ressembler approximativement et a donc tendance à fonctionner plus rapidement.

Grohs et ses collègues de l’Université de Vienne ont développé un algorithme utilisant la structure simple de Ferminet, mais ont incorporé un élément de PauliNet appelé SchNet, conçu à l’origine pour calculer les configurations des atomes dans les molécules. «Nous avons essayé de mieux modéliser les interactions des particules en utilisant les idées de SchNet», explique Leon Gerard. L’algorithme final a atteint une plus grande précision et a nécessité moins de ressources de calcul que FermiNet ou PauliNet pour une variété de molécules allant de l’azote et de l’eau au benzène et à la glycine. La précision de l’algorithme, qui est détaillée dans un article à paraître dans la revue NeurIPS, pourrait elle-même avoir été dépassée dans une autre pré-impression d’algorithme de réseau de neurones du groupe DeepMind publiée en novembre. David Pfau de DeepMind décrit le nouvel algorithme comme « beaucoup plus précis que le travail du groupe à Vienne », bien que les chercheurs autrichiens répondent que les chercheurs de DeepMind n’ont pas encore publié leur code et que, par conséquent, « une comparaison à l’identique est actuellement difficile à faire ».

Les chercheurs ont testé l’effet des étapes de « pré-formation », dans lesquelles ils ont utilisé Hartree-Fock ou CASSCF pour apprendre à l’algorithme à trouver un point de départ « approprié » dans ses recherches de l’état fondamental. De manière inattendue, ils ont découvert que, alors qu’un nombre modeste d’étapes de pré-formation améliorait les performances, trop de pré-formation faisait que l’algorithme manquait l’état fondamental réel. De plus, cela était plus prononcé lorsqu’ils entraînaient l’algorithme à l’aide de CASSCF que lorsqu’ils utilisaient Hartree-Fock. Les raisons ne sont pas claires. « CASSCF impose beaucoup plus de structure à la fonction d’onde – il peut donc y avoir beaucoup plus de nœuds et une forme beaucoup plus compliquée, donc si le réseau de neurones apprend quelque chose de compliqué et de faux, il peut apprendre quelque chose dont il est plus difficile d’échapper – mais je ne ‘ Je ne pense pas que nous sachions vraiment à ce stade », explique l’auteur Michael Scherbla.

Isaac Tamblyn du laboratoire de calcul pour l’énergie et les nanosciences de l’Université d’Ottawa au Canada, qui n’a pas participé au travail, le décrit comme l’un des résultats les plus impressionnants à ce jour, bien qu’il ne trouve pas les effets contre-intuitifs de l’introduction connaissances particulièrement surprenantes. «Il existe de nombreux exemples dans la littérature sur l’optimisation où vous pouvez essayer d’incorporer ce que vous pensez être une initialisation utile qui finit par aggraver la situation», dit-il. Il décrit le travail comme excellent mais souligne que, même s’il peut être plus efficace que des méthodes comme FermiNet, il faut encore plusieurs jours sur un GPU pour calculer les propriétés d’une seule molécule. Il suggère que son utilisation principale est donc susceptible de résider dans la production de données de formation très précises pour des méthodes approximatives telles que l’apprentissage automatique supervisé.

Cette histoire a été mise à jour le 12 janvier 2023 pour fournir plus de contexte sur l’exactitude des solutions du groupe autrichien de l’équation de Schrödinger et comment elle se compare à d’autres efforts.

[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*