Cet article poursuit l'idée que les grands modèles de langage (LLM) formés pour générer du code peuvent considérablement améliorer l'efficacité des opérateurs de mutation appliqués aux programmes de programmation génétique (GP). Étant donné que ces LLM bénéficient de données de formation qui incluent des changements et des modifications séquentiels, ils peuvent se rapprocher des changements probables que les humains apporteraient. Pour mettre en évidence l'ampleur des implications d'une telle évolution à travers de grands modèles (ELM), dans l'expérience principale, ELM combiné avec MAP-Elites génère des centaines de milliers d'exemples fonctionnels de programmes Python qui produisent des robots ambulants fonctionnels dans le domaine de Sodarace, que le LLM original n'avait jamais vu en pré-formation. Ces exemples aident ensuite à amorcer la formation d'un nouveau modèle de langage conditionnel qui peut produire le bon marcheur pour un terrain particulier. La capacité d'amorcer de nouveaux modèles capables de produire des artefacts appropriés pour un contexte donné dans un domaine où aucune donnée de formation n'était auparavant disponible a des implications pour l'ouverture, l'apprentissage en profondeur et l'apprentissage par renforcement. Ces implications sont ici explorées en profondeur dans l'espoir d'inspirer de nouvelles directions de recherche aujourd'hui ouvertes par ELM.
Source