Une nouvelle technique basée sur les mathématiques du XVIIIe siècle montre que les modèles d’IA plus simples n’ont pas besoin d’apprentissage en profondeur
Une nouvelle technique basée sur les mathématiques du XVIIIe siècle montre que les modèles d’IA plus simples n’ont pas besoin d’apprentissage en profondeur

Les modèles d'IA plus simples n'ont pas besoin d'apprentissage en profondeur
Pré-entraînement par couches, des têtes aux couches internes. La couche la plus externe est entraînée en premier et ses résidus sont ensuite transmis comme données d'entraînement pour la couche cachée suivante jusqu'à ce que toutes les couches aient été pré-entraînées séquentiellement. Crédit: Neuroinformatique (2023). DOI : 10.1016/j.neucom.2023.126520

Des chercheurs de l’Université de Jyväskylä ont réussi à simplifier la technique d’intelligence artificielle la plus populaire, l’apprentissage profond, en utilisant les mathématiques du XVIIIe siècle. Ils ont également constaté que les algorithmes de formation classiques, vieux de 50 ans, fonctionnent mieux que les techniques populaires plus récentes. Leur approche plus simple fait progresser l’informatique verte et est plus facile à utiliser et à comprendre.

Le succès récent de l’intelligence artificielle repose en grande partie sur l’utilisation d’une technique fondamentale : l’apprentissage profond. L'apprentissage profond fait référence aux techniques d'intelligence artificielle dans lesquelles les réseaux comportant un grand nombre de couches de traitement de données sont formés à l'aide d'ensembles de données massifs et d'une quantité substantielle de ressources informatiques.

L'apprentissage profond permet aux ordinateurs d'effectuer des tâches complexes telles que l'analyse et la génération d'images et de musique, de jouer à des jeux numérisés et, plus récemment, en relation avec ChatGPT et d'autres techniques d'IA générative, d'agir comme un agent conversationnel en langage naturel qui fournit des résumés de haute qualité des connaissances existantes. .

Il y a six ans, le professeur Tommi Kärkkäinen et le doctorant Jan Hänninen ont mené des études préliminaires sur la réduction des données. Les résultats ont été surprenants : si l’on combine des structures de réseau simples d’une manière nouvelle, la profondeur n’est pas nécessaire. Des résultats similaires, voire meilleurs, peuvent être obtenus avec des modèles peu profonds.

"L'utilisation de techniques d'apprentissage profond est une entreprise complexe et sujette aux erreurs, et les modèles qui en résultent sont difficiles à maintenir et à interpréter", explique Kärkkäinen. "Notre nouveau modèle, dans sa forme superficielle, est plus expressif et peut réduire de manière fiable de grands ensembles de données tout en y conservant toutes les informations nécessaires."

La structure de la nouvelle technique d’IA remonte aux mathématiques du XVIIIe siècle. Kärkkäinen et Hänninen ont également constaté que les méthodes d'optimisation traditionnelles des années 1970 fonctionnent mieux dans la préparation de leur modèle que les techniques du 21e siècle utilisées dans l'apprentissage profond.

"Nos résultats garantissent que l'utilisation des réseaux de neurones dans diverses applications est plus simple et plus fiable qu'auparavant", suggère Hänninen. L'étude est publié dans la revue Neuroinformatique.

Des modèles plus simples conduisent à une IA plus verte et plus éthique

L’intelligence artificielle joue un rôle de plus en plus important dans les technologies modernes et, par conséquent, il est de plus en plus important de comprendre comment l’IA fait ce qu’elle fait.

"Plus l'IA est transparente et simple, plus il est facile d'envisager son utilisation éthique", explique Kärkkäinen. "Par exemple, dans les applications médicales, les techniques d'apprentissage profond sont si complexes que leur simple utilisation peut mettre en danger la sécurité des patients en raison d'un comportement inattendu et caché."

Les chercheurs notent que des modèles plus simples peuvent contribuer au développement d’une informatique verte et sont plus respectueux de l’environnement car ils permettent d’économiser des ressources informatiques et consomment beaucoup moins d’énergie.

Les résultats, qui remettent en question les croyances communes et les perceptions actuellement populaires concernant les techniques d’apprentissage profond, ont été difficiles à publier.

"L'apprentissage profond joue un rôle si important dans la recherche, le développement et le secteur de l'IA que, même si la science progresse toujours et reflète les dernières preuves, la communauté elle-même peut éprouver de la résistance au changement."

"Nous sommes très intéressés de voir comment ces résultats seront accueillis par la communauté scientifique et commerciale", déclare Kärkkäinen. "Notre nouvelle IA a une gamme d'applications dans notre propre recherche, de la nanotechnologie pour de meilleurs matériaux dans une économie durable à l'amélioration des environnements d'apprentissage numérique et à l'augmentation de la fiabilité et de la transparence des technologies médicales et du bien-être."

Plus d'information: Tommi Kärkkäinen et al, Auto-encodeur additif pour l'estimation des dimensions, Neuroinformatique (2023). DOI : 10.1016/j.neucom.2023.126520

Fourni par l'Université de Jyväskylä

Citation: Une nouvelle technique basée sur les mathématiques du XVIIIe siècle montre que les modèles d'IA plus simples n'ont pas besoin d'apprentissage en profondeur (5 octobre 2023) récupéré le 8 octobre 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top