Neural Tangent Kernel: Convergence and Generalization in Neural Networks (Invited Paper)
2021
Résumé
The Neural Tangent Kernel is a new way to understand the gradient descent in deep neural networks, connecting them with kernel methods. In this talk, I'll introduce this formalism and give a number of results on the Neural Tangent Kernel and explain how they give us insight into the dynamics of neural networks during training and into their generalization features.
Détails
Titre
Neural Tangent Kernel: Convergence and Generalization in Neural Networks (Invited Paper)
Auteur(s)
Jacot, Arthur ; Gabriel, Franck ; Hongler, Clement
Publié dans
Stoc '21: Proceedings Of The 53Rd Annual Acm Sigact Symposium On Theory Of Computing
Série
Annual ACM Symposium on Theory of Computing
Pages
6-6
Présenté à
53rd Annual ACM SIGACT Symposium on Theory of Computing (STOC), Jun 21-25, 2021, ELECTR NETWORK
Date
2021-01-01
Editeur
New York, ASSOC COMPUTING MACHINERY
ISSN
0737-8017
ISBN
978-1-4503-8053-9
Mots-clés (libres)
Autres identifiant(s)
Afficher la publication dans Web of Science
Laboratoires
CSFT
Le document apparaît dans
Production scientifique et compétences > SB - Faculté des sciences de base > MATH - Institut de mathématiques > CSFT - Chaire de théorie des champs statistiques
Publications validées par des pairs
Papiers de conférence
Travail produit à l'EPFL
Publié
Publications validées par des pairs
Papiers de conférence
Travail produit à l'EPFL
Publié
Date de création de la notice
2022-07-18