Accueil/ expose
Is machine learning a good model of human learning?
mardi 05 avril 2016

Loading the player ...
Descriptif

Conférence de Yann LeCun , titulaire de la Chaire du collège de France, Informatique et sciences numériques (2015-2016) et directeur du centre de recherches de Facebook sur l’intelligence artificielle, discipline qui vise à concevoir des machines dotées d’une intelligence comparable voire supérieure à celle de l’homme.

Voir aussi


  • Les Futurs de l'intelligence artificiell...
    Yann LeCun, Jean Ponce, Alexandre Cadain
  • Base neurale de la mémoire spatiale : Po...
    Alain Berthoz
  • Interprétations spontanées, inférences p...
    Emmanuel Sander
  • Cognitive, developmental and cultural ba...
    Atsushi Senju
  • The origin of prosociality : a comparati...
    Nicolas Claidière
  • (Dis)organizational principles for neuro...
    Miguel Maravall Rodriguez
  • From speech to language in infancy
    Alejandrina Cristia
  • The Neural Marketplace
    Kenneth Harris
  • Why the Internet won't get you any more ...
    Robin Dunbar
  • Synergies in Language Acquisition
    Mark Johnson
  • The neuroeconomics of simple choice
    Antonio Rangel
  • Phonological Effects on the Acquisition ...
    Katherine Demuth
  • Inner speech in action : EMG data durin...
    Hélène Loevenbruck
  • Use of phonetic detail in word learning
    Paola Escudero
  • What is special about eye contact ?
    Laurence Conty
  • The inference theory of discourse refere...
    Amit Almor
  • Syntactic computations, the cartography ...
    Luigi Rizzi
  • Levels of communication and lexical sema...
    Peter Gärdenfors
  • Amygdalar mechanisms for innate, learne...
    Daniel Salzman
  • Explanation and Inference
    Igor Douven
  • Consciousness, Action, PAM !
    Thor Grunbaum
  • Principles of Neural Design
    Peter Sterling
  • Precursors to valuation
    Timothy Behrens
  • Following and leading social gaze
    Andrew Bayliss
  • It’s the neuron: how the brain really wo...
    Charles Randy Gallistel
  • Biological Information: Genetic, epigene...
    Paul Griffiths
  • From necessity to sufficiency in memory ...
    Karim Benchenane
  • Comparing the difficulty of different ty...
    LouAnn Gerken
  • A big data approach towards functional b...
    Bertrand Thirion
  • Sign language and language emergence
    Marie Coppola
  • The collaborative making of an encyclope...
    Dario Taraborelli
  • The Evolution of Punishment
    Nichola Raihani
  • Metacontrol of reinforcement learning
    Sam Gershman
  • Homo Cyberneticus: Neurocognitive consid...
    Tamar Makin
  • Reverse Engineering Visual Intelligence
    Jim DiCarlo
  • What is listening effort?
    Ingrid Johnsrude
  • Genomic analysis of 1.5 million people r...
    Paige Harden
  • The Language of Life: exploring the orig...
    Catherine Hobaiter
  • Deliberate ignorance: The curious choic...
    Ralph Hertwig
  • The social brain in adolescence
    Sarah-Jayne Blakemore
  • Big data about small people: Studying ch...
    Michael Frank
  • Individual Differences in Lifespan Cogni...
    Stuart Richie
  • Why are humans still smarter than machin...
    James L. (Jay) McClelland
  • Contextual effects, image statistics, an...
    Odelia Schwartz
  • Problem solving in acellular slime mold...
    Audrey Dussutour
  • Redrawing the lines between language an...
    Neil Cohn
  • Choice and value : the biology of decisi...
    Alex Kacelnik
  • What happened to the 'mental' in 'menta...
    Joseph LeDoux
  • Rethinking sex and the brain: Beyond th...
    Daphna Joel
  • How robust are meta-analyses to publicat...
    Maya Mathur
  • How family background affects children’...
    Sophie Von Stumm
Auteur(s)
Yann LeCun
Facebook / Collège de France
Chercheur en intelligence artificielle

Plus sur cet auteur
Voir la fiche de l'auteur

Cursus :

Chercheur en intelligence artificielle et vision artificielle (robotique), diplômé de l’École supérieure d’ingénieurs en électronique et électrotechnique (ESIEE) de Paris et de l’Université Pierre et Marie Curie, Yann LeCun est considéré comme l'un des inventeurs du deep learning. Il travaille depuis 30 ans sur "l’apprentissage automatique" (machine learning) et "l’apprentissage profond" (deep learning) : la capacité d’un ordinateur à reconnaître des représentations (images, textes, vidéos, sons) à force de les lui montrer, de très nombreuses fois.

Le 9 décembre 2013 il annonce sur sa page Facebook qu'il rejoint Facebook pour créer et diriger le laboratoire d'intelligence artificielle FAIR à New York, Menlo Park et depuis 2015 à Paris, notamment pour travailler sur la reconnaissance d'images et de vidéos. En 2016, il est le titulaire pour l'année de la chaire "Informatique et Sciences Numériques" du Collège de France.

Cliquer ICI pour fermer
Annexes
Téléchargements :
   - Télécharger l'audio (mp3)

Dernière mise à jour : 02/03/2018