Nicolas Audebert Profile picture
Mar 9, 2018 4 tweets 2 min read Read on X
mkdir Manuscrit
git init
git add *.tex
git commit -m "Commit initial"

#TeamRédaction ✍️
Update. This is daunting. Image
How is this not complete yet! Image
Full LaTeX doc takes about 5 minutes to compile. Easy peasy. ImageImage

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Nicolas Audebert

Nicolas Audebert Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @nshaud

Sep 15, 2020
À partir de cette année, @LeCnam propose un certificat de spécialisation en intelligence artificielle. Il s'agit d'une formation en cours du soir permettant de se professionnaliser en IA « moderne », notamment en machine/deep learning.

(RT appréciés 🙂)

formation.cnam.fr/rechercher-par…
L'objectif est former des professionnel⋅les qui souhaitent manipuler des données et construire des modèles décisionnels.

La formation démarre avec des prérequis niveau bac+3 en math/info et termine sur des cours niveau M2 (bac+5).
Il s'agit de formation continue, le certificat est composé de 5 cours :

1⃣ RCP208 : apprentissage non-supervisé pour la reconnaissance de formes (clustering, réduction de dimension, gestion des données manquantes, cartes auto-organisatrices).

formation.cnam.fr/rechercher-par…
Read 10 tweets
May 19, 2020
Ça me rend bien triste mais ce fil est un exemple de très mauvaise médiation scientifique. Sous prétexte de vouloir défendre le principe de modèle prédictif basé sur des corrélations, on finit par promouvoir de la très mauvaise science.
L'argumentaire tourne autour d'un article (en preprint) qui construit un modèle (de réseaux de neurones) pour prédire la sexualité à partir d'une photo.

Le preprint a été unanimement décrié par la communauté scientifique en ML quand il est sorti.
Cet article décrit bien les problèmes du papier : le modèle apprend des corrélations qui n'ont rien à voir avec les traits du visage. medium.com/@blaisea/do-al…

Sauf que dans le fil du @ChatSceptique, ça se transforme en affirmation que ça marche.
Read 11 tweets
Feb 24, 2020
(sorry to my english readers, this thread is about French research policies)

Vu que ça cause de ça aujourd'hui, un petit fil sur mon point de vue de jeune MCF recruté sur un poste IA.

Sur Opérations Postes, je compte 42 postes de MCF ouverts en info dont 19 en IA/data. 1/(n=?)
Mettons tout de suite les pieds dans le plat : j'ai un profil "deep learning" appliqué à des domaines en vogue (images). C'est vraisemblablement ce qui m'a permis d'être recruté rapidement et je sais que j'ai de la chance d'être arrivé au bon moment sur le bon sujet.

2/n
Il y a un engouement semi-justifié concernant l'apprentissage automatique. Justifié parce le DL rend possible l'automatisation de certaines tâches fastidieuses et que c'est intéressant industriellement.

Mais on exagère beaucoup le potentiel de ces technos. 3/n
Read 16 tweets
Jan 8, 2020
Je réfléchis à voix haute : quel sens est-ce que cela a de demander aux élèves ingénieurs de présenter leur école dans leurs prépas d'origine ? Les prépas les mieux représentées recevront plus de publicité, est-ce que ça n'encourage la reproduction du recrutement ? 1/?
Est-ce que ça ne serait pas plus enrichissant pour les étudiants de présenter leur école là où elle est moins connue ? Tout le monde connaît les Mines à Ginette ou Henri IV. Mais dans les DUT ? Les licences ? Combien d'étudiants savent que l'admission sur titres existe ? 2/?
Et pour les écoles qui se targuent de vouloir diversifier leur recrutement, est-ce que ce n'est pas l'occasion de s'adresser aux élèves des « petites » prépa pour leur dire « Oui, c'est possible, on veut de vous » plutôt que ne parler toujours aux mêmes. 3/?
Read 4 tweets
Nov 4, 2019
I have been reviewing a few papers in the last month and I have a (minor) rant. I hate when authors say "We will open source the code/release the dataset on acceptance".

I hate it for 3 reasons. ⤵️
1⃣ This means that I cannot review your code. Having the code when reviewing would crush my skepticism about your results I have any. This is especially annoying when I am not sure that your model is properly evaluated (e.g. you report validation metrics instead of test).
2⃣I don't doubt that you wish to release the code upon acceptance yet, in my experience, most of the time you don't. 🤷‍♂️ Because the paper is going to be published anyway, you do not have any strong incentive do clean and release the code anymore. That's why I ask beforehand.
Read 5 tweets
Apr 18, 2019
After a long wait, I am glad to say that our review of deep nets for hyperspectral image classification has been accepted for publication! It goes with a PyTorch based toolbox that has been openly available for about a year : github.com/nshaud/DeepHyp…
This manuscript is important for me since it deals (mostly) with us failing to reproduce many results from the state of the art. Why? I have four reasons:
1. Wrong methodology (test set leakage)
2. Unclear network architecture
3. No answer from authors
4. Failure from our side
Reason #1 was a hot topic on which we had lots of debate with reviewers. We found that nearly all papers in RS dealing with hyperspectral data use random sampling on which networks definitely overfit. When tested on disjoint train/test set, accuracy decreases drastically...
Read 10 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Don't want to be a Premium member but still want to support us?

Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Or Donate anonymously using crypto!

Ethereum

0xfe58350B80634f60Fa6Dc149a72b4DFbc17D341E copy

Bitcoin

3ATGMxNzCUFzxpMCHL5sWSt4DVtS8UqXpi copy

Thank you for your support!

Follow Us!

:(