J'aide ceux qui se forment à la #datascience, au #machinelearning, et à l'#ia. Pour cela, j'écris ici des threads, et des articles sur mon blog (très bientôt)
Jul 5, 2022 • 9 tweets • 3 min read
Les INDEX sous #Pandas sont souvent incompris et mal utilisés
Ils sont pourtant d'une grande aide, surtout si on a besoin de performance avec des dataframes volumineux
L'idée principale est qu'ils vous apporteront de la performance s'ils sont UNIQUES
> Illustration
1/ Sélection de lignes d'un df sans faire appel à l'index
Sur un df de 10.000 éléments, la recherche d'une ligne sans faire appel à l'index prend 373 µs (sur mon laptop)
Il s'applique à des données de type séquence c'est à dire des données qui se suivent dans le temps et dont l'ordre est important (Time Series, Speech, texte, musique, ....)
Apr 29, 2021 • 23 tweets • 6 min read
1. Aujourd'hui on va revoir nos grands classiques en #MachineLearning dans le domaine du #NLP
Nous allons revoir dans le détail comment transformer des mots en vecteurs, grâce à l'algorithme #word2vec#skipGram
Ready?
🔽🔽 Thread
2. Commençons ce thread par une évidence, mais qu'il convient de rappeler
Les algorithmes de Machine Learning ne savent pas traiter directement des mots et des lettres
Donc dès que l'on veut faire du #NLP, il faut trouver un moyen de transformer les mots en nombres
Apr 23, 2021 • 6 tweets • 6 min read
C'est le week-end !
Peut-être aurez vous le temps de lire mes dernières publications.
Au programme :
> Régression Logistique
> Matrice de confusion
> Binary tree : Gini vs Entropy
> Transformers et self Attention
> Les réseaux à convolution
Bonne lecture !
🔽🔽 Thread
[Régression Logistique]
Voir différemment cet algorithme et tout comprendre grâce à la géométrie
1. Hello. Aujourd'hui, je m'attaque à un gros morceau
Les transformers
en particulier la partie self-attention qui en constitue la partie la plus intéressante
Après avoir lu ce thead, j'espère que vous aurez compris les mécanismes en jeu
Ready?
#MachineLearning#DataScience2. Je vais détailler le fonctionnement des transformers dans le contexte du NLP, qui est le domaine où le premier papier a été publié en 2017 ("Attention is all you need")
A noter que les transformers s'attaquent désormais à d'autres domaines (Vision, Time Series, ...)
Apr 21, 2021 • 29 tweets • 5 min read
1. Hello les copains
Etes-vous confus devant une matrice de confusion ?
Vous n'arrivez pas à retenir ce que sont les indicateurs "precision", "recall", "accuracy" ?
Je pense que ce thread devrait vous aider.
🔽🔽 Thread
#datascience#MachineLearning#iA2. Personnellement, ces notions autour de la matrice de confusion, j'ai mis un bon bout de temps avant de les retenir une fois pour toute.
Et pour retenir tout ça, j'ai un super moyen mnémotechnique que je vais vous donner.
Ready?
Apr 21, 2021 • 39 tweets • 7 min read
1. Hello les copains.
Aujourd'hui on va parler de réseaux de neurones, et en particulier de réseaux de neurones à convolutions.
On va se concentrer surtout sur les filtres à convolutions qui constituent les paramètres d'un #CNN
🔽🔽Thread
#datascience#machinelearning#ia2. Ce tweet sera l'occasion de revoir les grands principes qu'il y a derrière un tel réseau de neurones.
C'est important de comprendre les rouages qu'il y a derrière tout cela.
Apr 20, 2021 • 6 tweets • 3 min read
Hello,
pour vous y retrouver plus facilement, j'ai rangé ici les Tweets qui donnent accès aux différents threads publiés.
Mon parcours en quelques mots : développeurs d'application d'Entreprises, chef de projet, DSI, puis ensuite une longue expérience de conseil en management ou j'ai aidé mes clients à gérer leurs projets.