Posts – Page 2

Les chaînes de Markov

Les chaînes de Markov sont très populaires en bioinformatique, en particulier lorsque l'on travaille avec des séquences biologiques. J'aime bien me les représenter comme des machines générant des symboles aléatoires (ou processus stochastique) dont la probabilité d'apparition de chacun dépend du précédent.
Dans ce billet, nous allons les définir et …

Ce que peut révéler un test génétique sur Internet

MyHeritage, 23andMe, Ancestry… Vous en avez sûrement entendu parler. Bien qu'interdits en France (article 16-10), ces tests génétiques en libre accès bénéficient pourtant d'une bonne publicité. Depuis peu, elle se fait par l'intermédiaire de YouTube. Amixem, Squeezie et plus récemment Dr Nozman ont fait ces tests, puis ont partagé leurs …

L'entropie et la théorie de l'information

L'entropie, et plus généralement la théorie de l'information, est un concept essentiel en informatique. Publié par Claude Shannon en 1948 dans "A mathematical theory of communication", cette théorie a permis l'essor des communications modernes en passant par la téléphonie jusqu'aux transmissions des données massives par internet. On trouve également cette …

L'algorithme de Newton-Raphson

La méthode de Newton-Raphson est une méthode algorithmique pour trouver la racine d'une fonction. C'est-à-dire trouver x tel que f(x) = 0. Cette méthode est d'une simplicité déconcertante que je vais détailler dans ce billet de façon géométrique puis algorithmique.

L'algorithme de descente en gradient

Si vous vous êtes déjà pencher sur l'intelligence artificielle, vous avez certainement du entendre parler de la méthode de descente en gradient. Il s'agit d'un algorithme permettant de trouver rapidement le minimum d'une fonction mathématique. Pour faire simple, trouver x tel que f(x) soit le plus petit possible …

L'énigme du Rusty Lake Hostel

Cela fait plusieurs jours que je m'éclate sur un jeu android appelé « The rusty lake hostel ». Il s'agit d'une sorte d'escape game en point & click ou vous devez résoudre des énigmes. Parmi celles-ci, il y en a une qui m'a donné du fil à retordre et qui m'a contraint à …

Algorithme d'Espérance-Maximisation

Nous allons voir dans ce billet l'algorithme d'espérance-maximisation ou algorithme EM (Expectation-maximisation) qui va nous permettre d'identifier les paramètres de deux lois normales depuis une seule distribution mixte ou mélange gaussien ou GMM (Gaussian Mixture model). Comme d'habitude, je vais faire au plus simple. Ce billet fait directement suite …

Euler et l'assemblage des génomes

Imaginez une pile de journaux identiques que vous faites sauter avec des pétards pour en faire une pluie de fragments de texte aléatoire. Comment feriez-vous, à partir de ces milliers de morceaux de papier, pour reconstruire un exemplaire complet du journal ? La même question se pose lorsque l'on désire reconstruire …

Le théorème de Bayes en image

J'ai longtemps galéré avec les probabilités...
C'est assez tard que j'ai compris qu'il s'agissait juste d'un problème de dénombrement. Par exemple, si vous cherchez à savoir la probabilité pour que la somme de deux dés lancés soit égale 8, il suffit de dessiner un tableau 6x6 contenant toutes les combinaisons …

Le maximum de vraisemblance

Je continue ma lancée avec ce billet traitant d'un sujet important aussi bien en statistique qu'en intelligence artificielle: Le maximum de vraisemblance. Je rappelle que je ne suis ni statisticien ni mathématicien et que j'essaie d'expliquer ces concepts avec un simple regard naïf de programmeur. (C'est à dire sans formule …