foret aleatoire python

Forêt aléatoire avec python et scikit-learn

Emmanuel Jakobowicz Mis à jour le : 27 avril 2021 méthode, python 2 Comments

Une forêt aléatoire ou random forest est une méthode d’apprentissage supervisé extrêmement utilisée par les data scientists. En effet, cette méthode combine de nombreux avantages dans le cadre d’un apprentissage supervisé. Dans cet article, je vais vous présenter l’approche et une application avec le langage python et le package de machine learning, scikit-learn.

intelligence artificielle titre

L’intelligence artificielle : révolution ou évolution ?

Emmanuel Jakobowicz Mis à jour le : 22 novembre 2017 actualités Laissez un commentaire

Depuis plusieurs mois, le terme intelligence artificielle fleurit de toutes parts. Que ce soit dans la presse (il a remplacé le terme big data dans les médias généralistes), dans les revues plus techniques mais aussi sur tous les forums. J’avais envie de faire un point sur ce terme qui est loin d’être anodin et qui fait resurgir des imaginaires multiples et bien souvent effrayants.

La suite

machine learning image

Le machine learning pour tous

Emmanuel Jakobowicz Mis à jour le : 31 mars 2017 méthode Laissez un commentaire

Voici quelques temps que le terme machine learning est présent dans le monde de la data. De plus en plus d’utilisateurs métiers, de managers, de dirigeants entendent ce mot. Il est souvent associé au big data, à l’intelligence artificielle… Je profite donc de cet article pour vous en présenter les grandes lignes sans formules ni trop de technicité.

La suite

big data

Le big data, c’est quoi ?

Emmanuel Jakobowicz Mis à jour le : 11 mai 2016 méthode Laissez un commentaire

Aujourd’hui le big data est partout, l’idée derrière cet article est de clarifier un certain nombre de points que j’entends quasi quotidiennement sur le big data. Est-ce une révolution, un terme hype, une tendance lourde, un simple buzz-word ? Je dirais que c’est un peu tout à la fois et je vais vous expliquer pourquoi.

Big data (ou données massives, moins sexy pour les francophones) c’est surtout un terme qui a permis de mettre en avant comme jamais l’importance de la data dans notre quotidien. Notre quotidien professionnel bien sûr mais aussi notre vie de tous les jours et notre vie de citoyen.

La suite

spark article

Spark, boîte à outils du big data

Emmanuel Jakobowicz Mis à jour le : 20 janvier 2017 méthode 4 Comments

Si vous suivez même de loin le monde du big data, vous avez forcément entendu parler du projet Spark. Et si vous n’en avez jamais entendu parler, il est temps de le découvrir.
Dans cet article je vais vous donner les clés pour comprendre ce qu’est Spark et la façon de l’utiliser.

Quel est la relation entre Spark et Hadoop ? Est-ce un langage ? Dans quel cas est-ce utile ? Quelles sont ses composantes ?…

La suite