On souhaite estimer la probabilité qu'un processus de Markov déterministe par morceaux (PDMP) atteigne une région cible de son espace d'états avant une date fixée. On s'intéresse au cas où cet événement est rare et donc la probabilité cible trop petite (<10^{-5}) pour être estimée par une méthode de Monte-Carlo standard. On peut produire un estimateur de moindre variance à l'aide d'une méthode d'échantillonnage préférentiel : les trajectoires du PDMP sont simulées selon une distribution alternative réalisant plus fréquemment l'événement cible et le biais est rectifié en pondérant les observations par un rapport de vraisemblance.
La distribution alternative optimale peut être caractérisée par la "fonction committor" du processus. Cette fonction mesure à chaque instant d'une trajectoire la probabilité que celle-ci atteigne la région cible sachant son état à cet instant. Inacessible en pratique, je présente une méthode séquentielle d'approximation de cette fonction committor. On construit d'abord une famille d'approximations basée sur les temps moyens d'atteinte de la région cible pour une marche aléatoire homogène sur un graphe imitant le PDMP. On en déduit ensuite une famille paramétrique de distributions alternatives dont le paramètre est optimisé séquentiellement par entropie croisée. Ces distributions d'importance successives produisent des estimateurs de plus en plus fiables de la probabilité cible.