This article describes how the performance of a Dutch continuous speech recognizer was improved by modeling pronunciation variation. We propose a general procedure for modeling pronunciation variation. In short, it consists of adding pronunciation variants to the lexicon, retraining phone models and using language models to which the pronunciation variants have been added. First, within-word pronunciation variants were generated by applying a set of five optional phonological rules to the words in the baseline lexicon. Next, a limited number of cross-word processes were modeled, using two different methods. In the first approach, cross-word processes were modeled by directly adding the cross-word variants to the lexicon, and in the second approach this was done by using multi-words. Finally, the combination of the within-word method with the two cross-word methods was tested. The word error rate (WER) measured for the baseline system was 12.75%. Compared to the baseline, a small but statistically significant improvement of 0.68% in WER was measured for the within-word method, whereas both cross-word methods in isolation led to small, non-significant improvements. The combination of the within-word method and cross-word method 2 led to the best result: an absolute improvement of 1.12% in WER was found compared to the baseline, which is a relative improvement of 8.8% in WER. Dieser Artikel beschreibt, wie die Leistung eines automatischen Spracherkenners, der niederlandische gesprochene Sprache erkennt, mit Hilfe der Modellierung von Aussprachevarianten verbessert wurde. Fur diese Modellformung wird eine allgemeine Prozedur vorgeschlagen, die - kurz gesagt - darin besteht, dem Lexikon Aussprachevarianten hinzuzufugen, die Phonmodelle erneut einer Lernphase zu unterziehen und Sprachmodelle dabei zu verwenden, in denen die Aussprachevarianten mithineinbezogen wurden. Durch Anwendung einer Gruppe von funf optionalen phonologischen Regeln wurden im Basislexikon zunachst Aussprachevarianten innerhalb von Wortern generiert. Dann wurde mit Hilfe zweier Methoden eine begrenzte Anzahl von Sandhiprozessen (Prozesse auf Wordgrenzen) modelliert. Die erste bestand darin, die Sandhivarianten direkt dem Lexikon hinzuzufugen und bei der zweiten wurden Multiworter gebraucht. Letztendlich wurden die wortinternen Ausprachevarianten mit den zwei Sandhivarianten kombiniert getestet. Die Basisleistung des Spracherkenners, d.h. ohne Anwendung des Modells der Aussprachevariation, betrug 12.75% "word error rate" (WER). Bei Anwendung der wortinternen Aussprachevarianten wurde eine geringe, aber statistisch signifikante Verbesserung von 0.68% WER gemessen. Die Anwendung der zwei Sandhimodelle hingegen ergab einen sehr kleinen, nicht signifikanten Verbesserung. Die Kombination des wortinternen Modells mit dem zweiten Sandhimodell hingegen ergab schlie?slich das beste Ergebnis: eine absolute Verbesserung von 1.12% WER, was einer relativen Verbesserung von 8.8% WER entspricht. Cet article decrit comment les performances d'un reconnaisseur de parole continue (CSR) pour le neerlandais ont ete ameliorees en modelant la variation de prononciation. Nous proposons une procedure generale pour modeler cette variation. En bref, elle consiste a ajouter des variantes de prononciation au lexique et dans le re-apprentissage des modeles de phones en utilisant des modeles de langage auxquels les variantes de prononciation ont ete ajoutees. D'abord, des variantes de prononciation a l'interieur de mot ont ete produites en appliquant un ensemble de cinq regles phonologiques optionnelles aux mots dans le lexique de base. Ensuite, un nombre limite de processus entre-mots ont ete modeles, en utilisant deux methodes differentes. Dans la premiere approche, des processus entre-mots ont ete modeles en ajoutant directement les variantes "entre-mots" au lexique, et dans la deuxieme approche ceci a ete fait en utilisant des "mots-multiples". En conclusion, la combinaison de la methode qui se limite aux processus a l'interieur de mot avec les deux methodes "entre-mots" a ete testee. La performance de base etait un taux d'erreur de 12.75% mots (WER); comparee a cette performance de base, une amelioration petite mais significative de 0.68% dans WER a ete obtenue avec la methode 'a l'interieur de mot', tandis que les deux methodes d'entre-mots en isolation ont mene a des petites ameliorations non significatives. La combinaison de la methode "a l'interieur de mot" avec la methode 2 "entre-mots" a mene au meilleur resultat: une amelioration absolue de 1.12% dans le WER a ete trouvee comparee a la ligne de base, qui est une amelioration relative de 8.8% dans le WER.