23 results on '"Éric Parent"'
Search Results
2. Reported non‐compliance with pre‐donation screening among blood donors in Québec, Canada: A focus on the <scp>3‐month</scp> deferral for men who have sex with men
- Author
-
Antoine Lewin, Yves Grégoire, Gilles Delage, Catherine Thibeault, Catherine Viau, Christine Milot, Éric Parent, and Christian Renaud
- Subjects
Male ,Canada ,Sexual and Gender Minorities ,Quebec ,Humans ,Blood Donors ,Female ,HIV Infections ,Hematology ,General Medicine ,Homosexuality, Male ,Donor Selection - Abstract
In Québec (Canada), the donation deferral for men who have sex with men (MSM) has recently been shortened to 3 months. Whether this change impacted compliance with pre-donation screening is unknown. We assessed compliance with the disclosure of male-to-male sex and other behavioural risk factors for HIV amid this change.Québec residents who donated from 14 July 2020 to 30 November 2020 were invited to participate in an online survey. Donors were informed that the survey was optional and anonymous. Survey questions were those used for routine pre-donation screening. Rates of reported non-compliance were weighted based on several characteristics.Of 21,918 contacted donors, 7113 (32.45%) participated. Among male participants (N = 3347), six (0.27% [95% confidence interval (CI) = 0.09%-0.44%]) were not compliant with a 3-month MSM deferral. Among female participants (N = 3766), two (0.06% [95% CI = 0.00%-0.13%]) were not compliant with a 3-month deferral for sex with a man who had male-to-male sex ≤12 months. Other risk factors exhibited similar or lower rates of reported non-compliance.Reported non-compliance with a 3-month MSM deferral and the disclosure of other HIV behavioural risk factors was low. These results warrant the investigation of behavioural donor risk assessment approaches to further improve the inclusiveness of blood donation.
- Published
- 2022
- Full Text
- View/download PDF
3. Schizophrénie et activités physiques adaptées
- Author
-
Eve Dubois, Éric Parent, Amal Abdel-Baki, and Ahmed Jérôme Romain
- Published
- 2020
- Full Text
- View/download PDF
4. Repenser les fondements du zonage règlementaire des risques en montagne « récurrents »
- Author
-
Philomène Favier, Florie Giacona, Franck Bourrier, Didier Richard, Éric Parent, Aurore Lavigne, Nicolas Eckert, and Mohamed Naaim
- Subjects
010504 meteorology & atmospheric sciences ,0208 environmental biotechnology ,02 engineering and technology ,01 natural sciences ,020801 environmental engineering ,0105 earth and related environmental sciences ,Water Science and Technology - Abstract
Le zonage des risques en montagne reste pense comme une procedure normative issue de la transposition du « modele inondation ». Au cœur de ce schema figure le phenomene centennal, reference probabiliste d'une definition problematique, inadaptee a des phenomenes destructeurs, et peu interpretable en termes d'exposition. Ces insuffisances sont sources d'incomprehensions, et elle rend necessaire des raccourcis et des pratiques de terrain securitaires. Cet article propose un changement de paradigme. Le zonage y est envisage comme la un compromis entre les pertes dues au phenomene dommageable et les restrictions que la societe s'impose. L'etat des connaissances scientifiques ne permet pour l'instant pas de definir une procedure directive complete qu'il ne revient de toute facon pas a la sphere technique d'enoncer. En revanche, cartographier le risque individuel en combinant modele d'alea et susceptibilite au dommages pour differents types d'enjeux puis definir le zonage sur la base de seuils d'acceptabilite permet d'ores et deja d'integrer le caractere multivarie de l'alea, de prendre en compte les incertitudes et de tracer l'ensemble de la procedure de decision. Le choix des seuils de risque individuel constituant les limites de zones et l'affichage du risque residuel apres zonage materialisent le compromis choisi, permettant une reappropriation de la question par la societe. Le cadre generique propose est compatible avec une large gamme de solutions techniques comme d'orientations institutionnelles. In fine des recommandations concretes pour la pratique de meme que des pistes de recherche futures sont formulees. L'ensemble est illustre par un cas d'etude detaille issu du domaine des avalanches, mais la reflexion est transferable a l'ensemble des aleas gravitaires rapides recurrents.
- Published
- 2018
- Full Text
- View/download PDF
5. Adaptive Numerical Designs for the Calibration of Computer Codes
- Author
-
Merlin Keller, Éric Parent, Pierre Barbillon, Guillaume Damblin, Alberto Pasanisi, Mathématiques et Informatique Appliquées (MIA-Paris), Institut National de la Recherche Agronomique (INRA)-AgroParisTech, EDF R&D (EDF R&D), EDF (EDF), French Agence Nationale pour la Recherche (ANR) ANR-13-MONU-0005, and AgroParisTech-Institut National de la Recherche Agronomique (INRA)
- Subjects
FOS: Computer and information sciences ,Statistics and Probability ,Kullback–Leibler divergence ,Source code ,Computer science ,Calibration (statistics) ,[SDV]Life Sciences [q-bio] ,media_common.quotation_subject ,Physical system ,Control variable ,010103 numerical & computational mathematics ,Statistics - Computation ,01 natural sciences ,Gaussian process emulator ,010104 statistics & probability ,Discrete Mathematics and Combinatorics ,0101 mathematics ,Computation (stat.CO) ,media_common ,Bayesian calibration ,Applied Mathematics ,expected Improvement criterion ,Modeling and Simulation ,Statistics, Probability and Uncertainty ,Algorithm - Abstract
AMS subject classifications. 62K99, 62L05, 60G15; Making good predictions of a physical system using a computer code requires the inputs to be carefully specified. Some of these inputs, called control variables, reproduce physical conditions, whereas other inputs, called parameters, are specific to the computer code and most often uncertain. The goal of statistical calibration consists in reducing their uncertainty with the help of a statistical model which links the code outputs with the field measurements. In a Bayesian setting, the posterior distribution of these parameters is typically sampled using Markov Chain Monte Carlo methods. However, they are impractical when the code runs are highly time-consuming. A way to circumvent this issue consists of replacing the computer code with a Gaussian process emulator, then sampling a surrogate posterior distribution based on it. Doing so, calibration is subject to an error which strongly depends on the numerical design of experiments used to fit the emulator. Under the assumption that there is no code discrepancy, we aim to reduce this error by constructing a sequential design by means of the expected improvement criterion. Numerical illustrations in several dimensions assess the efficiency of such sequential strategies.
- Published
- 2018
- Full Text
- View/download PDF
6. MODEL&DATA-BASED PREDICTION OF THE FUTURE DYNAMICS OF Xylella fastidiosa IN FRANCE
- Author
-
Abboud, Candy, Bonnefon, Olivier, Éric Parent, and Soubeyrand, Samuel
- Published
- 2017
- Full Text
- View/download PDF
7. A model for spatio-temporal clustering using multinomial probit regression: application to avalanche counts
- Author
-
Nicolas Eckert, Éric Parent, Aurore Lavigne, and Liliane Bel
- Subjects
Statistics and Probability ,010504 meteorology & atmospheric sciences ,Ecological Modeling ,Bayesian probability ,01 natural sciences ,Cross-validation ,Regression ,Environmental data ,010104 statistics & probability ,13. Climate action ,Prior probability ,Statistics ,Expectation–maximization algorithm ,Covariate ,Econometrics ,Multinomial probit ,0101 mathematics ,0105 earth and related environmental sciences ,Mathematics - Abstract
Although modeling complex environmental spatio-temporal processes, separability between time and space effects is often assumed as a first approach, even though it may be unrealistic. Hence, the development of adapted non-separable spatio-temporal models is a challenging issue. In this work, we are interested in modeling avalanche counts over the whole French Alps, a large area that exhibits zones characterized by distinct climatic behaviors. We have at our disposal a data set of 405, 63-year series of avalanche counts, one series for one township. We assume the series can be divided into several spatial clusters presenting specific temporal trends. On the latent layer of a hierarchical negative binomial-lognormal structure, the clusters are characterized by independent temporal evolutions, modeled using smoothing splines. The clusters arise as the result of a multinomial probit regression, with spatial coordinates used as covariates. Inference is performed within the Bayesian hierarchical framework. The number of clusters is assessed using cross validation. The best score is obtained for a three-cluster model, but other configurations also share some evidence. The first cluster is located in the east of the French Alps, whereas the others are located together in the west part of the French Alps. The three contrasted temporal trends corresponding to the three clusters result from regional climate change effects, interacting with a strong altitudinal control and data limitation. The proposed model could be used for analyzing various other climatic and environmental data sets. Copyright (c) 2012 John Wiley & Sons, Ltd.
- Published
- 2012
- Full Text
- View/download PDF
8. Hierarchical Bayesian Models to Assess Between- and Within-Batch Variability of Pathogen Contamination in Food
- Author
-
Natalie Commeau, Isabelle Albert, Marie Cornu, Jean-Baptiste Denis, and Éric Parent
- Subjects
0303 health sciences ,Engineering ,030306 microbiology ,business.industry ,Bayesian probability ,Context (language use) ,Replicate ,Contamination ,Bayesian inference ,01 natural sciences ,food.food ,Grouped data ,Smoked salmon ,010104 statistics & probability ,03 medical and health sciences ,Bayes' theorem ,food ,13. Climate action ,Physiology (medical) ,Statistics ,Econometrics ,0101 mathematics ,Safety, Risk, Reliability and Quality ,business - Abstract
Assessing within-batch and between-batch variability is of major interest for risk assessors and risk managers in the context of microbiological contamination of food. For example, the ratio between the within-batch variability and the between-batch variability has a large impact on the results of a sampling plan. Here, we designed hierarchical Bayesian models to represent such variability. Compatible priors were built mathematically to obtain sound model comparisons. A numeric criterion is proposed to assess the contamination structure comparing the ability of the models to replicate grouped data at the batch level using a posterior predictive loss approach. Models were applied to two case studies: contamination by Listeria monocytogenes of pork breast used to produce diced bacon and contamination by the same microorganism on cold smoked salmon at the end of the process. In the first case study, a contamination structure clearly exists and is located at the batch level, that is, between batches variability is relatively strong, whereas in the second a structure also exists but is less marked.
- Published
- 2011
- Full Text
- View/download PDF
9. Quantifying the effects of temperature and flow regime on the abundance of 0+ cyprinids in the upper River Rhone using Bayesian hierarchical modelling
- Author
-
Hervé Capra, Éric Parent, Yves Souchon, Jérémy Piffady, and Piffady, Jeremy
- Subjects
0106 biological sciences ,Generalized linear model ,Variables ,Ecology ,010604 marine biology & hydrobiology ,media_common.quotation_subject ,Bayes factor ,Aquatic Science ,Biology ,010603 evolutionary biology ,01 natural sciences ,le rhône ,Regression ,cyprinide ,Abundance (ecology) ,Statistics ,Bayesian hierarchical modelling ,cyprinid fish ,environmental variations ,upper River Rhone ,0+fish ,bayesian hierarchical modelling ,14. Life underwater ,Species richness ,Population dynamics of fisheries ,Relative abundance distribution ,media_common - Abstract
1. Assuming that recruitment variation is one of the main sources of fish population and assemblage changes, it is necessary to understand how natural variations in the environment influence 0+ fish abundance. Temperature regimes play an important role in enhancing both spawning activity and survival during early larval fish development. Flow regime variation, which is a powerful source of stream disturbance, is another factor to be taken into account. 2. Responses to these variables need to be assessed using long-term datasets, since standard statistical approaches fail to provide a causal structure or to quantify the different effects. We therefore used a 26-year dataset to evaluate the respective effects of seven derived independent variables describing the effects of temperature and flow regimes on the 0+ juvenile abundance of eight fish species in the River Rhone. 3. A clustering procedure using the Kendall tau rank correlation coefficient was implemented and identified three groups of fish according to their synchronic variations in juvenile abundance; i.e. varying with decreasing juvenile abundance, slightly increasing juvenile abundance and increasing juvenile abundance. These clusters provided the basis for building hierarchical log-Poisson generalized linear models. The Bayesian paradigm gives a reliable framework for model selection, and the best model was determined using the Bayes Factor. 4. The posterior distribution of the regression parameters was coherent with what was expected based on knowledge of the biology of the different species. It indicates that temperature regime drives 0+ juvenile abundance but that flow regime also plays an important regulating role. The models thus detected evidence of the consequences of specific flow events such as larval drift and an increase in available habitat during higher flow discharges. 5. Our study illustrates the advantages of using a hierarchical modelling approach to quantify ecological effects by improving discrimination between the different sources of uncertainty, leading to better precision when estimating regression parameters.
- Published
- 2010
- Full Text
- View/download PDF
10. The stochastic modeling of low flows by the alternating point processes approach: methodology and application
- Author
-
Bernard Bobée, Éric parent, and Irène Abi-Zeid
- Subjects
Hydrology ,Mathematical optimization ,Computer science ,Process (engineering) ,Stochastic modelling ,Poisson distribution ,Synthetic data ,Point process ,Identification (information) ,symbols.namesake ,symbols ,Sensitivity (control systems) ,Water Science and Technology ,Statistical hypothesis testing - Abstract
The increasing demand on water resources requires better management of the water deficit situation, may it be unusual droughts or yearly recurring low flows. We propose to use alternating non-homogeneous point processes to model the occurrences and durations of water deficits and surplus. The advantage of this approach is that it is a relatively simple way to model complex, dependent and non-stationary phenomena. It can be used as an alternative to developing more intricate physically based models. Furthermore, alternating point processes can be used to generate synthetic data that may reveal useful for analysis purposes. Most importantly, they allow to subsequently quantify risks related to deficit durations. Our methodology, developed for two types of events under non-homogeneous conditions, consists of six steps: identification of event type, choice of point process, choice of intensity function shape, estimation of intensity function parameters, testing model fitness, and sensitivity analysis. Also included are two new models based on the non-homogeneous Poisson conditional process that take into account external variables such as precipitation and temperatures. We begin with a classification of some point processes and their relation to each other. We describe the procedure for using the pertinent statistical tests. We present our modeling results for 10 Canadian rivers where we observed that in most cases, the simpler point processes were quite adequate.
- Published
- 2004
- Full Text
- View/download PDF
11. Pratique du calcul des lois a posteriori
- Author
-
Éric Parent, Jean-Jacques Boreux, and Jacques Bernier
- Abstract
Qui dit modeles realistes, dit aussi difficultes calculatoires. Le but de ce quatrieme chapitre est de donner un apercu des principales familles de methodes d’approximation des distributions a posteriori Dans le cas tres particulier ou le prior est non informatif et que la taille de l’echantillon est grande, la densite a posteriori peut etre approchee par une loi normale multidimensionnelle. Cette approximation asymptotique repose sur les proprietes des estimateurs du maximum de vraisemblance (section 4.2). A l’ere des ordinateurs personnels puissants, cette approximation — fondee sur des hypotheses assez restrictives — est avantageusement abandonnee au profit des methodes numeriques stochastiques. Ce sont d’abord les methodes de Monte-Carlo par chaines de Markov (MCMC). Ces techniques de simulation avec dependance sont presentees en section 4.3, notamment l’algorithme general de Metropolis-Hasting s et lechantillonnage de Gibbs. Ces deux algorithmes sont d’ailleurs implantes dans le logiciel WinBUGS. Les techniques classiques de simulation avec independance ou methodes de Monte-Carlo (MC), issues de lechantillonnage pondere, avec ou sans re-echantillonnage, ont eu plus recemment des developpements importants sous le nom generique de methodes des particules (section 4.4).
- Published
- 2010
- Full Text
- View/download PDF
12. Les avantages de la modélisation hiérarchique: application à la capture-marquage-recapture des saumons
- Author
-
Éric Parent, Jean-Jacques Boreux, and Jacques Bernier
- Abstract
Voici un modele bayesien hierarchique (MBH) pour l’analyse des donnees de capture-marquage-recapture de saumons. Ce chapitre se presente comme une suite au chapitre 8 et s’appuie sur l’etude (Rivot et Prevost, 2002). Chaque annee i, ces deux chercheurs de l’INRA de Rennes veulent estimer le nombre inconnu V i de saumons qui remontent la riviere Oir pour frayer ainsi que la probabilite de capture θi du piege utilise pour effectuer ces mesures. Ils disposent d’une serie d’observations allant de 1984 a 2000 collectees sur le terrain par les techniciens de la station experimentale du Moulin des Princes, Nicolas Jeannot et Francois Burban, aides de Jean-Yves Moelo. Pour analyser de telles donnees, on peut vouloir, en premier lieu, faire l’hypothese d’independance complete entre les annees, c’est-a-dire imaginer que les resultats des experiences de capture-marquage-recapture d’une annee ne nous amenent aucune information quant aux resultats possibles des autres annees. A l’oppose, on peut etre tente d’ignorer la variabilite entre chaque annee en regroupant en un meme echantillon les donnees de toutes les annees comme si elles provenaient du meme modele d’observation. Le modele hierarchique realise un compromis astucieux entre ces points de vue extremes. Il suppose que les annees ne sont ni completement identiques ni completement independantes et considere que les θi et les ν i sont issus d’une meme distribution de probabilite dont les parametres sont inconnus.
- Published
- 2010
- Full Text
- View/download PDF
13. Modèles de changements cachés
- Author
-
Éric Parent, Jean-Jacques Boreux, and Jacques Bernier
- Abstract
Parmi tous les problemes d’actualite, ceux qui ont trait a l’exploitation de l’environnement naturel permettent de mesurer, mieux que tout autre, la necessite de s’adapter aux changements climatiques. Ainsi, l’agriculteur en zone sahelienne comme le producteur d’hydroelectricite au Quebec ont grand interet a detecter les changements de regime dans les series chronologiques disponibles. En effet, s’il est indeniable que la prevision du futur repose sur la connaissance du passe, on comprend aisement qu’une telle prevision se refere essentiellement aux informations recueillies depuis que le systeme est reste dans le meme regime stationnaire jusqu’a son etat actuel qui persistera. C’est pourquoi, la detection des changements de regime dans les series chronologiques constitue un theme de recherche tres important pour l’aide a la decision. Se pose alors immediatement la question des transitions. Sont-elles brutales ou ont-elles une duree significative par rapport a l’unite de temps?
- Published
- 2010
- Full Text
- View/download PDF
14. Initiation à la modélisation des valeurs extrêmes: les modèles GEV et POT
- Author
-
Jacques Bernier, Éric Parent, and Jean-Jacques Boreux
- Abstract
Dans un contexte decisionnel, la modelisation des valeurs extremes est du plus grand interet puisqu’une protection qui fonctionne pour des evenements extremes pare aussi des evenements de moindre ampleur. Ainsi, la determination de la hauteur d’une digue prend en compte les crues extremes du cours d’eau, y compris celles qui n’ont jamais ete observees. A l’exclusion notable des distributions discretes (processus de comptage), la theorie des valeurs extremes considere un η-echantillon iid et s’interroge sur la distribution de la plus grande ou de la plus petite valeur de cet echantillon lorsque sa taille tend vers l’infini. L’article fondateur implique l’un des plus grands statisticiens classiques (Fisher et Tippett, 1928) dont les travaux furent valides et completes par d’autres personnalites (Gnedenko, 1943), (Jenkinson, 1955). Cependant, certains s’interrogent encore sur le sens meme du concept de probabilite quand on l’applique a des evenements exceptionnels (Bouleau, 1991). Effectivement, le frequentisme radical est, ici, a bout de souffle. Dans ce meme contexte, le paradigme bayesien trouve une nouvelle justification. Ce domaine de la recherche est en plein essor, notamment pour prendre en compte les dependances spatiales et/ou temporelles entre les valeurs extremes (Drees, 2008). Dans ce chapitre d’introduction, nous nous limiterons au cas ou il est raisonnable de postuler l’independance entre les extremes. Cette hypothese fonde les modeles GEV (generalized extremes values) et POT (peak over threshold), modeles qui sont en fait deux expressions differentes d’une meme realite.
- Published
- 2010
- Full Text
- View/download PDF
15. Construire le prior: de l’astuce mathématique au dialogue avec l’expert
- Author
-
Jean-Jacques Boreux, Éric Parent, and Jacques Bernier
- Abstract
On appelle expertise le savoir deja connu en dehors des informations apportees par les resultats experimentaux. Les experts detiennent ce savoir en tout ou en partie. Le modelisateur veut utiliser ce savoir pour construire une distribution a priori sur les parametres du modele de connaissance en main. Parce qu’ils sont experts, on s’attend a ce que ces gens chevronnes parient volontiers sur les memes plages de valeurs. Reconnaitre la qualification de l’expert, c’est prendre acte que ces paris ne sont pas arbitraires et des methodes ont ete developpees pour les traduire du mieux possible sous la forme d’une distribution de probabilite. Dans ce chapitre, nous en exposons quelques-unes.
- Published
- 2010
- Full Text
- View/download PDF
16. Le modèle linéaire généralisé
- Author
-
Éric Parent, Jean-Jacques Boreux, and Jacques Bernier
- Abstract
Une tâche recurrente de l’activite scientifique est d’expliquer le comportement d’une variable endogene ou reponse a partir de variables exogenes ou stimuli. Le modele de regression lineaire est certainement le plus utilise, pas toujours a bon escient. Le modele lineaire generalise, moins gourmand en hypotheses que le modele lineaire, postule que la reponse est un membre de la famille exponentielle des distributions statistiques a deux parametres. Le modele de regression logistique est certainement le plus connu. Nous l’appliquerons a une enquete menee aupres de 68 prothesistes dentaires appartenant a 10 entreprises differentes du Grand-Duche de Luxembourg (Marion, 2007). Nous terminerons avec le modele de Finney qui exploite la regression logistique pour evaluer les performances de melange d’insecticides (Finney, 1971).
- Published
- 2010
- Full Text
- View/download PDF
17. Conclusion
- Author
-
Jean-Jacques Boreux, Éric Parent, and Jacques Bernier
- Published
- 2010
- Full Text
- View/download PDF
18. La Statistique: son objet, ses outils
- Author
-
Jacques Bernier, Jean-Jacques Boreux, and Éric Parent
- Abstract
L’homme est curieux et c’est sans doute ce qui explique le mieux son cheminement depuis le debut de l’humanite jusqu’a nos jours. Ce besoin de comprendre les phenomenes observes et le desir de les anticiper est au cœur de ses preoccupations. C’est ce qui explique l'emergence et le succes de la statistique, une discipline scientifique en plein essor. Pour definir son objet, on ne saurait mieux faire que Christian Robert (Robert, 2006): „ L’objet principal de la statistique est de mener, grâce a l’observation d’un phenomene aleatoire, une inference sur la distribution probabiliste a l’origine de ce phenomene c’est-a-dire de fournir une analyse (ou une description) d’un phenomene passe, ou une prediction d’un phenomene a venir de nature similaire “.
- Published
- 2010
- Full Text
- View/download PDF
19. Introduction à la modélisation graphique: le modèle de capture-recapture
- Author
-
Jacques Bernier, Éric Parent, and Jean-Jacques Boreux
- Abstract
Les modeles graphiques associent la theorie des graphes, qui modelise des reseaux, a la theorie des probabilites, qui quantifie l’incertitude. L’idee fondamentale est la modularite: un modele complexe est construit en combinant des modeles simples. Les modeles graphiques eclairent parfaitement la notion d’independance conditionnelle. Le modele dit de capture-marquage-recapture constitue un exemple pedagogique d’autant plus interessant qu’il recoit de nombreuses applications pratiques dans les sciences naturelles et humaines.
- Published
- 2010
- Full Text
- View/download PDF
20. Modèle de capture-recapture par assemblage de modules fonctionnels binomiaux: application au cas des saumons
- Author
-
Jean-Jacques Boreux, Éric Parent, and Jacques Bernier
- Abstract
La modelisation statistique bayesienne revient a imaginer un modele probabiliste, susceptible de reproduire les observations (chap. 1), souvent pour fournir une aide a la decision en avenir incertain (chap. 2). Ce modele est avantageusement represente par un DAG (chap. 3). D’un point de vue operationnel, il faut eliciter le prior (chap. 7) et inferer ses parametres par application de la regle de Bayes (chap. 1). La determination des distributions a posteriori peut necessiter un recours aux methodes de Monte-Carlo (chap. 4). C’est notamment le cas pour les modeles realistes, lesquels impliquent souvent des variables latentes (chap. 3). Leur DAG montre une structure hierarchique et modulaire. Cette modularite confere une grande souplesse au modele comme le montre ce chapitre dedie a l’evaluation des stocks de saumons.
- Published
- 2010
- Full Text
- View/download PDF
21. Le cardinal sort du rang: la cible est une variable latente
- Author
-
Jacques Bernier, Éric Parent, and Jean-Jacques Boreux
- Abstract
Sous ce titre quelque peu humoristique, nous nous interessons a un probleme generique qui a de nombreuses applications pratiques: connaissant le rang d’un element d’un ensemble fini ordonne E, on se propose d’inferer le nombre d’elements de E. En fait, c’est la generalisation de ce probleme a une collection d’ensembles finis ordonnes qui nous interesse. Sous le paradigme bayesien, le recours aux variables latentes (voir chap 3, p. 3.2.3) permet d’introduire un second niveau de variation entre les ensembles, ce qui confere au modele une structure hierarchique. Mais un modele n’est utile que s’il est calculable et c’est pourquoi les modeles hierarchiques et les methodes de Monte-Carlo sont indissociables.
- Published
- 2010
- Full Text
- View/download PDF
22. Quantifier les incertitudes en bruitant un modèle déterministe: évaluation de la pollution indoor
- Author
-
Éric Parent, Jacques Bernier, and Jean-Jacques Boreux
- Abstract
Ce chapitre traite d’une pollution particulierement pernicieuse, la pollution a l’interieur des habitations par les materiaux emetteurs couramment utilises dans la fabrication des objets usuels. Cette pollution peut constituer une menace pour la sante. Par consequent, determiner le temps d’activite d’un emetteur de polluants est utile, notamment pour l’elaboration de normes. Nous traiterons specifiquement le cas des formaldehydes emis par certains tapis et carpettes. Il s’agit d’un phenomene intrinsequement non lineaire et le but est de determiner le temps au bout duquel le materiau emetteur a perdu l’essentiel de son activite. La mesure du taux d’emission est indirecte. On la deduit de la concentration du polluant regulierement mesuree dans une enceinte climatisee et ventilee. En pratique, le dispositif experimental produit peu de donnees. Typiquement, il faut maintenir la ventilation et les conditions experimentales rigoureusement constantes durant une dizaine de jours. On comprend qu’une telle experience n’est pas aisement repetable dans les memes conditions; on peut meme dire qu’elle est unique ! Par consequent, il est essentiel de quantifier les incertitudes sur les parametres qui regissent le taux d’emission, en particulier pour comparer les effets potentiellement nocifs de produits concurrents.
- Published
- 2010
- Full Text
- View/download PDF
23. Décision en avenir incertain: l’avalanche de Montroc
- Author
-
Éric Parent, Jean-Jacques Boreux, and Jacques Bernier
- Abstract
Quand on s’interesse a une experience aleatoire dichotomique, l’hypothese que les observations successives constituent un processus de Bernoulli peut etre justifiee, tantot par la nature de l’experience aleatoire (p. ex. jeu de pile ou face), tantot constituer une hypothese de pure commodite « pour voir ». Dans tous les cas, elle conduit au modele beta-binomial et, quand l’evenement d’interet est rare, au modele gamma-Poisson. Ces modeles, tres simples, nous permettent de construire un probleme fictif d’aide a la decision, fonde sur un drame reel ayant fait la une des journaux: Aurions-nous pu eviter la catastrophe de Montroc?
- Published
- 2010
- Full Text
- View/download PDF
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.