2 septembre 2010

Aspects éthiques de l’appréciation du risque toxicologique. Un coup d’œil personnel

Article
Auteur(s)
Claude Viau
Chaire d’analyse et de gestion des risques toxicologiques, Université de Montréal

Planter le décor

En 1958, la cour fédérale américaine obligea la Food and Drug Administration (FDA) d’interdire l’ajout dans la nourriture de toute substance cancérogène. Cet arrêté est connu sous le nom de la clause Delaney du nom du parlementaire qui en a fait la promotion1 :

Aucun additif ne sera considéré sûr s’il induit le cancer chez l’humain ou chez l’animal ou encore si des tests appropriés pour l’évaluation de la sûreté d’additifs alimentaires montrent qu’il peut induire le cancer chez l’humain ou chez l’animal. (traduction libre)

Dans les années qui suivirent se posa la question de l’évaluation de la présence de telles substances cancérogènes dans la nourriture. Déjà diverses méthodes d’analyse présentaient des limites de détection différentes et la technologie se développant, on allait être en mesure de déceler des quantités de plus en plus faibles de ces substances dans la nourriture. Prenons ici un raccourci avec l’histoire pour dire que la FDA et plus tard l’Environmental Protection Agency (EPA) allaient tenter de définir un niveau de risque appelé de minimis, c’est-à-dire considéré comme « négligeable ». Ils trouvaient cette approche plus raisonnable que l’application aveugle de la clause Delaney. C’est là qu’on retrouvera le fameux niveau de risque dit acceptable à un cas d’excès de cancer par million d’individus, parfois appelé le risque 10-6. Puisque la notion même d’acceptabilité du risque n’est pas une notion scientifique, mais qu’elle doit faire l’objet d’un débat social et politique, l’EPA décida éventuellement de parler des doses ou des concentrations entraînant des niveaux de risque à 10-4, 10-5 et 10-6. En présentant ces données objectives, quoique sujettes à caution en raison de l’incertitude qui entoure les hypothèses menant à ces valeurs, l’EPA évitait de se prononcer sur l’acceptabilité du risque pour la population.

La nécessité de procéder à une analyse systématique et le plus possible harmonisée et cohérente des informations scientifiques en vue de l’établissement de doses de référence ou associées à des niveaux de risques donnés se faisait toutefois patente. Elle conduisit à la publication en 1983 du « livre rouge » de l’appréciation du risque2. Près de 15 ans plus tard, une commission du Congrès américain publia un cadre pour la gestion du risque en santé environnementale3. Trois ans après, c’était au tour de Santé Canada de publier son « Cadre décisionnel de Santé Canada pour la détermination, l’évaluation et la gestion des risques pour la santé ». Encore trois ans de plus et ce fut au tour de l’INSPQ de publier en 2003 son « Cadre de référence en gestion des risques pour la santé dans le réseau québécois de la santé publique ».

Le grand mérite de ces divers documents est de réduire la part de l’arbitraire dans le processus d’appréciation et de gestion des risques pour la santé de la population. L’application de cette démarche au quotidien fait toutefois ressortir plusieurs questions d’ordre éthique sur lesquelles se penche un nombre croissant de gens. J’ai été invité à présenter ma vision des aspects éthiques de l’appréciation des risques toxicologiques à l’occasion de la publication récente du livre « General and Applied Toxicology » 4 puis dans le cadre des webinaires du Réseau d’échange sur les enjeux en santé environnementale. L’équipe de rédaction du BISE m’a fait l’honneur de m’inviter à écrire sur ce sujet pour le bulletin en couchant sur le papier les réflexions que j’ai partagées à voix haute avec les participants du webinaire. Il me semble judicieux de préciser d’entrée de jeu qu’il s’agit de ma vision personnelle sur un sujet important en santé publique, celui de l’appréciation des risques. Ce texte vous fera partager ma réflexion de non-éthicien sur ce sujet. Vous n’y trouverez pas de « recette éthique », mais une invitation au dialogue par le biais d’une série d’affirmations dont certaines pourraient vous paraître quelque peu provocantes.

Un cadre de discussion sur les thèmes du risque et de l’éthique

Définissons d’abord l’objet de cette dissertation. Un risque est une situation dangereuse qui pourrait se matérialiser dans le futur si certaines conditions sont réunies. Il comporte un examen de la gravité de la situation et de la probabilité de survenue de cet événement. L’Organisation internationale de normalisation définit par ailleurs l’appréciation du risque comme l’ensemble du processus d’analyse du risque et d’évaluation du risque. Cela amène à définir également ces deux dernières expressions. L’analyse du risque est l’utilisation systématique d’informations pour identifier les sources et pour estimer le risque. Finalement, l’évaluation du risque est le processus de comparaison du risque estimé avec des critères donnés pour en déterminer l’importance5.

Ainsi balisée, l’appréciation du risque devrait devenir un concept clair, n’est-ce pas? Pas vraiment si l’on en croit Hatfield et Hipel6 :

Nous croyons que de nombreux désaccords ou controverses touchant des décisions sur les risques dépendent de décisions basées sur des valeurs implicites qui influencent l’estimation des risques, particulièrement lors de la formulation de la question à évaluer. (traduction libre)

Ainsi donc, selon ces auteurs, la manière de définir la question de risque elle-même influence forcément l’appréciation que l’expert fera des risques. De plus, on comprend d’emblée que cet expert n’est pas non plus à l’abri de l’influence de ses propres valeurs dans la formulation de son jugement professionnel. J’y reviendrai.

Dans un ouvrage de référence fréquemment cité, Beauchamp et Childress7 ont défini quatre piliers de l’éthique biomédicale : l’autonomie, la bienfaisance, la non-malfaisance et la justice. Il n’appartient pas à cet article d’entrer dans le cœur de ces concepts, mais il importe de signaler que ceux-ci ont été principalement définis dans le contexte de la relation soignant-patient. Transposée au domaine des risques populationnels, l’autonomie n’est plus celle d’un individu, mais celle d’une communauté entière8. La bienfaisance et la non-malfaisance doivent aussi être placées dans une perspective sociétale, étant entendu que ce qui est bon pour l’ensemble d’une communauté peut porter un certain préjudice à un ou à des individus9. Semblablement, la justice doit être examinée du point de vue de la justice au sein d’une communauté et entre des communautés10, 11.

De l’application du processus d’appréciation des risques émergent donc les questions suivantes :

  • Qui doit être protégé?
  • Contre quoi?
  • De quelle manière et, pourrait-on ajouter, à quel prix?
  • Qui a un conflit d’intérêt dans le processus?
  • Qui a un conflit de responsabilité?

Et du point de vue de l’appréciateur expert de ces risques, il importe que ses connaissances et son expertise soient harmonisés avec son jugement et ses actions.

Quelques affirmations reliées aux aspects éthiques de l’appréciation des risques

L’appréciation des risques est à l’interface entre l’information et la décision et fait intrinsèquement partie de la gestion des risques

Les divers cadres spécifiques de gestion de risques comportent à peu près tous les mêmes éléments inter reliés : formulation de la question de risque, appréciation scientifique des risques, élaboration d’une liste d’options de gestion de risques, décision sur la stratégie de gestion de risques à adopter et comprenant une ou plusieurs des options précitées, mise en œuvre de la stratégie et évaluation des résultats de cette mise en œuvre, le tout en interaction avec les parties concernées et touchées. On peut dire que l’appréciation des risques est à l’interface entre les sources d’informations scientifiques et la prise de décision. C’est un exemple patent de traduction d’informations scientifiques en éléments décisionnels. Dans le domaine de la toxicologie par exemple, les sources d’information incluent les données de toxicologie animale, les données d’études épidémiologiques et les données sur l’exposition aux substances faisant l’objet d’une appréciation des risques. Toutefois, il s’y greffe de plus en plus des données de génomique, de protéomique, de métabolomique et de toutes les autres technologies « omiques » présentes et à venir. Un rapport de 2007 du National Research Council américain prévoyait que les données toxicologiques clés du futur allaient résider dans toutes ces études portant sur les mécanismes d’action toxique12. Ce faisant, on s’éloignera de plus en plus des critères apicaux d’évaluation des tests classiques de toxicité auxquels les appréciateurs de risque ont eu recours jusqu’à maintenant pour mettre l’emphase sur les voies critiques de toxicité. Une question clé se pose alors ici : les experts seront-ils compétents dans tous les aspects de cette nouvelle approche d’appréciation des risques? Si ce n’est pas le cas, quels seront les impacts de ces connaissances déficientes sur leurs conclusions et sur la traduction de cette conclusion en élément de prise de décision?

Les facteurs qui modulent la relation dose-conséquences doivent être pris en compte avec ouverture et rigueur

On reconnaît aujourd’hui que la relation entre l’exposition à un toxique et la survenue d’une pathologie dont il est l’agent causal passe par un continuum d’événements biologiques incluant notamment la dose interne, la dose efficace, les effets biologiques précoces et les altérations fonctionnelles. De plus, on sait que diverses caractéristiques personnelles peuvent moduler la progression le long de ce continuum. Les spécialistes de l’analyse de risque se penchent d’ailleurs de manière sérieuse sur la façon de tenir compte des populations susceptibles13. Il importe toutefois de se souvenir de la lapalissade suivante : sans exposition à l’agent toxique, la susceptibilité génétique n’influencera pas la survenue de la maladie associée à l’exposition à cet agent.

À cet égard, examinons de plus près ce que j’appelle le sophisme de la susceptibilité14 inspiré d’une présentation du Dr Karel Van Damme. Supposons le scénario hypothétique suivant. Vous avez 1 000 personnes à embaucher dans une entreprise qui exposera les travailleurs[1] à une dose donnée d’un produit telle que le risque de causer le cancer chez ces personnes est de 1 %. Une revue des données scientifiques révèle par ailleurs qu’une certaine prédisposition génétique triple ce risque à 3 % chez les personnes porteuses de cette caractéristique et que ce trait génétique est présent chez 10 % de la population. Un risque relatif de 3 (3 %/1 %) est normalement considéré en épidémiologie comme un risque important. C’est ici qu’arrive le sophisme : « l’exclusion des personnes ayant le trait génétique de susceptibilité accrue est une décision rationnelle sensée qui permet de réduire les conséquences négatives sur les populations concernées ». Voyons cela de plus près. En excluant les susceptibles, 1 % des 1 000 travailleurs embauchés sont susceptibles de développer un cancer en raison de leur exposition professionnelle. Cela fait 10 cancers potentiels. Si nous n’avions pas exclu les susceptibles, étant donné la prévalence de 10 % du trait génétique de susceptibilité, 900 personnes auraient eu un risque de 1 % pour 9 cas de cancers et 100 personnes auraient eu un risque de 3 % pour 3 cas de cancer. Cela fait un total de 12 cas de cancer si les susceptibles sont inclus. Personne ne niera que ces deux cas de cancer épargnés (12 – 10) représentent un bénéfice. Reconnaissons toutefois du même coup que ce bénéfice est moins spectaculaire que ce à quoi nous aurions pu nous attendre avant d’avoir fait l’examen systématique de la situation. Par ailleurs, il faut bien aussi reconnaître que nous aurions injustement créé de la discrimination envers les 97 personnes non embauchées du groupe des 100 susceptibles qui n’auraient pas eu le cancer de toute manière puisque le risque est de 3 % et qu’il n’affectera donc pas tous les individus susceptibles. De façon plus insidieuse, est-ce que le fait que les « susceptibles » aient été écartés du risque aurait pu donner un faux sentiment de sécurité accrue qui aurait pu mener au relâchement des mesures de prévention et ainsi causer peut-être encore plus de cancers qu’en excluant les susceptibles?

Par ailleurs, si l’on demandait à un groupe d’épidémiologistes de la santé publique quel est le déterminant le plus important de l’état de santé d’une population, il y a fort à parier que plusieurs répondraient le statut socio-économique15. Le statut socio-économique d’une population est aussi susceptible d’agir comme facteur modulateur de la relation exposition-maladie. À titre d’exemple, des chercheurs ont déterminé que les personnes économiquement défavorisées sont plus susceptibles de souffrir des effets délétères de l’exposition aux fines particules que les personnes bien nanties16, 17. De façon générale, un statut socio-économique défavorisé peut être associé à une compétence informationnelle déficiente ne permettant pas aux personnes concernées d’utiliser l’information disponible entre la santé et la pollution pour adopter des comportements préventifs8. Il est aussi possible que des mécanismes de défense biologiques amoindris du fait par exemple d’une moins bonne alimentation ou de pathologies préexistantes jouent un rôle dans cet accroissement de susceptibilité. L’important pour les fins du présent article est de se demander si l’expert en appréciation des risques tient compte de ces données de susceptibilité lorsqu’il fait son analyse. Qu’on me permette encore ici de citer un autre auteur10 à ce propos :

Si la prémisse fondamentale du mouvement pour la justice environnementale est qu’un risque sanitaire disproportionné pèse sur les minorités et les populations économiquement défavorisées qui sont exposées à la pollution, alors le processus d’appréciation des risques devrait jouer un rôle central dans l’identification des situations inéquitables et dans leur correction. (traduction libre)

L’appréciation des risques est un processus influencé par le jugement et les valeurs et il ne peut donc jamais être entièrement objectif

On aime croire que la valeur probante, le « weight of evidence » des Anglo-saxons, sert de base fondamentale à l’appréciation des risques. Cette expression implique normalement de faire un bilan exhaustif des connaissances scientifiques avant de porter un jugement expert sur l’ensemble de la « preuve scientifique ». Weed18 a toutefois fait une analyse de l’utilisation de l’expression « weight of evidence » dans les articles publiés en analyse de risque entre 1994 et 2004. Il a constaté que dans la moitié des cas, cette expression était utilisée abusivement puisqu’elle équivalait à « selon les informations recueillies, il semble que… ». Dans de nombreux articles, la méthodologie de collecte des informations n’était pas précisée. Bref, il faut demeurer prudent quand un expert assure avoir fait une évaluation selon le cadre reconnu de l’approche par valeur probante.

Dans des cas majeurs, on confiera l’appréciation des risques à une équipe pluridisciplinaire plus apte a priori à fournir une appréciation équilibrée tenant compte de divers points de vue. Irvine et coll.19 cependant indiquent qu’il est peu probable qu’un problème examiné en équipe pluridisciplinaire conduise à une solution unique. Poursuivons dans cette voie en examinant le point de vue de Hansson20. Celui-ci met en garde contre ce qu’il appelle le sophisme du consensus par lequel le destinataire d’une expertise collective interprète volontiers un rapport consensuel comme s’il s’agissait d’un rapport unanime. En mettant sous le boisseau les divergences d’opinions au profit de l’expression du consensus, on masque une incertitude qui pourrait autrement permettre à un décideur d’adopter une position plus nuancée dans sa prise de décision. Il y a rarement dichotomie entre sûreté et danger de sorte que les jugements sur les risques sont eux-mêmes rarement dichotomiques en plus de comporter une incertitude qui doit être communiquée avec transparence. Laissons ici Horton21 exprimer cette idée :

Les décisions reposent sur des jugements et ceux-ci ne se réduisent pas à la simplicité abstraite d’une appréciation absolue des risques. (traduction libre)

La formulation de la question de risque à examiner influence l’appréciation du risque et l’interprétation de la réponse peut influer sur la gestion du risque

Une question de risque mal définie ou posée de manière biaisée ne peut que conduire à une appréciation scientifique des risques partielle ou carrément erronée. Cela repose la question de l’intégration ou pas de l’appréciation scientifique des risques à l’intérieur du processus plus global de gestion de risques. Pour plusieurs, on devrait préserver l’intégrité du jugement scientifique en le mettant à l’abri des influences politiques ou administratives, donc en isolant l’appréciation du risque du reste du processus décisionnel. Or, l’expert de l’appréciation des risques peut jouer un rôle important dans la formulation de la question à débattre. En le tenant à l’écart, on risque de lui demander de répondre à la mauvaise question. Une illustration des problèmes potentiels qui peuvent se poser ici a été présentée par Hatfield et Hipel6 au sujet de la controverse qui a sévi au Canada dans les années 1980 au sujet de l‘homologation du pesticide alachlor. Les auteurs ont conclu que des facteurs extérieurs à la science avaient conduit trois groupes d’experts à des conclusions divergentes à partir d’exactement la même base de données. Indépendamment des enjeux partisans, les auteurs ajoutent qu’une discussion des prémisses de la question de risque et de son contexte pourrait contribuer à résoudre de semblables divergences.

Dans certains cas, les processus réglementaires obligent ou orientent fortement la conduite de l’appréciation des risques. Il en est ainsi d’une controverse qui sévit toujours au moment de rédiger ces lignes au sujet des effets endocrines du bisphénol-A. Myers et un groupe de plus d’une trentaine de chercheurs reprochent aux autorités américaines compétentes en la matière de donner préséance à des études dites BPL – bonnes pratiques de laboratoire ou GLP en anglais – souvent financées par l’industrie elle-même plutôt qu’aux études réalisées par des chercheurs indépendants à partir de fonds publics22. Alors que toutes les études financées par l’industrie suggèrent que le bisphénol-A ne possède pas d’activité endocrine appréciable chez l’humain aux doses d’expositions courantes, les études financées par les conseils de recherche publics arrivent en grande majorité à des conclusions opposées23 (Hileman, 2007). Un débat scientifique musclé à ce propos est engagé et il ne semble pas près d’être résolu24-28.

Ce débat sur le bisphénol-A a au moins le mérite de se tenir sur la place publique de manière transparente. On ne peut pas en dire autant des questions de risque associées à l’exposition à l’amiante. Le gouvernement canadien a été rudement pris à partie par le président d’un comité formé à l’initiative de Santé Canada. Ce comité avait été formé d’experts internationaux renommés et ayant des positions connues pour être divergentes. Jusque-là, l’initiative est tout à fait louable. Ces scientifiques avaient reçu l’assurance qu’une fois le rapport rédigé, il serait rapidement rendu public. Par ailleurs, en attendant la publication de ce rapport, les scientifiques avaient signé un engagement à la confidentialité. Jusque-là, tout semble normal selon les pratiques usuelles. Là où le processus a sérieusement dérapé, c’est quand le bureau du premier ministre lui-même est intervenu pour empêcher la publication des conclusions des experts. Voyons ce que Trevor Ogden, président de ce comité en a dit dans un éditorial publié dans une revue scientifique29 (Ogden, 2008) :

Il s’agit d’une regrettable illustration de la manie du secret de certains gouvernements, mais qui, plus globalement, devrait attirer l’attention sur l’utilisation de la science dans l’établissement des politiques. (…) Bien que la science ne soit pas parfaite et qu’il y ait toujours des opinions divergentes sur l’interprétation des faits, il est crucial que les décisions internationales tiennent compte des meilleures données scientifiques. (traduction libre)

En matière d’appréciation et de gestion des risques pour la santé publique, la transparence n’est pas une option, c’est une obligation. La science ne devrait jamais servir l’idéologie. L’appréciation des risques doit servir le bien public et seulement par coïncidence les intérêts spécifiques d’une partie prenante. Cela nous ramène aux questions de départ : qui doit être protégé, contre quoi et de quelle manière?

Terminons cette portion en disant que la formulation de la question de risque à débattre ainsi que l’appréciation des risques elle-même sont des processus chargés de valeurs qui doivent être reconnus tels afin d’éviter de donner l’illusion qu’il s’agit de processus purement objectifs. Il en découle également que l’échange d’information entre les scientifiques chargés de l’appréciation des risques et les décideurs doit être bidirectionnelle de façon à assurer un maximum de compréhension de la situation à évaluer de part et d’autre. Cela s’accompagne en même temps d’une obligation de la part des scientifiques de soigner le langage qu’ils utilisent dans la traduction des concepts et des données scientifiques aux fins d’une prise de décision. Il faut se rappeler ici que vulgarisation scientifique et rigueur ne sont pas antinomiques.

L’appréciation des risques n’est jamais complète

Selon Lord Kelvin à qui on doit l’échelle de température dite absolue exprimée en degrés Kelvin, tout ce qui existe, existe en quantité définie et peut conséquemment être mesuré. De ce point de vue, on pourrait dire que si un risque existe, il existe en quantité définie et peut donc être quantifié! Le problème ici est illustré par cette citation de P. Medawar reprise par Adams30 :

Les bons scientifiques étudient les problèmes les plus importants qu’ils pensent être en mesure de résoudre. C’est, après tout, leur rôle de résoudre des problèmes, pas seulement de se débattre avec eux. (traduction libre)

Il y a une inévitable tendance des experts à concentrer leur attention sur les aspects qui leur sont familiers et à négliger ceux qui s’écartent de leur expertise immédiate. Ils devraient cependant savoir aborder l’influence que ces facteurs moins familiers pourrait avoir sur leur appréciation des risques. Il en résulte donc que l’étude scientifique des risques ne peut jamais être vraiment exhaustive.

Une invitation

Ce serait faire preuve de très peu de sagesse de prétendre apporter une conclusion, un point final à toute discussion sur l’éthique. Je voudrais donc plutôt terminer ce texte par une série d’invitations aux lecteurs intéressés par ces questions. Une invitation à mettre vos connaissances scientifiques au service du bien public. Une invitation à reconnaître ouvertement les limites et l’incertitude des connaissances de même que l’influence des facteurs sociaux sur les risques. Une invitation à admettre que la majorité des jugements experts sont chargés de valeurs sous-jacentes. Une invitation à admettre que ceux que le processus de gestion de risques vise à protéger ont leur mot à dire sur le processus. Une invitation à chercher à transformer efficacement vos connaissances en bénéfices pour les autres afin de contribuer à la sagesse du processus décisionnel concernant les risques pour la santé publique.

Je crois cependant fermement qu’un jugement expert et serein demeure le meilleur gage de l’appréciation objective de la magnitude des risques en santé publique. En terminant, j’invite donc le lecteur à comprendre la perspective de ce texte et à engager le dialogue sur les questions éthiques qui entourent un processus qu’on doit tendre à améliorer.

Remerciements

Que mes collègues David J. Roy, Suzanne M. Bisaillon et Subramanian Karthikeyan reçoivent ici le témoignage de ma reconnaissance pour les discussions passionnantes qui ont mené à cette réflexion personnelle.

Références

  1. Merrill, R. A. (1997). Food safety regulation: reforming the Delaney Clause. Annu Rev Public Health 18, 313-340.
  2. Committee on the Institutional Means for Assessment of Risks to Public Health (1983). Risk Assessment in the Federal Government: Managing the Process, pp. 191. National Research Council, Washington, D.C.
  3. The Presidential/Congressional Commission on Risk Assessment and Risk Management (1997). Framework for Environmental Health Risk Management, pp. 64, Washington, D.C.
  4. Viau, C. (2009). Ethical Issues in Toxic Chemical Hazard Evaluation, Risk Assessment and Precautionary Communications. In General and Applied Toxicology (B. Ballantyne, T. Marss et T. Syversen, réd.). John Wiley & Sons Ltd, Chichester.
  5. ISO Technical Management Board Working Group on Risk Management Terminology (2002). Risk Management - Vocabulary - Guidelines for Use in Standards. International Organization for Standardization, Geneva, 15 p.
  6. Hatfield, A. J. et Hipel, K. W. (2002). Risk and systems theory. Risk Anal. 22(6), 1043-1057.
  7. Beauchamp, T. L. et Childress, J. F. (2001). Principles of biomedical ethics. Oxford University Press, New York, 454 p.
  8. Chepesiuk, R. (2007). Environmental literacy: knowledge for a healthier public. Environ. Health Perspect. 115(10), A494-499.
  9. Vineis, P. et Soskolne, C. L. (1993). Cancer risk assessment and management. An ethical perspective. J. Occup. Med. 35(9), 902-908.
  10. Roberts, S. M. (2000). Environmental Justice: Examining the Role of Risk Assessment. Human and Ecological Risk Assessment: 6(4), 537 - 540.
  11. Bauer, S. (2008). Societal and ethical issues in human biomonitoring--a view from science studies. Environmental Health 7 Suppl 1, S10.
  12. Committee on Toxicity Testing and Assessment of Environmental Agents - National Research Council (2007). Toxicity Testing in the 21st Century: A Vision and a Strategy, pp. 216. The National Academies Press, Washington, D.C.
  13. Hines, R. N., Sargent, D., Autrup, H., Birnbaum, L. S., Brent, R. L., Doerrer, N. G., Cohen Hubal, E. A., Juberg, D. R., Laurent, C., Luebke, R., Olejniczak, K., Portier, C. J. et Slikker, W. (2010). Approaches for assessing risks to sensitive populations: lessons learned from evaluating risks in the pediatric population. Toxicol Sci 113(1), 4-26.
  14. Viau, C. (2005). Biomonitoring in occupational health: Scientific, socio-ethical, and regulatory issues. Toxicol. Appl. Pharmacol. 207, S347-S353.
  15. Frohlich, K. L. (2010). The social determinants of what? Int J Public Health.
  16. Wheeler, B. W. et Ben-Shlomo, Y. (2005). Environmental equity, air quality, socioeconomic status, and respiratory health: a linkage analysis of routine data from the Health Survey for England. J. Epidemiol. Community Health 59(11), 948-954.
  17. Forastiere, F., Stafoggia, M., Tasco, C., Picciotto, S., Agabiti, N., Cesaroni, G. et Perucci, C. A. (2007). Socioeconomic status, particulate air pollution, and daily mortality: differential exposure or differential susceptibility. Am. J. Ind. Med. 50(3), 208-216.
  18. Weed, D. L. (2005). Weight of evidence: a review of concept and methods. Risk Anal. 25(6), 1545-1557.
  19. Irvine, R., Kerridge, I. et McPhee, J. (2004). Towards a dialogical ethics of interprofessionalism. J. Postgrad. Med. 50(4), 278-280.
  20. Hansson, S. O. (2004). Fallacies of risk. Journal of Risk Research 7(3), 353-360.
  21. Horton, R. (1998). The new new public health of risk and radical engagement. Lancet 352(9124), 251-252.
  22. Myers, J. P., vom Saal, F. S., Akingbemi, B. T., Arizono, K., Belcher, S., Colborn, T., Chahoud, I., Crain, D. A., Farabollini, F., Guillette, L. J., Jr., Hassold, T., Ho, S. M., Hunt, P. A., Iguchi, T., Jobling, S., Kanno, J., Laufer, H., Marcus, M., McLachlan, J. A., Nadal, A., Oehlmann, J., Olea, N., Palanza, P., Parmigiani, S., Rubin, B. S., Schoenfelder, G., Sonnenschein, C., Soto, A. M., Talsness, C. E., Taylor, J. A., Vandenberg, L. N., Vandenbergh, J. G., Vogel, S., Watson, C. S., Welshons, W. V. et Zoeller, R. T.(2009). Why public health agencies cannot depend on good laboratory practices as a criterion for selecting data: the case of bisphenol A. Environ Health Perspect 117(3), 309-315.
  23. Hileman, B. (2007). Bisphenol A on trial. Chemical & Engineering News 85(16), 38.
  24. Vandenberg, L. N., Maffini, M. V., Sonnenschein, C., Rubin, B. S. et Soto, A. M. (2009). Bisphenol-A and the great divide: a review of controversies in the field of endocrine disruption. Endocr Rev 30(1), 75-95.
  25. Gray, L. E., Jr., Ryan, B., Hotchkiss, A. K. et Crofton, K. M. (2010). Rebuttal of "Flawed Experimental Design Reveals the Need for Guidelines Requiring Appropriate Positive Controls in Endocrine Disruption Research" by vom Saal. Toxicol. Sci. 115(2), 614-620.
  26. Sharpe, R. M. (2010). Is It Time to End Concerns over the Estrogenic Effects of Bisphenol A? Toxicol Sci 114(1), 1-4.
  27. vom Saal, F. S., Akingbemi, B. T., Belcher, S. M., Crain, D. A., Crews, D., Guidice, L. C., Hunt, P. A., Leranth, C., Myers, J. P., Nadal, A., Olea, N., Padmanabhan, V., Rosenfeld, C. S., Schneyer, A., Schoenfelder, G., Sonnenschein, C., Soto, A. M., Stahlhut, R. W., Swan, S. H., Vandenberg, L. N., Wang, H.-S., Watson, C. S., Welshons, W. V. et Zoeller, R. T. (2010). Flawed Experimental Design Reveals the Need for Guidelines Requiring Appropriate Positive Controls in Endocrine Disruption Research. Toxicol. Sci. 115(2), 612-613.
  28. Ogden, T. (2008). Canada, Chrysotile, and the Search for Truth. Ann Occup Hyg 52(8), 673-674.
  29. Adams, J. (2007). Risk management: it's not rocket science... it's much more complicated. , consulté le 14 juin 2010

On me pardonnera d’éviter l’utilisation politiquement correcte des formules bi-genres comme « les travailleurs et les travailleuses » dans l’intérêt de la lisibilité du texte et sans offense à la gent féminine.