|
|
PAGES DU PRATICIEN
Formation en ligne pour les professions de santéUne méta-analyse
David A. Cook, MD, MHPE;
Anthony J. Levinson, MD, Msc;
Sarah Garside, MD, PhD;
Denise M. Dupras, MD, PhD;
Patricia J. Erwin, MLS;
Victor M. Montori, MD, Msc
JAMA. 2008;300(10):1181-1196
RÉSUMÉ
| |
Contexte L'utilisation croissante de compléments pédagogiques basés sur Internet dans les formations aux métiers de la santé peut être documentée par une synthèse opportune et exhaustive des preuves d'efficacité.
Objectifs Résumer l'effet des compléments pédagogiques basés sur Internet sur les étudiants des métiers de la santé en comparaison avec une absence de compléments ou avec des compléments non basés sur Internet.
Sources des données Recherche systématique de MEDLINE, Scopus, CINAHL, EMBASE, ERIC, TimeLit, Web of Science, dissertations de résumés, et la University of Toronto Research and Development Resource Base (base de données des ressources de recherche et de développement de l'Université de Toronto) de 1990 à 2007.
Sélection d'études Des études dans n'importe quelle langue quantifiant l'association de compléments pédagogiques basés sur Internet avec les résultats éducatifs sur les praticiens ou étudiants en médecine, école d'infirmiers, pharmacie, médecine dentaire et sur d'autres professionnels de la santé en comparaison avec un groupe contrôlé n'ayant aucun complément pédagogique, des complément non basés sur Internet ou avec des évaluations antérieures à l'utilisation de compléments.
Extraction de données Deux chercheurs ont évalué de façon indépendante la qualité des études et prélevé des éléments d'information y compris les caractéristiques des étudiants, le contexte d'apprentissage et l'intervention (dont le niveau d'interactivité, les exercices pratiques, les discussions en ligne et la durée).
Synthèse des données Il y eut 201 études retenues. L'hétérogénéité de leurs résultats était grande dans toutes les analyses (I² supérieur ou égal à 79%). Les tailles d'effets ont été mises en commun suivant un modèle d'effets variables. Les tailles d'effets mises en commun en rapport avec une absence totale de complément pédagogique se sont avérées être en faveur des compléments en ligne et étaient de 1.00 (Intervalle de Certitude [CI] de 95%, 0.90-1.10, P < .001, n=126 études) pour les résultats en termes de connaissances, 0.85 (95% CI, 0.49-1.20; P < .001, n=16) pour les résultats en termes de capacités, et 0.82 (95% CI, 0.63-1.02; P < .001, n=32) pour les résultats en termes du comportement de l'étudiant et des effets sur le patient. En comparaison avec les compléments ne se servant pas d'Internet, les tailles d'effet mises en commun (les nombres positifs sont en faveur d'Internet) étaient de 0.10 (95% CI, de -0.12 à 0.32; P =.37; n=43) pour la satisfaction, de 0.12 (95% CI, de 0.003 à 0.24; P =.045; n=63) pour les connaissances, de .09 (95% CI, de -0.26 à 0.44; P = .61; n=12) pour les capacités, et de 0.51 (95% CI, de -0.24 à 1.25; P = 18; n=6) pour les comportements et effets sur les patients. Nous n'avons identifié aucune interaction de sous-groupe de traitement importante.
Conclusions Les compléments pédagogiques basés sur Internet sont associés à des effets positifs importants en comparaison avec une absence de complément. Cependant, ces effets comparés avec des compléments ne se servant pas d'Internet sont plus homogènes et généralement moindres, ce qui suggère une efficacité similaire aux méthodes traditionnelles. Des recherches futures devraient établir des comparaisons entre différents compléments pédagogiques basés sur Internet.
L'arrivée dInternet dans tout le monde en 1991 a grandement facilité son utilisation 1 et son potentiel en tant qu'instrument didactique a alors été rapidement reconnu.2, 3 La formation en ligne permet aux étudiants de choisir les lieux et heures de travail, facilite les méthodes d'instruction qui pourraient différer sous d'autres formats, et peut potentiellement s'adapter aux besoins de chaque individu4-6. L'apprentissage en ligne est par conséquent devenu une approche de plus en plus populaire dans le milieu médical.7, 8
Il y a cependant des réserves au sujet de l'apprentissage en ligne qui ne cessent de s'élargir. Durant les dix premières années du Web, 35 articles traitant de la formation par Internet ont été publiés 9, alors qu'en 2005 uniquement 32 sont parus 10. Une synthèse de ces chiffres pourrait aider enseignants et étudiants à se rendre compte de l'utilité de ces produits, et de ce qu'ils ont de plus ou moins efficace.6
Depuis 2001, plusieurs comptes rendus ont apporté de tels rapports, y compris au sujet d'apprentissages non transmis par Internet mais faits au travers d'ordinateurs.9-17 Chacun de ces comptes rendus était cependant limité au niveau méthodologique notamment par un manque de prise en comte des études préalables, très peu d'évaluation de la qualité des apprentissages et une absence totale d'étude quantitative quant aux résultats de ces apprentissages au niveau de la formation des étudiants.
Nous avons voulu dans cet essai identifier et résumer de façon quantitative toutes les études faites sur l'apprentissage en ligne dans le milieu professionnel de la santé. Nous avons conduit deux études systématiques à ce sujet en y apportant des méta-analyses, la première explorant l'écart entre l'apprentissage en ligne et celui sans autre support, et l'autre résumant les comparaisons faites entre les apprentissages en ligne et ceux faits hors ligne (soit une étude se portant les moyens utilisés).
METHODES
Ces études ont été construites, conduites et mises à l'écrit en lien avec les critères de qualité des méta-analyses (Qualité d'Explication de Méta-Analyses et d'Etudes d'Observation de Méta-Analyse selon les Critères d'Epidémiologie).18, 19
Questions
Nous avons voulu répondre (I) à la question de la portée de l'apprentissage via Internet comparé à un apprentissage ne se servant d'aucun autre outil et (II) à celle de la différence entre un apprentissage se servant du Web et un autre se servant d'autre outils non liés au Web. En se basant sur des théories et des preuves préexistantes 20-24, nous avons utilisé comme postulat que l'interactivité cognitive, le partage de connaissances entre étudiants, l'accès continu à des outils pédagogiques et la pratique d'exercices améliore les savoirs. Nous avons également accepté, en se basant sur des preuves 25 et des justifications 26, qu'un apprentissage par Internet en comparaison avec un apprentissage sans autre intervention aurait un impact important sur les savoirs acquis, et un impact moindre sur les pratiques médicales ainsi que sur les relations avec les patients. Enfin, toujours selon des études et analyses passées, nous ne nous attendions pas à trouver de différence notable entre les apprentissages s'aidant d'Internet ou ceux s'aidant d'autres outils pédagogiques a condition que les méthodes de formation furent similaires entre chaque épisode.
Critères de sélection des sujets
Nous nous sommes appuyés sur un panel volontairement large de façon à présenter une vision étendue des pédagogies liées au Web dans le domaine de la santé. Nous avons inclus des études dans différentes langues tant qu'elles rendaient compte de l'importance d'Internet comme complément à la formation aux métiers de la santé a la différence d'une absence de complément (par exemple un groupe de contrôle ou des examens pré-complément) ou d'un complément de nature différente, en se basant sur l'un de ces résultats 30: la réaction ou satisfaction ( la satisfaction de l'étudiant par rapport au cours), ce qui a été appris (connaissances, attitudes ou aptitudes dans le cadre d'un examen), les comportements (dans la pratique), ou les effets sur les patients (voir Encadré). Nous avons inclus des groupes isolés avant et après examen, des groupes en binôme ordonnés et en désordre, des modèles de groupes en parallèle et en superposition, et des études d'apprentissage "adjuvant" dans lesquelles l'intervention d'Internet est ajoutée à d'autres compléments que tous les étudiants reçoivent. Ont été exclues les études qui n'apportaient aucun résultat digne d'intérêt, qui ne comparaient pas les formations complétées par Internet ou celles sans aucun complément, celles qui n'utilisaient qu'un unique modèle de groupe après examen ou celles qui utilisaient un ordinateur propre au sujet ou un CD-ROM qui ne nécessitait Internet que pour des raisons administratives ou d'inscription. Les minutes de réunions ont également été exclues.
Encadré. Définition des variables de l'étude Participants.
Etudiants des métiers de la santé.
Etudiants en médecine, internes, praticiens exerçant une profession directement liée à la santé humaine ou animale; par exemple des médecins, infirmiers (-ères), pharmaciens, chirurgiens-dentistes, vétérinaires, des kinésithérapeutes ou des psychothérapeutes.
Compléments pédagogiques.
Basés sur Internet.
Compléments s'aidant d'ordinateurs- où "les ordinateurs jouent un rôle central comme étant le moyen délivrant l'information et en interaction directe avec l'apprenant (à la différence de l'utilisation de programmes tels que Power Point), et qui, jusqu'à un certain point remplacent l'enseignant humain" 6- qui se sert d'Internet ou d'un Intranet local comme étant le seul moyen de circulation des informations. Ceci prend en compte les tutorats en ligne, les patients virtuels, les forums de discussion, les courriers électroniques, et les vidéoconférences en ligne. Les programmes ou applications attachés à un ordinateur en particulier (y compris les CD-ROM) furent exclus sauf s'ils se servaient d'Internet.
Environnement des études (en salle de classe à la différence de contextes pratiques).
Une salle de classe est sans doute l'endroit ou les étudiants auraient été si leurs cours ne s'étaient pas servis d'Internet (les cours basés sur Internet remplaçaient un cours en salle de classe ou étaient en supplément d'un cours en salle de classe, ou de tout autre cours concurrent en salle de classe). Les contextes pratiques sont entendus comme tout contexte dans lequel l'étudiant est en contact direct avec le patient ou avait la responsabilité première du soin d'un patient (les internes, externes ou étudiants en stage).
Exercices pratiques.
Les exercices pratiques incluent les cas pratiques, les questions d'examens sur soi-même, et toute autre activité demandant aux étudiants de mettre en application ce qu'ils ont appris.
Interactivité cognitive.
L'interactivité cognitive a évalué le niveau d'engagement cognitif nécessaire à la participation au cours. Des exercices pratiques multiples légitimaient en général une interactivité moyenne ou haute, bien que les exercices dont les questions et les réponses étaient données en même temps (par exemple sur la même page) recevaient une note d'interactivité basse. Les essais et projets en commun ont également emporté un niveau d'interactivité plus haut.
Discussions.
Les discussions en face-à-face offraient du temps aux interactions entre étudiants et d'étudiant à enseignant, bien au delà des questions généralement soulevées dans les cours magistraux typiques. Les discussions en ligne exigeaient de solides bases pour se maintenir à une telle interaction qui se sert de communications synchrones et asynchrones en ligne comme des forums de discussion, des courriers électroniques, des messageries instantanées et des conférences par Internet.
Tutorat.
Les tutorats étaient l'équivalent en ligne d'un cours magistral et étaient composés en général d'étudiants travaillant et ayant des examens seuls. Ceux-ci incluaient souvent des applications en ligne détachées ayant différents degrés d'interactivité et se servant de différents types de multimédias.
Communication synchrone et asynchrone.
Une communication synchrone se passe lorsque deux participants au même cours ou plus interagissent sur Internet en même temps, en se servant de méthodes telles que les messageries instantanées, les forums en ligne, ou les vidéoconférences à deux.
Conférences par Internet.
Les conférences par Internet transmettent simultanément des informations vidéo et audio. Les informations vidéo peuvent être l'image de l'enseignant, un autre outil vidéo, ou un usage partagé de l'écran d'ordinateur (par exemple un tableau blanc).
Répétition (accès ponctuel ou continu).
La répétition a évalué la possibilité d'accès aux compléments à tout moment, et a été codée comme ponctuelle (les compléments n'ont été disponibles qu'une seule fois durant l'intégralité de la période d'enseignement) ou continue (les compléments étaient disponibles durant l'intégralité de la période d'enseignement).
Durée.
La période de temps durant laquelle les étudiants se servaient du complément pédagogique.
Résultats.
Satisfaction (réaction).
La satisfaction que les étudiants ont envers le cours.
Connaissances.
Evaluation subjective (ex. compte-rendu personnel) ou objective (ex. QCM sur les connaissances) ou compréhension factuelle ou conceptuelle.
Capacités.
Evaluations subjectives (ex. compte-rendu personnel) ou objectives (ex. notes d'examen, tests cliniques objectifs de capacités comme interprétation d'électrocardiogrammes ou de radios) de la capacité de l'étudiant à pratiquer une procédure ou une technique.
Comportements et effets sur le patient.
Evaluations subjectives (ex. compte-rendu personnel) ou objectives (ex. étude de dossier) des comportements durant la pratique (comme les commandes d'examens) et des effets sur les patients (comme les erreurs médicales).
|
|
Identification de l'étude
Un documentaliste en bibliothèque spécialiste des recherches systématiques (P.J.E) a mis au point une stratégie de recherche d'articles pertinents parmi MEDLINE, Scopus, CINAHL, EMBASE, ERIC, TimeLit, Web of Science, Dissertation Abstracts et la University of Toronto Research and Development Resource Base (base de données des ressources de recherche et de développement de l'Université de Toronto). Ces termes comprenaient des concepts de convergence (tels que Internet, Web, apprentissage par ordinateur, "e-learning", en ligne, virtuel et à distance), des concepts de modèles (tels qu'étude comparative, étude d'évaluation, avant examen ou évaluation du programme), et des caractéristiques participatives (telles que formation, professionnel, étudiants, métiers de la santé, internat et externat, ou encore spécialités et médicale). Le e-Tableau 1 (http://www.jama.com) dépeint la stratégie de recherche dans son ensemble. Nous avons restreint notre recherche aux articles écrits à partir de 1990 puisque le World Wide Web n'a commencé à être mentionné qu'en 1991. La dernière date de la recherche est le 17 Janvier 2008. D'autres articles ont été identifiés dans une liste référenciée manuellement comprenant tous les articles, études passées et notes d'auteurs.
Sélection de l'étude
En travaillant indépendamment et en double, les chercheurs (D.A.C, A.J. L, S.G et D.M.D) ont passé en revue tous les articles et extraits, et ont récupéré les textes entiers de tous les extraits potentiellement pertinents, de ceux sur lesquels ils étaient en désaccord, ou de ceux qui ne possédaient pas suffisamment d'information. A nouveau indépendamment ou en double, les chercheurs ont évalué la pertinence des études dans leur intégralité, avec un niveau de cohésion adéquat (0,71 par coefficient de corrélation intra-classe 31 [ICC], estimation à l'aide de SAS 9.1 [SAS Institute Inc. Cary, Caroline du Nord]). Les chercheurs ont résolu toute divergence par consensus.
Extraction de données
Les chercheurs ont abstrait des données de chaque étude pertinente en se servant d'un formulaire d'abstraction standardisé que nous avons développé, itérativement fini et implanté de façon électronique. Les données pour toute variante nécessitant le jugement du chercheur (y compris les critères de qualité et toute caractéristique utilisée en sous-groupe d'analyse méta-analytique) ont été abstraites indépendamment et en double, et la valeur de cohésion entre chercheurs a été évaluée avec l'ICC. Les chercheurs ont résolu toute divergence par consensus. Lorsque qu'une comparaison incluait plus d'un complément de formation (par exemple le cours magistral et les compléments imprimés), nous avons évalué le complément se rapprochant au plus près de celui apporté par Internet (ICC, 0,77).
Nous avons abstrait toute information concernant le nombre et le niveau de connaissance des lieux d'étude (salle de classe contre pratique; ICC, 0.81), les modèles d'étude (avant et après examen contre après examen uniquement, nombre de groupes et méthode de répartition, ICC compris entre 8.88 et 0.95), les sujets, les modalités d'instruction utilisées, la longueur de chaque cours (ICC, 0.85), les tutorats en ligne (ICC, 0.68) ou les vidéo conférences (ICC, 0.96), les formats, le niveau d'interactivité cognitive (ICC, 0.70), la quantité d'exercices pratiques (ICC, 0.70), la répétition (ICC, 0.65), la présence de discussions en ligne (ICC, 0.85) et de discussions en face à face (ICC, 0.58), l'apprentissage synchrone (ICC, 0.95), ainsi que chaque résultat (subjectif ou objectif [ICC compris entre 0.63 et 1.0] ou statistique descriptive). Quand il manquait des données de résultat, nous les demandions aux auteurs par e-mail ou courrier.
En reconnaissant le fait que plusieurs études ordonnées et d'observation allaient être inclues, nous avons abstrait les informations relevant de la qualité méthodologique en se servant d'une adaptation de l'échelle Newcastle-Ottawa afin d'évaluer la qualité des études groupées.32 Nous avons noté chaque étude en fonction du niveau de représentation du groupe d'intervention (ICC, 0.63), de la sélection du groupe de contrôle (ICC, 0.75), du degré de comparabilité des groupes (ajustement statistique des caractéristiques de base des études ordonnées [ICC, 0.49], ou mises en désordre [ICC, 0.93] et dissimulation d'allocation [ICC, 0.48] pour les études mises en désordre), de la non-prise en compte de l'évaluation du résultat (ICC supérieur ou égal à 0.74) et de l'accomplissement du suivi (ICC, 0.37 à 0.79 en fonction du résultat).
Synthèse des données
Nous avons analysé les études séparément suivant leurs résultats en termes de satisfaction, de connaissances, de compétences et de comportements ou d'effet sur les patients. Pour chaque catégorie de résultat nous avons converti les moyens et les déviations standards en différence de moyens standardisées (effet des tailles Hedges g).33-35 Quand nous ne disposions pas de données suffisantes, nous avons utilisé des tests de signification documentés (par exemple des valeurs P) afin d'en mesurer l'effet. Pour les études croisées nous avons utilisé des moyens ou des résultats de test statistiques exacts ajustés à la répétition des ces mesures ou, si celles-ci n'étaient pas documentées, nous avons utilisé des moyens mis en commun pour chacune des interventions. 36, 37 Pour les études de deux groupes avant-après examen nous avons utilisé des moyens d'après examen ou des résultats statistiques exacts ajustés au contexte d'avant examen ou, s'ils n'étaient pas documentées, nous avons utilisé les différences des variations des scores normalisés à laide dun pré-test de variance. Si ni les valeurs P ni aucune autre mesure de variance n'était documentée, nous avons utilisé la déviation standard moyenne obtenue de toutes les autres études.
Afin de quantifier l'inconstance (ou l'hétérogénéité) présente dans toutes les études nous avons utilisé la statistique I² 38 qui évalue le pourcentage de variabilité de toutes les études n'étant pas dû au hasard. Les valeurs I² supérieures à 50% indiquent une grande inconstance. Ayant trouvé une inconstance importante (I² supérieure ou égale à 79% dans toutes les analyses), nous avons utilisé des modèles à effets variables pour mettre en commun l'importance des effets pondérés de l'ensemble des études en se servant de StatsDirect 2.6.6 (StatsDirect Ltd, Altrincham, Angleterre, http://www.statsdirect.com).
Nous avons effectué des analyses de sous-groupes afin d'explorer l'hétérogénéité et de s'intéresser aux questions notées ci-dessus concernant les différences entre les participants, les interventions, les modèles et la qualité. Nous nous sommes servis d'un niveau de .05 à deux cotés. Nous avons groupé les études ayant des comparaisons actives de compléments suivant les différences de complément entre chaque méthode de formation; à savoir si le complément de comparaison avait plus, moins ou autant d'interactivité, d'exercices pratiques, de discussions (face à face et au travers d'Internet mêlées), et de répétition.
Nous avons conduit des analyses de sensibilité afin d'explorer la solidité des découvertes face aux postulats de synthèse, avec des analyses excluant les études de basse qualité, les études dont l'importance de l'effet a été estimé à partir de tests de signification inexacts ou de déviations standard amputées, 1'étude 39 qui contribua à près de 14 compléments basés sur Internet, des études de compléments mélangés (basés sur Internet ou non), et des études comprenant des erreurs de modèle majeures.
LES RESULTATS
Distribution des essais
La stratégie de recherche a identifié 2054 citations, et 148 articles supplémentaires ont été potentiellement conservés dans une liste de dossiers d'auteurs et de listes de références. Nous avons identifié 288 articles potentiellement pertinents parmi ces dossiers et listes (Figure 1). En partant d'une unique étude qualitative menée en 1994, le nombre d'études qualitatives de compléments pédagogiques basés sur Internet sont passées de 2 articles en 1996, à 16 en 2001 et à 56 en 2006. Nous avons contacté 113 auteurs afin d'obtenir des informations de résultats supplémentaires et en avons reçu de 45 d'entre eux. Les données de treize autres articles qui auraient pu être retenus n'étaient pas suffisantes pour en évaluer l'effet (par exemple la taille des échantillons ou l'absence des tests de moyens et de statistiques) et ont été par conséquent exclus des méta-analyses. Nous avons finalement analysé 201 articles dont 5 contribuaient aux deux types d'analyses, représentant 214 interventions. Le Tableau 1 résume les éléments clés et le e-Tableau 2 (http://www.jama.com) en donne des informations détaillées.
|
|
Tableau 1. Description des études incluesa
|
|
|
|
|
Figure 1. Le flux des essais
|
|
|
Caractéristiques de l'étude
Les compléments basés sur Internet abordent de nombreux sujets médicaux. En plus d'un grand nombre de domaines diagnostiques et thérapeutiques, ces cours abordent aussi l'éthique, l'histologie, l'anatomie, la médecine empirique, la conduite de recherches, les biostatistiques, les capacités de communication, l'interprétation d'électrocardiogrammes et de test pulmonaires, et la pratique des systèmes. La plupart des compléments comprenaient des tutoriaux d'études sur soi-même ou des patients virtuels, et plus d'un quart d'entre eux rendaient nécessaire une discussion en ligne avec d'autres étudiants, avec des enseignants ou avec les deux. Ces modalités étaient souvent mélangées dans le même cours. 29 études (14,4%) ne différenciaient pas les compléments basés sur Internet et les autres se basant sur le face à face. Les compléments ne se servant pas d'Internet utilisés en comparaison comprenaient en général des cours en face à face ou des travaux dirigés en classe, mais incluaient aussi des vidéoconférences par satellite, des patients standardisés et des modules pour étudier tout seul à laide de diapositives et bandes sonores. La grande majorité des résultats sur les connaissances étaient obtenus au travers de QCM, un bien moindre nombre au travers de méthodes de notation objective et 18 des 177 études relevant des connaissances (10,2%) se servaient de mesures de savoirs, de confiance en soi et d'attitudes. Les résultats au niveau des capacités se sont vus au niveau de la communication avec les patients, de l'approche critique, des dosages thérapeutiques, de la réanimation cardio-pulmonaire, et de la ponction lombaire. Ceux-ci ont été évalués le plus souvent en se servant d'instructeurs objectifs ou en se basant sur des observations de patients standardisées. Les résultats au niveau des capacités étaient le plus souvent rapportés par les sujets eux-mêmes ou alors la méthode ne pouvait être déterminée que pour 7 des 26 études (26,9%). Les effets sur le comportement et les patients comprenaient des indices d'analyse d'ostéoporose, des mises en place de thérapie cognitive comportementale, des survenues de violence sur le lieu de travail, des incidences de dépression postnatale, et différents changements de pratique remarqués. Dix des 23 articles (43,5%; soit deux tiers des interventions) se servaient des méthodes de comportement rapportés par les sujets eux-mêmes ou de résultats sur les patients. Les évaluations les plus objectives se basaient sur les études de dossiers, bien qu'une étude se soit servie de patients standardisés anonymes.
Qualité de l'étude
Le tableau 2 résume la qualité méthodologique des études ayant été inclues, et l'e-Tableau 3 (http://www.jama.com) contient les détails concernant l'échelle de qualité et la qualité des études individuelles. Neuf des 61 études absentes de tout complément pédagogique comparant les groupes par deux (soit 14,8%) ont par la suite déterminé le classement des groupes suivant qu'ils correspondaient ou non aux compléments basés sur Internet ayant été retenus ou reconnus "nécessaires". Bien qu'un tel classement puisse être sujet à des inclinations, des analyses de sensibilité ont prouvé que lorsque ces études n'étaient pas prises en compte, les résultats demeuraient inchangés. Huit des 43 études de satisfaction (soit 18,6%), 42 des 177 études de connaissance (soit 23,7%), 4 des 26 études de capacités et 5 des 23 études de comportements et d'effets sur les patients (21,7%) ont perdu 25% de leurs effectifs de participation depuis le moment de l'inscription ou ont perdu une partie de leurs sujets suivis. Le résultat de qualité moyen (SD) était de 2,5 (1,3) pour les études controlées des groupes sans complément (6 étant le plus haut score), et de 3,5 (1,4) pour les groupes avec complément non basé sur Internet.
|
|
Tableau 2. Qualité des études retenuesa
|
|
|
Synthèse des données quantitatives: Comparaisons sans intervention
Les Figures 2, 3, 4 et le e-Tableau 4 (http://www.jama.com) résume les résultats des méta-analyses mettant en parallèle les formations avec compléments pédagogiques basés sur Internet et les formations sans complément. Les résultats en termes de satisfaction sont difficilement définissables comparés à celles sans complément, aucune étude ne faisant état d'un résultat remarquable de ce genre. Nous nous sommes servis de valeurs P inexactes afin d'estimer 17 des 174 tailles d'effets (9,8%) et avons amputé des déviations standards de 10 d'entre elles (5,7%). Le e-Tableau 4 (http://www.jama.com) contient les résultats détaillés des analyses principales et de sensibilité de chaque finalité. Les études de sensibilité n'ont en aucun cas affecté les conclusions.
|
|
Figure 2. Méta-analyse à effets variables des compléments pédagogiques basés sur Internet contre absence de compléments: résultats sur les Connaissances Les parenthèses représentent les tailles d'effet mises en commun (Hedges g). Les valeurs P rendent compte des comparaisons de deux ou trois éléments parmi les sous-groupes entre parenthèses. Les groupes de participants ne sont pas mutuellement exclusifs; par conséquent aucune comparaison statistique n'est effectuée. Il y a 126 compléments pédagogiques car l'étude de Curran et al. en a apporté 10 à cette analyse. I² de mise en commun de ces compléments est 93.6%.
|
|
|
|
|
Figure 3. Méta-analyse à effets variables des compléments pédagogiques basés sur Internet contre absence de compléments: résultats sur les Capacités Pour une définition des éléments de la figure, voir la légende de la Figure 2. Tous les compléments étaient des tutorats, c'est pourquoi aucun contraste n'est donné pour cette caractéristique. I² de mise en commun de tous ces compléments est 92.7%.
|
|
|
|
|
Figure 4. Méta-analyse à effets variables des compléments pédagogiques basés sur Internet contre absence de compléments: résultats sur les Comportements en Pratique et les Effets sur les Patients Pour une définition des éléments de la figure, voir la légende de la Figure 2. Tous les compléments se sont déroulés dans un contexte de pratique; c'est pourquoi aucun contraste n'est donné pour cette caractéristique. Il y a 32 compléments car 14 ont été apportés par l'étude de Curran et al. I² de mise en commun de ces compléments est 79.1%
|
|
|
Connaissances. Cent dix sept études se portant sur 126 compléments s'appuyaient sur les connaissances comme finalité. Leffet taille mis en commun de ces compléments était de 1,00 (95% d'intervalle certain [CI], 0.90 – 1.10; P < .001). Puisque les tailles d'effet supérieures à 0.8 sont considérées comme grandes, cela suggère que les compléments pédagogiques se basant sur Internet ont un impact bénéfique sur les connaissances de l'étudiant comparé à une absence totale de complément. Nous avons cependant également trouvé une grande inconstance parmi les études (I² = 93.6%), et leffet taille par individu allaient de -0.30 à 6.69. L'un des deux compléments ayant provoqué un effet négatif (41) était en corrélation avec un cours intensif et clairement prévus sur le cancer du poumon. L'autre comparait un complément se basant sur Internet et donnant à des étudiants en internat de chirurgie des lignes de conduite à suivre avec d'autres étudiants d'un autre hôpital n'ayant pas accès à ces lignes de conduite, cela peut être facilement assimilé à une comparaison active de compléments pédagogiques. Lors d'analyses en sous-groupes traitant de cette inconstance, nous n'avons pas pu confirmer notre hypothèse suivant l'idée qu'une grande interactivité, qu'un accès continu aux supports des cours, que des discussions en ligne ou que la présence d'exercices pratiques auraient de plus grandes tailles d'effet (P de l'interaction supérieur ou égal à .15) (Figure 2). Nous avons cependant trouvé une interaction significative avec la qualité de l'étude, avec celles ayant des scores bas sur l'échelle modifiée de Newcastle-Ottawa révélant un effet supérieur aux études de haute qualité (score moyen, 1.07; 95% CI, 0.96 – 1.18 contre score moyen, 0.71; 95% CI, 0.51 – 0.92; P d'interaction = .003).
Techniques. Seize études avaient les techniques comme finalité. La taille d'effet mis en commun de 0.85 (95% CI, 0.49 – 1.20; P < .001) dénote d'un grand effet. Il y avait une grande inconsistance parmi les essais (I² =92.7%), et les tailles d'effet allaient de 0.02 à 2.50. La taille d'effet mise en commun pour les compléments basés sur des exercices pratiques était supérieure aux autres et ce de façon remarquable (effet taille regroupé, 1.01; 95% CI, 0.60 – 1.43 contre effet taille regroupé, 0.21; 95% CI, 0.04 – 0.38; P d'interaction < .001), mais une fois de plus, l'interactivité, la répétition et les discussions n'ont pas influé sur les résultats (P d'interaction supérieur ou égal à .30) (Figure 3).
Comportements et effets sur le soin des patients. Dix neuf études parlaient de 32 interventions évaluant le comportement de l'étudiant et l'effet sur le soin des patients. Ces études ont révélé un effet taille regroupé important soit 0.82 (95% CI, 0.63 – 1.02; P < .001) et une grande inconstance (I² =79,1%). Les effets taille allaient de 0.06 à 7.26. A l'inverse des résultats de techniques, les exercices pratiques ont eu un impact négatif sur les résultats de comportement (0.44; 95% CI, 0.33 – 0.55 si présent; 2.09; 95% CI, 1.38 – 2.79 si absent, P d'interaction < .001) (Figure 4). Nous avons également trouvé des différences remarquables statistiquement en faveur des tutorats, des cours dont la durée est plus longue, et des discussions en ligne entre étudiants.
Synthèse des données quantitatives: comparaisons avec les compléments non basés sur Internet
Les Figures 5, 6, 7 et 8 ainsi que le e-Tableau 4 (http://www.jama.com) résument les résultats de la méta-analyse comparant les compléments pédagogiques basés sur Internet avec ceux ne se servant pas d'Internet. Nous nous sommes servis de valeurs de P exactes afin d'évaluer une des 124 tailles d'effets (0,8%), et nous avons ajouté des déviations standard afin d'évaluer 5 tailles d'effet (4,0%). Les analyses de finesse n'ont en rien altéré les conclusions sauf indication.
|
|
Figure 5. Méta-analyse à effets variables des compléments pédagogiques basés sur Internet contre absence de compléments: résultats sur la Satisfaction Les études sont classées selon les différences relatives entre les compléments pédagogiques suivant des méthodes d'instructions clés; à savoir, est-ce que le complément comparé avait plus (comparaison > Internet), ou moins (comparaison < Internet) ou autant d'interactivité, d'exercices pratiques, de discussions (face à face ou par Internet, ou les deux), et de répétition. Les encadrés représentent la taille d'effets mise en commun (Hedges g). Les valeurs P correspondent aux comparaisons par deux ou trois parmi les sous-groupes entre parenthèses. Les groupes de participants ne sont pas mutuellement exclusifs, aucune comparaison statistique n'est par conséquent faite. Tous les résultats ont été déterminés de façon subjective; aucun contraste n'est donc rapporté pour cette caractéristique. Des études croisées ont évalué les préférences des participants à la suite d'une exposition à des compléments pédagogiques basés sur Internet ou non. I² de mise en commun des compléments est 92.2%.
|
|
|
|
|
Figure 6. Méta-analyse à effets variables des compléments pédagogiques basés sur Internet contre ceux non basés sur Internet: résultats sur les Connaissances Pour une définition des éléments de la figure et des paramètres de l'étude, voir légende de la figure 5. I² de mise en commun de tous les compléments est 88.1%.
|
|
|
|
|
Figure 7. Méta-analyse à effets variables des compléments pédagogiques basés sur Internet contre ceux non basés sur Internet: résultats sur les Capacités Pour une définition des éléments de la figure et des paramètres de l'étude, voir légende de la figure 5. Tous les compléments furent des tutorats, et tous les résultats ont été objectivement déterminés sauf pour une étude dont la méthode d'évaluation n'a pu être déterminée; c'est pourquoi aucun contraste n'est donné pour ces caractéristiques. I² de mise en commun de tous les compléments 89.3%%.
|
|
|
|
|
Figure 8. Méta-analyse à effets variables des compléments pédagogiques basés sur Internet contre ceux non basés sur Internet: résultats sur les Comportements et les Effets sur les Patients Pour une définition des éléments de la figure et des paramètres de l'étude, voir la légende de la Figure 5. I² de mise en commun de tous les compléments 94.6%.
|
|
|
Satisfaction. Quarante-trois études faisaient rapport de résultats de satisfaction en comparant les compléments basés sur Internet avec les autres. Leffet taille regroupé (les nombres positifs favorisent Internet) était de 0.10 (95% CI, -0.12 à 0.32) avec un I² = 92,2%. Cet effet est considéré comme petit (40) et ne différait pas de façon remarquable de (P = .37). Les effets taille individuelles allaient de -1.90 à 1.77.
Nous n'avions aucune hypothèse a priori au sujet des résultats de satisfaction des comparaisons de sous-groupes, mais nous avons trouvé des interactions statistiquement remarquables en faveur des cours de courte durée, des études de haute qualité et de l'utilisation ponctuelle plutôt que régulière des compléments pédagogiques basés sur internet (Figure 5).
Connaissances. Soixante-trois études se portant sur les compléments ne se servant pas d'Internet ont apporté des résultats se rapportant aux connaissances. Les effets taille regroupés allaient de -0.98 à 1.74. Leffet taille regroupé mise en commun de 0.12 (95% CI, 0.003 à 0.24) était statistiquement remarquablement différente de 0 (P = .045) mais aussi petite et inconstante (I² = 88.1%). Une analyse de sensibilité excluant les compléments mêlés a révélé une taille d'effet mise en commun de 0.065 (95% CI, -0.062 à 0.19, P = .31). En accord avec notre hypothèse, les effets taille regroupé étaient nettement supérieurs pour les compléments se servant d'Internet aidés de discussions contre ceux n'ayant pas de discussion (P d'interaction = .002) (Figure 6). Un avantage statistiquement remarquable est également apparu en faveur des cours de plus longue durée (P d'interaction = .03). Cependant, nos hypothèses au sujet des interactions des sous-groupes de traitement parmi plusieurs niveaux d'interactivité, des exercices pratiques et de la répétition ne furent pas vérifiées.
Techniques. Les douze études traitant des résultats sur les techniques ont donné un faible effet taille regroupé soit 0.09 (95% CI, -0.26 à 0.44; P = .61). Comme avec les autres résultats, nous avons rencontré une grande hétérogénéité ( I² = 89,3%). Les effets taille regroupés allaient de -1.47 à 0.93. Nous avons trouvé des interactions de sous-groupes de traitement statistiquement remarquables (P d'interaction inférieur ou égal à .04) donnant l'avantage aux niveaux d'interactivité élevés, aux exercices pratiques, et aux discussions entre étudiants (Figure 7). Ces études étaient cependant limitées par la taille minuscule des échantillons de recherche (parfois qu'une seule étude par groupe). Les compléments ne se répétant pas ont eu des effets taille supérieures à ceux pratiqués sur la longueur (P d'interaction =.02), et ce à l'inverse de ce que nous avions prévu.
Comportements et effets sur les soins des patients. Six études traitaient des résultats sur les comportements et les soins des patients. Leffet taille regroupé de 0.51 (95% CI, -0.24 à 1.25) était de taille modérée, mais nétait pas statistiquement remarquable (P =.18). Il y avait une grande inconstance (I² = 94,6%) et les effets taille individuelles allaient de -0.84 à 1.66. Nous avons une nouvelle fois trouvé une interaction de sous-groupe statistiquement remarquable en faveur des discussions (P d'interaction = .02); (Figure 8) mais comme pour les résultats de techniques, tempérés par de très petits échantillons. Encore une fois, les compléments ne se répétant pas ont eu des effets taille supérieures à ceux pratiqués sur la longueur (P d'interaction = .006).
COMMENTAIRE
Nous avons trouvé que les compléments pédagogiques basés sur Internet comparés à une absence de compléments ont un effet favorable de façon constante. L'estimation des effets taille regroupés était importante pour tous les résultats d'apprentissage.40 De plus, nous avons trouvé un effet moyen ou grand pour presque toutes les analyses de sous-groupes qui exploraient les variations entre les circonstances des formations, des modèles d'instruction, des modèles d'étude, et de qualité d'étude. Les études ont cependant révélé des résultats inconstants (hétérogènes), et les comparaisons de sous-groupes n'ont que partiellement expliqué ces différences.
L'effet des compléments pédagogiques basés sur Internet en comparaison avec ceux ne se servant pas d'Internet étaient aussi inconstants dans toutes les études. Les effets taille regroupés étaient par contraste faibles (inférieurs ou égaux à 0.12 pour tous sauf pour ceux traitant des comportements et des effets sur les patients) et sans pertinence (CI comprenant 0 [pas d'effet] pour tous les résultats sauf ceux traitant des connaissances).
Une certaine hétérogénéité naît certes des différences entre les étudiants, les méthodes d'instruction, les mesures de résultat, et d'autres aspects du contexte d'apprentissage. Par exemple, seulement deux études contrôlées se portant sur les apprentissages sans aucun complément pédagogique 41, 42 avaient des effets taille regroupés négatives, et dans les deux cas le manque de points positifs peut être attribué à une base d'éducation ou de comparaison plus riche. Nos hypothèses concernant les changements de portée des avantages inhérents aux variations des compléments pédagogiques étaient en général discréditées pas les analyses de sous-groupes, et dans certains cas des différences remarquables vinrent à l'encontre de nos hypothèses. Ces découvertes n'étaient pas constantes à tous les résultats et types d'études. Des inconstances inexpliquées ne nous permettraient que de tirer des conclusions fragiles sans la présence forte d'effets positifs dans toutes les études portant sur les comparaisons sans aucun complément pédagogique. Pour les comparaisons avec les compléments non basés sur Internet, ces inconstances rendent ces conclusions encore plus fragiles. Des recherches supplémentaires seraient nécessaires pour explorer les inconstances révélées dans cette étude.
Limites et forces
Notre étude comporte plusieurs limites. Tout d'abord, plusieurs comptes rendus ne rendent pas compte des éléments clés du contexte, du modèle d'instruction ou des résultats. Bien que le processus de relecture ait été conduit en binôme, le codage était subjectif et basé sur des descriptions déjà publiées plutôt que sur des évaluations directes d'événements d'instruction. Une mauvaise qualité de compte rendu a sans doute contribué à une cohésion modeste envers les accords sur les variables. Bien que nous ayons obtenu des résultats de données supplémentaires de plusieurs auteurs, nous avons néanmoins imputé des effets taille à de nombreuses études avec une marge d'erreur non négligeable. Le peu de comptes rendus de preuves de validité et de sûreté en a empêché l'acceptation. De plus, la qualité méthodologique était la plupart du temps basse. Les analyses de sous-groupes et de sensibilité n'ont cependant pas révélé d'effets remarquablement plus petits ou plus grands en fonction des différents modèles d'étude ou de qualité, ou après l'exclusion des effets taille imputés.
Ensuite, les compléments pédagogiques variaient grandement d'étude à étude. Puisque presque toutes les études ne comprenant aucun complément se sont avérées avantageuses, cette hétérogénéité suggère qu'un large panel de compléments pédagogiques se servant d'Internet puisse être utilisé à des fins de formation médicale. Cette découverte peut en sus mettre en exergue une subjectivité dans la publication d'études laissant à part celles qui ont une connotation négative. Nous ne nous sommes pas servis de « funnel plots » pour évaluer ces subjectivités éditoriales car elles ne sont pas certaines en présence d'une hétérogénéité aussi marquée.
Troisièmement, nous faisons rapport de nos résultats à laide de sous-groupes comme moyen efficace de synthétiser le nombre important d'études identifiées et en même temps d'explorer l'hétérogénéité. Les résultats des sous-groupes devraient cependant être interprétés avec précaution en raison du nombre de comparaisons faites, de l'absence d'hypothèses a priori pour de nombreuses analyses, des limites inhérentes aux études parallèles (plutôt qu'internes), et des découvertes inconstantes relatives aux résultats et aux types d'études.44 Nous avons par exemple trouvé, et ce contrairement à nos attentes, que les compléments qui se répètent (ceux basés sur Internet avec accès continu contre ceux non basés sur Internet disponibles qu'une fois) avaient des tailles d'effet moindres que les compléments se répétant à occurrence similaire. Ces résultats pourraient être dus au hasard, à la confusion, à la subjectivité ou vraiment à un effet. Un autre exemple se trouve dans la découverte d'une taille d'effet supérieure pour les résultats relatifs aux techniques dans le cadre d'exercices pratiques fréquents et d'une taille d'effet inférieure pour ceux relatifs aux comportements et effets sur les patients; cela pourrait s'expliquer par un effet différentiel véritable des compléments sur ces résultats, par des variantes de réponse parmi les résultats, par des variables parasytes non reconnues, ou par le hasard.
Enfin, en se concentrant sur les compléments basés sur Internet, nous avons par nécessité dû ignorer un corps de littérature important traitant des compléments pédagogiques ne se servant pas d'Internet mais basés sur l'ordinateur.
Notre rapport a également plusieurs points forts. Les questions de l'étude 2 sont opportunes et d'importance majeure aux enseignants des milieux médicaux. Nous avons intentionnellement gardé un point de vue large en termes de sujets, de compléments pédagogiques, et de résultats. Notre recherche d'études pertinentes a englobé de nombreuses bases de données d'ouvrages complétées par des recherches à la main, plus traditionnelles. Nous n'avions que peu de critères d'exclusion et avons inclus plusieurs études publiées dans des langues autres que l'anglais. Toutes les étapes du processus de recherche et de documentation ont été conduites en double et avec une dimension reproductible suffisante. Malgré le volume important de données, nous sommes restés concentrés sur nos analyses, gardant relativement bas le nombre d'analyses de sous-groupes expliquant les inconstances et d'analyses de sensibilité évaluant la résistance de nos découvertes face aux postulats de nos méta-analyses.
Comparaison avec des études précédentes
Les dernières méta-analyses des compléments pédagogiques par ordinateur dans le milieu des formations médicales 45, 46 ont été publiées en 1994 ou antérieurement, et ces compléments ont énormément changé depuis. Aux 16 études contrôlées sans aucun complément et 9 autres comparant des compléments non basés sur Internet relatées dans le dernier compte-rendu des formations en ligne, nous en avons ajouté 176 en y incluant des résumés méta-analytiques de résultats. Ceci ainsi que d'autres rapports (11-14, 16, 17, 47) confirme la présente étude dans ce qu'elle positionne la formation en ligne comme avantageuse dans un cursus d'apprentissage et comme donnant des résultats similaires à des compléments pédagogiques plus traditionnels.
Implications
Ce rapport a des implications au niveau des enseignants ainsi qu'au niveau des chercheurs. Même si nos conclusions doivent être tempérées par des inconstances présentes dans les études et par la possibilité de choix éditoriaux, les preuves synthétisées démontrent que les compléments pédagogiques se servant d'Internet s'associent à des aboutissements favorables pour une grande variété d'étudiants, de lieux d'étude, de sujets cliniques et de résultats d'apprentissage. Les compléments pédagogiques basés sur Internet paraissent avoir beaucoup plus d'effet qu'une absence de compléments et semblent similaires dans leur effets aux méthodes traditionnelles.
Les études établissant des comparaisons avec les méthodes dépourvues de tout complément pédagogique se concentraient principalement sur la question de l'efficacité d'un cours en ligne traitant d'un sujet bien spécifique. La réponse fut presque invariablement positive. Etant donnée cette constance d'effets et en prenant pour sûrs des choix éditoriaux objectifs, la valeur de recherches supplémentaires sur des comparaisons entre compléments se servant d'Internet et d'autres sans complément semble assez limitée. Bien que les études se portant sur les cas sans aucun complément pédagogique puissent être utiles pour des évaluations démonstratrices de nouveaux usages de méthodes basées sur Internet (comme par exemple une étude sur la cotation des formations en ligne), des innovations réellement nouvelles nécessitant des études comparables vont probablement devenir de plus en plus insolites et leur publication se fera de plus en plus rare.
Les études comparatives ayant pour but d'offrir une alternative aux moyens pédagogiques se sont demandées si les enseignements en ligne sont de qualité supérieure (ou inférieure) aux méthodes traditionnelles. En contraste avec les études sans aucun complément pédagogique, les réponses à cette question se sont avérées très variables. Certaines études allaient en faveur d'Internet, d'autres en faveur des méthodes traditionnelles, et en général il n'y avait que peu de différence entre les deux formats. Bien que les évaluations groupées se soient avérées donner l'avantage aux compléments pédagogiques basés sur Internet (à tout niveau sauf ceux du comportement et des effets sur les patients) la portée des bénéfices était minime et pouvait étre expliquée par des facteurs de variations notées plus haut ou par des effets de nouveauté.27 Ces découvertes soutiennent les débats stipulant que les compléments pédagogiques se servant d'ordinateurs ne sont par nature ni supérieurs ni inférieurs aux méthodes traditionnelles 10, 27-29. Peu d'études comparatives portant sur Internet rendaient compte des résultats au niveau du comportement et des effets sur les patients, et les CI pour ces estimations groupées n'excluent pas les effets pertinents de par leur enseignement. Des recherches supplémentaires, basées sur des mesures de résultat relatives aux compléments et sujettes au changement, seraient nécessaires pour optimiser la précision de ces estimations. Des irrégularités présentes dans les preuves dont nous disposons actuellement ainsi que des doutes au niveau conceptuel suggèrent cependant que la valeur des recherches à venir voulant démontrer l'effet des compléments pédagogiques en ligne sera limitée si elles se portent sur des étudiants différents, sur des contenus variés et des résultats contextuels.
L'inconstance présente entre les effets des deux études dénote d'une plus grande efficacité de certaines méthodes de mise en place des compléments pédagogiques en ligne par rapport à d'autres. Nous ne proposons pas conséquent de porter plus d'attention à cette question: " Comment peut-on efficacement mettre en place un complément pédagogique en ligne?" Afin de savoir comment mettre en place efficacement un complément pédagogique se servant d'Internet il faut effectuer d'autre recherches comparant directement différents compléments entre eux 7, 10, 27-29, 49. Les irrégularités pourraient également être dues aux différents contextes et objectifs de formation, alors la question "Quand est-ce que les compléments pédagogiques basés sur Internet devraient-ils être utilisés?" devrait-elle être prise en compte.10
Enfin, bien que nos découvertes au sujet de la qualité de ce corps de recherche ne soient pas les seules utilisables pour effectuer des recherches sur les compléments en ligne 30-32, les résultats relativement bas en termes de qualité méthodologique et le peu de compte rendus d'observation laissent la place à des améliorations.
Informations sur les auteurs
Correspondance: David A. Cook, MD, MHPE, Division of General Internal Medicine, Mayo Clinic College of Medicine, Baldwin 4-A, 200 First St SW, Rochester, MN 55905 (cook.david33{at}mayo.edu).
Contributions des auteurs : Dr Cook a eu un accès complet à toutes les données de l'étude et accepte la responsabilité de l'intégrité des données et de l'exactitude de l'analyse des données.
Concept et schéma de létude : Cook, Levinson, Dupras, Garside, Erwin, Montori.
Recueil des données : Cook, Levinson, Dupras, Garside, Erwin.
Analyse et interprétation des données : Cook, Montori.
Rédaction du manuscrit : Cook.
Revue critique du manuscrit : Cook, Levinson, Dupras, Garside, Erwin, Montori.
Analyse statistique: Cook, Montori.
Obtention du financement: Cook.
Aide administrative, technique ou matérielle: Cook, Montori.
Supervision de létude : Cook.
Liens financiers : aucun rapporté.
Financement et soutien: Ce travail a été soutenu par un financement interne et une bourse de la Mayo Foundation Education Innovation.
Rôle du sponsor: Les sources de financement de cette étude n'ont joué aucun rôle dans la conception et la conduite de l'étude ; dans le recueil, la gestion, l'analyse, et l'interprétation des données ; ou dans la préparation du manuscrit. Les sources de financement nont pas revu le manuscrit.
Autres Informations: Les détails des études incluses et leur qualité, et sur les métas-analyse sont disponibles sur http://www.jama.com.
Autres contributions: Nous remercions Melanie Lane, BA, Mohamed Elamin, MBBS, et M. Hassan Murad, MD, de l'unité de connaissance et recherches sur les rencontres, de la clinique de Mayo, de l'aide pour le recueil des données, la planification et l'exécution de méta-analyse, et Kathryn Trana, de la Division de médecine interne, de la Mayo Clinic, de l'aide dans l'acquisition et le traitement de larticle. Ces personnes ont reçu une compensation dans le cadre de leur emploi régulier.
Affiliations des auteurs : College of Medicine (Drs Cook, Dupras, Montori et Ms Erwin), Office of Education Research (Dr Cook), Knowledge and Encounter Research Unit (Dr Montori), Mayo Clinic, Rochester, Minnesota, et McMaster University, Hamilton, Ontario (Drs Levinson et Garside).
FMC disponible en ligne à www.jamaarchivescme.com et questions p 1245.
BIBLIOGRAPHIE
| |
1. Berners-Lee T, Cailliau R, Luotonen A, Nielsen HF, Secret A. The World-Wide Web. CommunACM. 1994; 37(8):76-82.
2. Friedman RB. Top ten reasons the World Wide Web may fail to change medical education. Acad Med. 1996; 71(9):979-981.
PUBMED
3. MacKenzie JD, Greenes RA. The World Wide Web: redefining medical education. JAMA. 1997;278 (21):1785-1786.
PUBMED
4. Ruiz JG, Mintzer MJ, Leipzig RM. The Impact of e-learning in medical education. Acad Med. 2006; 81(3):207-212.
PUBMED
5. Cook DA. Web-based learning: pros, cons, and controversies. Clin Med. 2007;7(1):37-42.
PUBMED
6. Effective Use of Educational Technology in Medical Education. : Summary Report of the 2006 AAMC Colloquium on Educational Technology. Washington, DC: Association of American Medical Colleges; 2007.7. Tegtmeyer K, Ibsen L, Goldstein B.. Computer-assisted learning in critical care: from ENIAC to HAL. Crit Care Med. 2001;29(8)(suppl):N177-N182.
PUBMED
8. Davis MH, Harden RM. E is for everything— e-learning? Med Teach. 2001;23(5):441-444.
PUBMED
9. Chumley-Jones HS, Dobbie A, Alford CL. Web-based learning: sound educational method or hype? a review of the evaluation literature. Acad Med. 2002; 77(10)(suppl):S86-S93.
PUBMED
10. Cook DA. Where are we with Web-based learning in medical education? Med Teach. 2006;28 (7):594-598.
PUBMED
11. Greenhalgh T.. Computer assisted learning in undergraduate medical education. BMJ. 2001;322 (7277):40-44.
FREE FULL TEXT
12. Lewis MJ, Davies R, Jenkins D, Tait MI. A review of evaluative studies of computer-based learning in nursing education. Nurse Educ Today. 2001;21 (1):26-37.
PUBMED
13. Wutoh R, Boren SA, Balas EA. eLearning: a review of Internet-based continuing medical education. J Contin Educ Health Prof. 2004;24(1):20-30.
PUBMED
14. Chaffin AJ, Maddux CD. Internet teaching methods for use in baccalaureate nursing education. Comput Inform Nurs. 2004;22(3):132-142.
PUBMED
15. Curran VR, Fleet L. A review of evaluation outcomes of Web-based continuing medical education. Med Educ. 2005;39(6):561-567.
PUBMED
16. Hammoud M, Gruppen L, Erickson SS, et al.. To the point: reviews in medical education online computer assisted instruction materials. Am J Obstet Gynecol. 2006;194(4):1064-1069.
PUBMED
17. Potomkova J, Mihal V, Cihalik C.. Web-based instruction and its impact on the learning activity of medical students: a review. Biomed Pap Med Fac Univ Palacky Olomouc Czech Repub. 2006;150(2): 357-361.
PUBMED
18. Moher D, Cook DJ, Eastwood S, Olkin I, Rennie D, Stroup DF. Improving the quality of reports of meta-analyses of randomised controlled trials: the QUOROM statement. Quality of Reporting of Meta-analyses. Lancet. 1999;354(9193):1896-1900.
PUBMED
19. Stroup DF, Berlin JA, Morton SC, et al.. Meta-analysis of observational studies in epidemiology: a proposalfor reporting. JAMA. 2000;283(15):2008-2012.
FREE FULL TEXT
20. Bransford JD, Brown AL, Cocking RR, et al.. How People Learn: Brain, Mind, Experience, and School. Washington, DC: National Academy Press; 2000.21. Davis D, OBrien MA, Freemantle N, Wolf FM, Mazmanian P, Taylor-Vaisey A. Impact of formal continuing medical education: do conferences, workshops, rounds, and other traditional continuing education activities change physician behavior or health care outcomes? JAMA. 1999;282(9):867-874.
FREE FULL TEXT
22. Mayer RE. Cognitive theory of multimedia learning. In: Mayer RE, ed. The Cambridge Handbook of Multimedia Learning. New York, NY: Cambridge University Press; 2005:31-48.23. Cook DA, Thompson WG, Thomas KG, Thomas MR, Pankratz VS. Impact of self-assessment questions and learning styles in Web-based learning: a randomized, controlled, crossover trial. Acad Med. 2006; 81(3):231-238.
PUBMED
24. Cook DA, McDonald FS. E-learning: is there anything special about the "E"? Perspect Biol Med. 2008; 51(1):5-21.
PUBMED
25. Marinopoulos SS, Dorman T, Ratanawongsa N, et al.. Effectiveness of continuing medical education. Evid Rep Technol Assess (Full Rep). 2007;149:1-69.
PUBMED
26. Shea JA. Mind the gap: some reasons why medical education research is different from health services research. Med Educ. 2001;35(4):319-320.
PUBMED
27. Clark RE. Reconsidering research on learning from media. Rev Educ Res. 1983;53:445-459.
28. Cook DA. The research we still are not doing: an agenda for the study of computer-based learning. Acad Med. 2005;80(6):541-548.
PUBMED
29. Friedman CP. The research we should be doing. Acad Med. 1994;69(6):455-457.
PUBMED
30. Kirkpatrick D.. Revisiting Kirkpatricks four-level model. Train Dev. 1996;50(1):54-59.
31. Shrout PE, Fleiss JL. Intraclass correlations: uses in assessing rater reliability. Psychol Bull. 1979;86:420-428.
PUBMED
32. Wells GA, Shea B, OConnell D, et al.. The Newcastle-Ottawa Scale (NOS) for assessing the quality of nonrandomised studies in meta-analyses. Available at: http://www.ohri.ca/programs/clinical_epidemiology/oxford.htm. Accessed June 16,2008.33. Morris SB, DeShon RP. Combining effect size estimates in meta-analysis with repeated measures and independent-groups designs. Psychol Methods. 2002; 7(1):105-125.
PUBMED
34. Dunlap WP, Cortina JM, Vaslow JB, Burke MJ. Meta-analysis of experiments with matched groups or repeated measures designs. Psychol Methods. 1996;1:170-177.
35. Hunter JE, Schmidt FL. Methods of Meta-Analysis: Correcting Error and Bias in Research Findings. Thousand Oaks, CA: Sage; 2004.36. Curtin F, Altman DG, Elbourne D. Meta-analysis combining parallel and cross-over clinical trials, I: continuous outcomes. Stat Med. 2002;21(15):2131-2144.
PUBMED
37. Higgins JP, Green S. Cochrane Handbook for Systematic Reviews of Interventions (Version 5.0.0). Available at: http://www.cochrane.org/resources/handbook/index.htm. Updated February 2008. Accessed29 May 2008.38. Higgins JP, Thompson SG, Deeks JJ, Altman DG. Measuring inconsistency in meta-analyses. BMJ. 2003; 327(7414):557-560.
FREE FULL TEXT
39. Curran V, Lockyer J, Sargeant J, Fleet L.. Evaluation of learning outcomes in Web-based continuing medical education. Acad Med. 2006;81(10)(suppl):S30-S34.
PUBMED
40. Cohen J.. Statistical Power Analysis for the Behavioral Sciences. 2nd ed. Hillsdale, NJ: Lawrence Erlbaum; 1988.41. Mehta MP, Sinha P, Kanwar K, Inman A, Albanese M, Fahl W. Evaluation of Internet-based oncologic teaching for medical students. J Cancer Educ. 1998;13(4):197-202.
PUBMED
42. Patterson R, Harasym P.. Educational instruction on a hospital information system for medical students during their surgical rotations. J Am Med Inform Assoc. 2001;8(2):111-116.
FREE FULL TEXT
43. Lau J, Ioannidis JPA, Terrin N, Schmid CH, Olkin I. The case of the misleading funnel plot. BMJ. 2006; 333(7568):597-600.
FREE FULL TEXT
44. Oxman A, Guyatt G.. When to believe a subgroup analysis. In: Hayward R, ed. Users Guides Interactive. Chicago, IL: JAMA Publishing Group; 2002.http://www.usersguides.org. Accessed August 14,2008.45. Cohen PA, Dacanay LD. Computer-based instruction and health professions education: a meta-analysis of outcomes. Eval Health Prof. 1992;15:259-281.
FREE FULL TEXT
46. Cohen PA, Dacanay LD. A meta-analysis of computer-based instruction in nursing education. Comput Nurs. 1994;12(2):89-97.
PUBMED
47. Lewis MJ. Computer-assisted learning for teaching anatomy and physiology in subjects allied to medicine. Med Teach. 2003;25(2):204-206.
PUBMED
48. Kobak KA, Engelhardt N, Lipsitz JD. Enriched rater training using Internet based technologies: a comparison to traditional rater training in a multi-site depression trial. J Psychiatr Res. 2006;40(3):192-199.
PUBMED
49. Keane DR, Norman G, Vickers J. The inadequacy of recent research on computer-assisted instruction. Acad Med. 1991;66(8):444-448.
PUBMED
50. Cook DA, Beckman TJ, Bordage G. Quality of reporting of experimental studies in medical education: a systematic review. Med Educ. 2007;41(8):737-745.
PUBMED
51. Reed DA, Cook DA, Beckman TJ, Levine RB, Kern DE, Wright SM. Association between funding and quality of published medical education research. JAMA. 2007;298(9):1002-1009.
FREE FULL TEXT
52. Issenberg SB, McGaghie WC, Petrusa ER, Lee Gordon D, Scalese RJ. Features and uses of high fidelity medical simulations that lead to effective learning: a BEME systematic review. Med Teach. 2005;27(1):10-28.
PUBMED
ARTICLE EN RAPPORT
Cette semaine dans le JAMA-Français
JAMA. 2008;300:1115.
Texte Complet
|