Fiche Documentaire n° 2429

Titre Savoirs, Compétences et Evaluation à l’ère des Technologies de l’Information et de Communication

Contacter
l'auteur principal

Auteur(s) BOUARAB-DAHMANI Farida
TAHI Razika
 
     
Thème  
Type Analyse d'expérience : d'intervention, de formation, de recherche...  

Résumé | Bibliographie | Les auteurs... | Article complet | PDF (.fr) | Résumé en anglais | PDF .Autre langue | Tout afficher

Résumé

Savoirs, Compétences et Evaluation à l’ère des Technologies de l’Information et de Communication

Dans le monde de l’éducation actuel, les savoirs et compétences connaissent une dynamique sans précédents. En effet à peine, leurs acquisition et maitrises terminées, ils doivent déjà être mis à jour. L’évolution des technologies de l’information et de la communication est l’un des facteurs favorisant cette dynamique. De cela découle la problématique du savoir et des compétences de l’enseignant aussi évaluateur. Celui-ci doit systématiquement suivre l’évolution par l’actualisation de ses potentialités.
L’intérêt d’une approche par les compétences dans les systèmes d’éducation de cette nouvelle société de l’économie mondiale, technologies de pointes,… est évident, cependant la méfiance et réticence des enseignants vis-à-vis de ce système restent essentiellement liées à l’évaluation des apprenants. Evaluer les compétences « rapprochent » l’évalué de l’évaluateur, celui-ci n’est plus l’exécuteur systématique de procédés du genre « testing » mais « s’assoit avec l’apprenant » comme est interprété le mot anglo-saxon émergent «assessment». De ce fait on va vers l’individualisation, l’adaptation, personnalisation, … des apprentissages et des évaluations. Là, on est directement confronté à un deuxième problème pour l’approche par les compétences : celui du nombre des apprenants !
En regardant les différentes problématiques et exigences du contexte des systèmes de l’éducation actuels, nous proposons l’intégration cohérente des approches par objectif ou traditionnelles centrées sur l’acquisition des savoirs avec l’approche par les compétences dans le programme d’enseignement : l’acquisition des savoirs étant vu comme pré requis pour tout exercice de compétences pour chaque étape d’apprentissage du programme. Cette intégration, conjuguée avec les outils proposés par les technologies de l’information et de communication (TIC) pour aider l’enseignant, peut aboutir à une amélioration sensible des enseignements.
Tardif mentionne, dans son chapitre sur un cadre général pour l’évaluation des compétences, que l’on doit repenser le système d’évaluation. En effet, si l’utilisation du potentiel de l’informatique dans l’évaluation est intéressante, cette utilisation doit prendre en compte le plus possible l’ensemble des éléments d’évaluation de la compétence (savoir, savoir-faire et savoir-être) tout particulièrement lors d’une évaluation dans le cadre de formation à distance où l’utilisation de cet outil prend beaucoup plus d’importance.

Or, Les enseignants parviennent mal à concilier l'apprentissage à des techniques et outils informatiques avec le développement de stratégies pédagogiques appropriées et significatives, suffisamment validées pour servir dans les activités d’enseignement et d’apprentissage. Connaissant les possibilités de l’informatique et sachant le fait qu’évaluer une compétence doit prendre en compte, entre autres, le savoir et le savoir-faire et les attitudes de l’apprenant dans le cadre d’une formation, ne faudrait il pas réfléchir à priori sur une évaluation d’un enseignement par les compétences utilisant des logiciels ?

Bibliographie

(Tardif, 2006) : Tardif, J. (2006). L’évaluation des compétences. Documenter le parcours de développement. Montréal : Chenelière Education.
(Lavoie & Martineau, 2001) : Lavoie, M. et Martineau, H. (2001). Prend-on les TIC par le bon bout ?, Le bulletin Clic. (40), 4.

(Roegiers, 2008) : Roegiers X. « L’approche par compétences en Afrique francophone : Quelques tendances». Bureau international d’éducation de l’UNESCO. IBE Working Papers on Curriculum Issues Nº 7. Genève, Suisse, mai 2008.

(Scallon, 2004) : Scallon, G. (2004). L’évaluation des apprentissages dans une approche par compétences. Saint-Laurent : Éditions du renouveau pédagogique

(Berbaum & al. 1998) : Berbaum J., Raynal F., Rieunier A. - Pédagogie : dictionnaire des concepts clés, Revue française de pédagogie, 1998, vol. 125, n° 1, pp. 164-165.

(Bouarab-Dahmani 2010) : Bouarab-Dahmani F. Modélisation basée ontologies pour l’apprentissage interactif - Application à l’évaluation des connaissances de l’apprenant. Thèse de DOCTORAT en informatique soutenue à l’UMM de Tizi Ouzou en 2010.

(Bouarab-Dahmani & al. 2011) : Bouarab-Dahmani F., Si-Mohammed M., Comparot C., Charrel P. J. Adaptive Exercises Generation using an Automated Evaluation and a Domain Ontology: The ODALA+ Approach, International journal of emerging technologies in learning, IJET, Vol.6, Issue 2, June 2011, 4-10, doi:10.3991/ijet.v6i2.1562

(Bruillard 97) : Bruillard E. (1997). Les machines à enseigner. Hermès.

(Gillet, 1991) : Gillet, P. Construire la formation : outils pour les enseignants et les formateurs, Paris, PUF. 1991.

(Guillevic, 1991). Guillevic, Ch. Psychologie du travail, Paris, Nathan, p. 145. 1991

Présentation des auteurs

Tahi Razika. Maître de conférences en statistique de gestion. Laboratoire d’Électrification des Entreprises Industrielles. Département d’Économie. Faculté des Hydrocarbures et de la Chimie. Université M’hamedBougara de Boumerdes. E- Mail : raztahi@yahoo.fr

Bouarab-Dahmani Farida. Maître de conférences en informatique de gestion. Département Informatique, Faculté du Génie Electrique & Informatique. Université Mouloud Mammeri de Tizi-Ouzou. E-mail : farida.bd2011@yahoo.fr

Communication complète

SAVOIRS, COMPETENCES ET EVALUATION A L’ERE DES TECHNOLOGIES DE L’INFORMATION ET DE COMMUNICATION

Farida Bouarab-Dahmani ,
Département Informatique, Faculté du Génie Electrique & Informatique
Université Mouloud Mammeri de Tizi-Ouzou, BP 17, Tizi Ouzou (15000), Algérie
E-mail : farida.bd2011@yahoo.fr,

Razika Tahi
Laboratoire d’Électrification des Entreprises Industrielles.
Département d’Économie. Faculté des Hydrocarbures et de la Chimie.
Université M’hamed Bougara de Boumerdes. Avenue de l’Indépendance 35 000 Boumerdes.
E- Mail : raztahi@yahoo.fr



RESUME
Dans le monde de l’éducation actuel, les savoirs et compétences connaissent une dynamique sans précédents. En effet, à peine, leurs acquisition et maitrises terminées, ils doivent déjà être mis à jour. L’évolution des Technologies de l’Information et de la Communication (TIC) est l’un des facteurs favorisant cette dynamique. De cela découle la problématique du savoir et des compétences de l’enseignant aussi évaluateur. Celui-ci doit systématiquement suivre l’évolution par l’actualisation de ses potentialités.
L’intérêt d’une approche par les compétences dans les systèmes d’éducation de cette nouvelle société de l’économie mondiale et des technologies de pointes est évident, cependant la méfiance et réticence des enseignants vis-à-vis de ce système restent essentiellement liées à l’évaluation des apprenants. Evaluer les compétences « rapprochent » l’évalué de l’évaluateur qui n’est plus l’exécuteur systématique de procédés du genre «testing» mais «s’assoit avec l’apprenant » comme est interprété le mot anglo-saxon émergent «assessment». De ce fait on va vers l’individualisation, l’adaptation, personnalisation, … des apprentissages et des évaluations.
En regardant les différentes problématiques et exigences du contexte du domaine de l’intervention sociale, en termes d’un apprentissage par l’exercice, nous proposons une méta modélisation de discipline en combinant les résultats de nos précédents travaux sur la modélisation ontologique de domaines à enseigner d’une part, avec l’approche par compétences telle pratiquée et préconisée par Jon Mueller d’autre part. La construction du savoir à enseigner ainsi décrite a comme principal objectif de faciliter au maximum l’usage des TIC et la mise en œuvre de procédés d’évaluation, en particulier l’évaluation critériée normative que nous pensons adéquate au domaine de l’intervention sociale.
Mots clés : construction de savoir à enseigner, ontologie de domaine, évaluation critèriée, Technologies de l’Information et de la Communication (TIC), intervention sociale


1. INTRODUCTION
Le domaine de formation en Intervention Sociale (IS) est parmi les plus évolutifs et complexes vue l’impact direct des mutations sociales sur la qualité de l’intervention : en effet, pour les domaines où les savoirs, les pédagogies, … sont déjà construits, la qualité des intervenants peut être atteinte au bout d’un processus itératif où chaque boucle de retour est porteuse d’un certain nombre d’actions correctives ou évolutives. Pour le domaine de l’IS, il va falloir plutôt construire des méta modèles vu la réception directe des changements de la société. Les actions correctives sur le méta modèle ou les modèles génériques utilisés sur terrain, pour être objectives, doivent provenir d’une évaluation formative impliquant tous les acteurs d’une formation et les partenaires sociaux économiques pour capter objectivement les évolutions de la société, des apprenants, des enseignants, des technologies et autre logistiques et les répercuter sur les savoirs et les modèles d’enseignement.
L’évaluation formative est effectuée en cours d’activité de formation et vise à apprécier le progrès accompli et à comprendre la nature des difficultés rencontrées, de façon à améliorer, corriger et réajuster l’enseignement. Concernant le but formatif de l’évaluation, dans [Bernard & al. 00], les auteurs distinguent deux sous-dimensions: le but micro-formatif où l’enseignant étudie les résultats de l’évaluation et les utilisent pour adapter son cours du plus petit détail à l’option la plus centrale. Pour cela, il n’a pas à consulter ni à impliquer ses responsables administratifs. Le but macro-formatif, qui s’intéresse à toutes les mesures qui sont sous la responsabilité collective d’une discipline ou d’un programme et qui ont un impact direct sur la formation des étudiants. C’est dans ce sens, que les enseignants donnent, à leurs responsables, libre accès à leurs résultats sachant que ces derniers peuvent les utiliser pour leurs avancements de carrières. Adopter une démarche d’évaluation comme un moyen de faire évoluer les pratiques, notamment celles de l’enseignement de l’IS, doit d’abord commencer par la modélisation des savoirs utiles pour cet enseignement de type par exercice. En effet, pour ce domaine, il s’agit de : définir des méta connaissances où l’invariant (inspiré par la nature humaine) est séparé du variant (dépendant de l’environnement sociétal et/ou technologique) pour que l’apprenant du métier devienne «évolutif» et «adaptatif» avec les situations problèmes qui se poseront à lui. Ensuite, il est nécessaire d’avoir un processus d’évaluation de compétences adéquat. Pour chacun de ces points, il y a lieu de considérer l’aide que peuvent apporter les TIC.
Nous débuterons notre communication par une proposition d’une modélisation ontologique de savoir à enseigner en énonçant un certain nombre de concepts clés à définir pour toute discipline en apprentissage par l’exercice comme l’IS. Ensuite, au deuxième point, nous décrivons l’évaluation critériée normative comme procédé d’évaluation adéquat pour le domaine de l’IS. Au niveau du dernier point, nous discutons, avant de conclure, d’une démarche de construction des savoirs basée ontologie pour l’IS compatible avec les TIC et avec l’évaluation formative critériée.


2. SAVOIRS A ENSEIGNER, COMPETENCES ET OBJECTIFS PEDAGOGIQUES

En général, on conçoit les éléments à enseigner (que les uns appellent objets pédagogique, d’autres contenu ou encore matériaux pédagogique, savoir, …) imbriqués avec leurs présentations respectives matérialisées par les supports de cours ou autre documents papiers ou numérisés. Ceci pose le problème de la réutilisabilité et de la souplesse de manipulation et de transmission de ces éléments surtout en utilisant les TIC. D’autre part, nous trouvons une ambiguïté issue des différentes appellations des composantes de la matière à enseigner où le niveau de granularité est vague et dépend de l’enseignant et des limites/proximités avec les composantes relatives à la pédagogie et la modélisation de l’apprenant.
Il convient d’examiner le concept de «domaine à enseigner» plutôt que les différents concepts véhiculés qui ont chacun une portée relative. Donc nous distinguons les connaissances du domaine à enseigner des autres connaissances relatives à la pédagogie, à la représentation de l’apprenant, à la didactique, …. Ceci d’une part, d’autre part nous proposons de représenter la structure du domaine indépendamment des ressources pédagogiques.
Nous avons donc une spécification structurelle interne d’un domaine à laquelle correspondent des ressources multimédias sous différents formats de présentations affichées. Pour l’exploitation de ces domaines par différentes communautés du monde à l’ère de l’internet (en particulier le Web 2.0 et le Web sémantique ), l’utilisation des représentations ontologique des domaines à enseigner est inévitable [Bouarab-Dahmani 2010]. En effet, les ontologies permettent d’envisager une représentation d’un domaine en définissant un ensemble de concepts, de terminologie, de liens sémantiques entre concepts et même de fonctions et axiomes et/ou règles qui ressortent d’un consensus des propositions respectives de différents expert et/ou praticiens du domaine (cf. figure 1).



Figure 1 : Ontologie d’un domaine comme consencus de réflexions d’experts

De ce fait, l’enseignement d’un domaine, qui peut se faire en présentiel, à distance ou en blended learning (intégrant d’une façon cohérente le présentiel et le e-learning), met en jeu différents acteurs (enseignants, apprenants, gestionnaires, ...) dans l’appartenance est sans frontières à l’ère du réseau Internet. Nous avons donc besoin d’une représentation qui facilite la transmission et la manipulation des connaissances du domaine et d’une uniformisation des définitions respectives des composantes de celui-ci. C’est ce que certains auteurs comme dans [Psyché & al.03] appellent le besoin de partage de connaissances. Il y a également lieu de faciliter l’acquisition et la mise à jour des connaissances vu que tout domaine d’enseignement relève d’une expertise évolutive rarement cernée lors du développement du système où elle est intégrée ; ce qui est particulièrement le cas du domaine de l’intervention sociale.
Du point de vue pédagogique, aujourd’hui, le pouvoir n’est plus à celui qui sait, comme autrefois, ni même à celui qui cherche, mais à celui qui agit. En effet le découpage disciplinaire n’est plus adapté à cette logique de l’action où en plus de l’évolution naturelle des connaissances, il y a la nécessité de prendre en compte les nouvelles catégories de contenus, comme des capacités mobilisées dans toutes les disciplines ( « life skills », souvent appelées « compétences transversales») comme : chercher de l’information, traiter l’information, communiquer de manière efficace, etc.). En pédagogie, un objectif est un énoncé d'intention décrivant ce que l'apprenant saura (ou saura faire) après apprentissage. Les objectifs sont normalement dérivés des finalités de l'éducation et des objectifs généraux de formation. La compétence est liée à un métier, à une profession, à un statut, à une situation professionnelle ou une situation sociale de référence. Elle combine des « savoirs, savoir-faire et savoirs-être » intimement liés [Berbaum & al. 98]. Selon Gillet [Gillet, 1991], Une compétence est “ un système de connaissances, conceptuelles et procédurales, organisées en schémas opératoires et qui permettent, à l’intérieur d’une famille de situations, l’identification d’une tâche-problème et sa résolution par une action efficace”.
L’approche par compétences améliore la pédagogie par objectifs en proposant la notion de compétence comme un des principes organisateur de la formation. Ainsi, les apprentissages serviront au développement de capacités utiles dans les activités de la vie courante extrascolaires. Elle permet d’organiser la formation en fonction d’objectifs de différents niveaux d’abstraction mis en place respectivement pour acquérir des compétences correspondant au niveau d’abstraction similaire c-ad : compétence globale pour objectif général, sous compétences pour objectifs intermédiaires et micro compétences pour objectifs spécifiques.
En résumé nous synthétisons que les notions d’objectifs pédagogies globaux se confondent aujourd’hui avec les notions de compétences et de standards. Ce dernier concept étant plus précis du fait que Mueller [Mueller 2005] [Mueller 2013] pose la condition de mesurabilité (une à deux mesure pour chaque « standard ») pour poser ainsi la contrainte de rechercher des compétences canoniques ponctuelles d’où on pourra déduire d’autre compétences de plus haut niveau. Ceci permettra à un apprenant qui sait agir face à des « standards » de pouvoir agir face à des situations plus complexes. Par exemple (extrait et adapté du site de Mueller) : le standard : « Les étudiants vont comparer les systèmes politiques du monde et analyser les relations et les tensions entre les différents pays » est complexe est difficilement mesurable. Il est en plus fin, la composition de deux standards canoniques suivants : « Les étudiants vont comparer les systèmes politiques du monde » et « Les étudiants vont analyser les relations et les tensions entre les différents pays».
En se projetant dans le contexte d’un apprentissage par l’exercice et d’une pédagogie par compétences, comme c’est le cas du domaine de l’intervention sociale, nous proposons un modèle ontologique combinant celui déjà proposé dans nos précédents travaux avec certains concepts de l’approche par compétences au sens de l’auteur anglo-saxon Jon Mueller. Cette combinaison est compatible dans le sens que, comme Mueller, nous avons construit un modèle d’une discipline pour faciliter au maximum les différents types d’évaluations. Dans ce papier, nous nous intéressons particulièrement à l’évaluation criteriée ou normative que nous pensons adéquate au domaine d’intervention sociale. De ce fait, nous décomposons un domaine en deux principales composantes détaillées dans les points suivants.
2.1. La spécification ontologique du domaine : La spécification est une caractérisation des composantes du domaine ainsi que les liens et règles liant ces composantes. Nous proposons particulièrement la définition des concepts suivants connectés entre eux par des liens (composition, prérecquis, … que nous avons déjà proposé dans [Bourab-Dahmani 2010) :
• Les buts de la finalité de formation en IS : Chaque but est un énoncé définissant de manière générale les intentions poursuivies soit par une institution, soit par une organisation, soit par un groupe, soit par un individu à travers un programme ou une action de formation en IS.
• Les Notions et les Items de Connaissances : Ce sont les composantes du domaine d’enseignement que l’enseignant souhaite transmettre à l’apprenant. Une notion peut être décomposée en plusieurs « sous-notions » dans un processus nécessairement fini pour avoir au bout du processus de décomposition des notions granulaires que nous appelons items de connaissances [Bouarab-Dahmani 2009].
• Les compétences spécifiques ou références du domaines: Partant du concepts anglophone « Standart » lu dans [Mueller 2013], nous proposons la définition, pour chaque domaine à enseigner des références du domaine qui décrivent ce que les apprenants devraient savoir et être capable de faire dans le contenu d'une discipline spécifique ou à l'intersection de deux ou plusieurs disciplines (par exemple, les apprenants doivent pouvoir décrire les effets de l'activité physique sur le corps). En contraste on peu avoir, d’après Mueller, des références plus générales relatives au processus cognitifs (come trouver et évaluer les informations pertinentes) ou des références de valeurs relatives aux attitudes comme «apprécier la diversité des opinions » ou « prendre des risques responsables ». A chaque but de formation sont rattachés différentes compétences spécifiques ou standards.
• Des questionnaires authentiques : Pour évaluer l’acquisition des concepts du savoir dans l’absolue. Le degré d’enthenticité du quiz ou QA nous permettra de mieux apprécier le travail individuel cognitif d’un apprenant.
• Les situations problemes autentiques (authentic tasks) : Qui permettront à un apprenant d’exercer son savoir agir face à une situation inspirée de la pratique ou simulées en études de cas. Chaque SPA donne lieu, en réalité à une évaluation authentique, au sens de Mueller, car la résolution de la SPA donne l’oaccasion à l’apprenant d’apprendre une compétence plus au moins complexe mais contexctuelle. L’évaluateur n’est plus le « juge » du travail résultat mais un facilitateur pour guider l’apprenant à bien agir ;
• Des grilles d’évaluation ou rubriques : pour chaque SPA ou QA, définir des grilles d’évaluation critériés. Pour chaque grille, il est souhaitable de préciser dans l’ontologie, si consensus il ya : des critères d’évaluation, des niveaux de performances, …. que nous détaillons dans le paragraphe suivant relatif à l’évaluation.
• Des erreurs d’exercices potentielles : celles déjà rencontrées par les experts chez les intervenants sociaux face à une tâche d’intervention concréte, lors de résolution de SPA ou de réponses à des QA. Nous insistons tout de même sur la nécessité de préciser les liens potentiels entre les erreurs détectés et les SPA/QA/question et les composantes du domaine (items de connaissances et/ou notions/sous notions). Notre expérience avec les domaines de l’informatique, nous ont montré l’efficacité d’isoler les erreurs par item de connaissances pour faciliter le diagnostic des composantes du domaine mal comprises. Il reste à vérifier la validité de cette hypothèse avec le domaine de l’intervention sociale.
• Des exemples explicatifs de notions et composantes et des erreurs
• Des orientation types ou corrigés types pour les QA et les SPA
• Des méta données : pour accéder les ressources pédagogique avec des annotations sémantiques indiquant pour chaque concept (notions, SPA, erreur, …) quelles ressources bibliographique ou autre permettant de l’expliquer pour le mieux. Ce dernier concept est surtout utile pour le cas de l’utilisation de l’ontologie operationnalisée par des outils du web sémantique pour différentes activités (recherches documentaire personnalisée, génération de parcours, évaluation automatisée, …)
Les liens sémantiques entre ces différents concepts font partie intégrantes de l’ontologie. Le lien « évalue » par exemple entre une SPA et un item est une connaissance du domaine qui dit que la SPAX 2value un ensemble d’item de connaissances {ic1, ic2, ic3, …icn}.
2.2. Les ressources pédagogiques : . Les ressources sont un ensemble de fichiers d’illustrations (cours textuels, vidéo, image, sons, …) permettant d’enseigner ou de délivrer des cours du domaine à des apprenants. A une notion du domaine, par exemple « agressivité en milieu familial », peuvent être connectées différentes ressources : vidéos, documents de cours, témoignage textuels, sons ou vidéos, site Web dédié, blogs, …


3. EVALUATION ET INTERVENTION SOCIALE
Tardif mentionne, dans son chapitre sur un cadre général pour l’évaluation des compétences [Tardif, 2006], que l’on doit repenser le système d’évaluation. En effet, l’introduction de la notion de « compétence » à compliqué le processus d’évaluation «classique» où les connaissances, les habiletés et les attitudes étaient chacun évalué seul. Il faut maintenant viser plus haut [Scallon, 2004] et vérifier la capacité des individus à combiner efficacement ces savoirs dans des contextes variés de la vie courante en particulier dans le cadre d’une profession.
La première problématique est liée à celles et ceux qui enseignent et qui ne vont plus évaluer pour seulement, comme le souligne Scallon, se centrer sur les compétences à faire acquérir dans le seul but de les attester ou de les certifier mais de suivre la progression de chaque apprenant. Ce suivi est aussi essentiel et dépend de la maîtrise de divers procédés d’observation et de diagnostic et aussi du nombre d’apprenants à suivre.
De plus, cette compétence à évaluer, attendue chez les enseignants, ne se réalise pas en toute objectivité comme dans le cas de la pratique des examens traditionnels. Quelque soit le degré de spécification des procédés d’évaluation de ces compétences, ces personnes doivent toujours exercer leur jugement et ceci induit la liaison entre la qualité de l’évaluation de la compétence avec le degré d’objectivité de ces enseignants. D’autre part, une stratégie d’évaluation fiable est une stratégie qui permet d’évaluer toujours la même chose de la même façon: que l’on corrige des travaux le matin ou soir ou que l’apprenant est évalué par l’enseignant A ou l’enseignante B.
En cherchant dans les types d’évaluation classique, on trouve principalement deux types : L’évaluation formative effectuée en cours d’activité et vise à apprécier le progrès accompli et à comprendre la nature des difficultés rencontrées, de façon à améliorer, corriger et réajuster le cheminement de l’élève. Elle se fonde en partie sur l’auto-évaluation. Le deuxième type est l’évaluation sommative qui permet, au terme d’une durée déterminée, et sur la base d’une épreuve d’évaluation, de mesurer l’acquisition de savoirs et de savoir-faire. La pédagogie des compétences, s’accommode parfaitement avec l’évaluation formative. Elle favorise une démarche interactive en donnant la possibilité d’un dialogue élève-professeur. Elle favorise également l’auto-évaluation où l’apprenant se positionne comme l’acteur de son apprentissage.

Dans notre étude, nous nous intéressons à un type d’évaluation formative comme une aide pour identifier les forces et les faiblesses des enseignements d’une formation applicable et ou adaptable au domaine de l’intervention sociale. Il s’agit de l’évaluation critériée normative. En effet, l’évaluation normative dont les résultats sont confrontés à une norme, à une référence (par exemple, la moyenne d’un groupe, un niveau de performance, un minimum ou un maximum, etc.) La notion d’évaluation critériée est fort proche de celle de l’évaluation normative. Il ne faut pas confondre l’évaluation normative ou critériée avec l’activité d’évaluation elle-même. L’activité d’évaluation, d’une manière générale, exige d’abord de recueillir des observations, ensuite de porter un jugement sur celles-ci, enfin de prendre une décision. L’évaluation normative ou critériée se limite, quant à elle, à exploiter les observations recueillies en les confrontant à des « standards externes » et en les présentant dans un « classement ». Ce classement ne permet pas en lui-même de prendre des décisions, ni dans une perspective de régulation, ni dans une perspective de certification.

D’une façon générale, nous proposons une démarche basée sur l’évaluation formative des enseignements outillée par l’évaluation critériés. L’évaluation formative effectuée en cours d’activité vise à apprécier le progrès accompli et à comprendre la nature des difficultés rencontrées, de façon à améliorer, corriger et réajuster le cheminement de l’apprenant. Soit la formalisation suivante : On considère une formation F composée de N étapes P1, P2, …Pn (généralement en LMD l’étape est un semestre). Durant chaque étape x, sont enseignés kx modules : M1, M2, …Mkx. Dans ce qui suit, nous utiliserons le terme enseignement, plus général, au lieu du terme module. La démarche proposée s’articule en trois parties imbriquées qui sont comme suit.

• On commence par l’évaluation isolée de chaque enseignement d’une étape x donnée (cf. figure 1). De ce contrôle, devra ressortir un éventuel plan d’actions correctives (s’il y a anomalies détectées) ou évolutives (en cas d’évolution ou changements des besoins concernant l’enseignement en question). Après, il y a lieu de veiller à l’exécution de ce plan en séances de rattrapages ou intégrées dans les enseignements de l’étape suivante.
• Ensuite, on procède à la consolidation des évaluations formatives Soient : EFE1, EFE2, …, EFEkx et plans d’actions PA1, PA2, …PAkx émanant des évaluations respectives des kx enseignements donnera lieu à une évaluation formative de l’étape x (cf. figure 2).
• A la fin de chaque cycle de formation, en troisième étape de la démarche assurances qualité, le contrôle qualité de toute la formation consiste à vérifier « les sorties résultats » de la formation qui sont les étudiants diplômés. Pour décider sur la continuité du type de formation, réajuster la formation pour les promotions suivantes : il s’agit d’une évaluation critérié globale. Les critères à vérifier pour cette étape sont d’une dimension supérieure dont nous citons les quelques exemples suivants : La pertinence, La cohérence, L’efficacité, …
Une façon de diminuer la subjectivité de l’évaluation est d’utiliser des grilles d’évaluation critériées. On trouvera une excellente introduction à cette stratégie de correction dans [Mueller 2013 d’où nous avons repris et adaptés quelque uns de ses exemples pour illustration.
Le principe d’une grille d’évaluation est d’établir une correspondance entre d’une part le résultat d’une tâche que l’on demande à un apprenant (un texte, une explication orale, une action précise dans un contexte professionnel, etc.) et d’autre part des critères de qualité de ce résultat fourni par celui-ci accompagnés ou non d’une échelle à plusieurs degrés de performance. Un exemple typique est donné par le tableau 1. Chaque ligne du tableau correspond à un critère d’évaluation qui permettra d’apprécier le texte fourni par l’apprenant. Ces critères permettent de répondre à la question: sur quoi va porter mon regard lorsque je vais évaluer le travail rendu par l’apprenant ?
En général, d’après Mueller, pour chaque grille, il y a lieu de spécifier : les critères d’évaluation, les niveaux de performances, un mécanise de notation, un degré d’importance pour chaque critère pour l’évaluation globale et éventuellement des descripteurs qui guident la pose de la valeur de performance pour chaque apprenant.

Évaluation d’une recherche bibliographique en histoire
Critères Insuffisant (niveau 1) Bon (niveau 2) Excellent (niveau 3) % des points
Nombre de sources citées 1-4 5-10 + de 10 20%
Précision des faits historiques Beaucoup d’imprécisions Peu d’imprécision Pas d’imprécision apparente 40%
Organisation de la recherche Difficulté pour déterminer de quelle source proviennent les faits exposés Peu de difficulté pour déterminer de quelle source proviennent les faits exposés Pas de difficulté pour déterminer la correspondance entre les sources et les faits exposés 20%
Bibliographie Ne respecte pas les normes Quelques erreurs dans le respect des normes Pas ou peu d’erreurs dans le respect des normes 20%

Table 1 : Exemple de grille d’évaluation analytique (Repris et adaptée de [Mueller 2013])
D’une façon plus générale, selon qu’on veuille évaluer l’apprenant sur chaque critère seulement ou sur une tâche en combinant différents critères compatibles pour avoir une appréciation globale, Mueller propose deux types de grilles : la grille d’évaluation analytique (comme celle représentée par table 1) et la grille d’évaluation holistique ou globale (comme l’exemple de la table 2).
En regardant l’évaluation du point de vue TIC, les technologies notamment l’informatique joue un rôle important quand il s’agit d’exécuter les procédés d’observation et de diagnostic. Cependant si l’utilisation du potentiel de l’informatique dans l’évaluation est intéressante, cette utilisation doit prendre en compte le plus possible la construction automatique de grilles d’évaluation et des procédés de synthèse d’une évaluation plus globale en utilisant différentes technologies informatiques notamment le Web sémantique et le datamining ou tous autres procédés automatisés d’analyses de données. Ceci pour décharger les enseignants et aider les apprenants, tout particulièrement lors d’une évaluation dans le cadre de formation à distance où de grand effectif. Dans [Bouarab-Dahmani 2011] par exemple, nous proposons une génération automatisée d’exercices adaptés au profil de l’apprenant partant d’une ontologie d’un domaine et d’un procédé d’évaluation formative.
Or, le constat contemporain après une certaine maturité dans l’utilisation des TIC est que les enseignants parviennent mal à concilier l'apprentissage à les techniques et outils informatiques avec le développement de stratégies pédagogiques appropriées et significatives, suffisamment validées pour servir dans les activités d’enseignement et d’apprentissage [Lavoie & Martineau, 2001]. Il y a lieu, à notre avis, de réfléchir à priori sur les logiciels qu’il faut pour aider et/ou faciliter une évaluation d’un enseignement par les compétences en présentiel ou à distance pour construire une harmonie d’utilisation des TIC selon le besoin de chaque acteur de formation ou institution et selon les exigences du domaine. Pour notre part nous proposons juste une adaptation/extension du processus automatisé ODALA [Bouarab-Dahmani 2010] comme point de départ pour construire un modèle d’évaluation automatique ou semi automatique pour le domaine de l’intervention sociale.

3 - Excellent chercheur
• Inclue 10-12 sources,
• aucune inexactitude historique apparente ,
• peut facilement dire de quel source est issue chaque information,
• toutes les informations pertinentes sont incluses
2 – Bon Chercheur
• Peu d’ inexactitudes historiques,
• peut difficilement dire de quel source est issue chaque information,
• La bibiographie contient la majorité des références pertinentes
1 – Faible Chercheur
• inclue 1-4 sources
• Beaucoup d’ inexactitudes sur l’histoire
• Ne peut pas informer sur la source de chaque information
• La bibliographie contient très peu d’informations pértinentes

Table 2 : Exemple de grille d’évaluation holistique (Repris et adaptée de [Mueller 2013])


4. Discussion et Conclusion
Nous avons présenté dans cette étude, pour rendre possible la formalisation en modèle, une représentation du savoir agir évaluable dans un contexte combinant l’approche par compétence versus apprentissage par l’exercice et la possibilité d’utilisation des TIC. Nous pensons que ce contexte est celui du domaine de l’intervention sociale.
La mise en œuvre de cette proposition peut se faire en suivant la démarche décrite par la figure 2 où il y a lieu de générer l’ontologie après avoir selectionner des expertises pertinentes (à l’echelle internationale). Ensuite, il y a lieu de préparer l’évaluation critériée en construisant dans un processus récursif des grilles d’évaluation correspondant aux taches authentiques de chaque compétence spécifique ou standard définie dans l’ontologie. Selon les besoins et les moyens numériques de l’organisme de formation, l’opérationalisation de l’ontologie et son exploitation par des programmes informatique peut être engagée pour automatiser certaines activités ou tâche de l’apprentissage, de communication, d’évaluation ou d’administration de la formation en IS.



Figure 1 : Démarche du Processus de construction d’une évaluation critérié basée sur une représentation ontologie du domaine de l’Intervention Sociale à l’ère des TIC

L’affinement de ce modèle de savoir par son instanciation se fera par une collaboration avec des spécialistes de l’IS (chercheurs et intervenants sociaux) pour recenser les différentes composantes du modèle notamment les notions, les compétences recherchées et les grilles d’évaluation. La mise en ligne de l’ontologie donnera lieu à une plate forme de travail sur le domaine d’intervention sociale au niveau régionale ou international. Nous pensons que ce genre de projet peut intéresser l’AIFRIS si elle n’est pas déjà dedans.




BIBLIOGRAPHIE
[Bernard & Al. 00] : H. Bernard, N. Postiaux, A. Salsin. Les paradoxes de l’évaluation de l’enseignement universitaire. Revue des sciences de l’éducation, Vol. XXVI, n°3, 2000, p.625-650.
[Berbaum & al. 1998] : Berbaum J., Raynal F., Rieunier A. - Pédagogie : dictionnaire des concepts clés, Revue française de pédagogie, 1998, vol. 125, n° 1, pp. 164-165.
[Bouarab-Dahmani 2009] : Farida Bouarab-Dahmani, Malik Si-Mohammed, Catherine Comparot, Pierre-Jean Charrel. ODALA, An Ontological Model for an Automated Evaluation of Learner’s State of Knowledge: Application to a Web based Algorithmic Teaching. International Journal of Business and Information, International Business Academics Consortium (IBAC), Vol. 4 N. 1, p. 1-22, juin 2009.
[Bouarab-Dahmani 2010] : Bouarab-Dahmani F. Modélisation basée ontologies pour l’apprentissage interactif - Application à l’évaluation des connaissances de l’apprenant. Thèse de DOCTORAT en informatique soutenue à l’UMM de Tizi Ouzou en 2010.
[Bouarab-Dahmani & al. 2011] : Bouarab-Dahmani F., Si-Mohammed M., Comparot C., Charrel P. J. Adaptive Exercises Generation using an Automated Evaluation and a Domain Ontology: The ODALA+ Approach, International journal of emerging technologies in learning, IJET, Vol.6, Issue 2, June 2011, 4-10, doi:10.3991/ijet.v6i2.1562
[Gillet, 1991] : Gillet, P. Construire la formation : outils pour les enseignants et les formateurs, Paris, PUF. 1991.
[Lavoie & Martineau, 2001] : Lavoie, M. et Martineau, H. (2001). Prend-on les TIC par le bon bout ?, Le bulletin Clic. (40), 4.
[Mueller 2005] : Mueller J. The Authentic Assessment Toolbox: Enhancing student learning through online faculty development. Published in the Journal of Online Learning and Teaching (2005).
[Mueller, 2013] : Mueller J. Authentic assessment toolbox. Consulté en Mai 2013 à l’adresse : http://jonathan.mueller.faculty.noctrl.edu/toolbox.
[Psyché & al. 03] : Psyché V, O. Mendes et Bourdeau J. (2003). Apport de l’ingénierie ontologique aux environnements de formation à distance, Revue STICEF, vol. 10, 2003.
[Tardif, 2006] : Tardif, J. (2006). L’évaluation des compétences. Documenter le parcours de développement. Montréal : Chenelière Education.
[Scallon, 2004] : Scallon, G. (2004). L’évaluation des apprentissages dans une approche par compétences. Saint-Laurent : Éditions du renouveau pédagogique

Résumé en Anglais

In the current world of education, knowledge and skills are experiencing unprecedented momentum. Indeed, barely completed their acquisition and controlled, they must already be updated. The evolution of Information and Communication Technology (ICT) is one of the factors promoting this process. From this, arises the problem of knowledge and skills of the teacher as evaluator who must systematically monitor the updating of its potential.
The value of a competency-based approach in the education systems of the new world of global economy and advanced technologies is clear, however mistrust and reluctance of teachers against the system remain essentially related to the assessment of learners. Evaluating skills makes the evaluator closer to the learners since he is no longer the systematic executor of the evaluation processes like in "testing" but "sits with the learner" is interpreted as the emerging Anglo-Saxon word "assessment". Therefore it goes towards individualization, adaptation, personalization, ... learning and assessments.
Looking at the various issues and requirements of the context in the field of social intervention, in terms of a learning by doing, we propose a meta-model for discipline representation by combining the results of our previous work on the ontological modeling of teaching domains on one hand, with the competency-based approach as practiced and advocated by Jon Mueller in the other. The construction of knowledge to be taught and described has as main objective to facilitate maximum use of ICT and the implementation of evaluation processes, especially the normative criterion-referenced assessment that we propose as appropriate to the field of social intervention.

Keywords : Construction of knowledge to be taught, ontology, criterion-referenced assessment, Information Technology and Communication (ICT), social intervention