Quelle formation des élèves à l`art du filtrage?

Download Report

Transcript Quelle formation des élèves à l`art du filtrage?

Journée ADBEN Pays de la Loire
IUFM d’Angers, 13 décembre 2012
Quelle formation des
élèves à l’art du filtrage ?
Alexandre Serres
URFIST de Rennes
En guise de plan




1/ En introduction : 2 idées-force
2/ Comprendre la complexité de
l’évaluation de l’information
3/ Quelle formation à l’évaluation
de l’information ?
4/ En conclusion : des illusions à
combattre
A. Serres, URFIST Rennes, 2012
2
1/ Introduction :
deux idées-force
Prendre conscience de la
complexité de la question de
l’évaluation de l’information
 Faire de cette complexité à la fois
l’objectif et la base de la formation
> quelles incidences de cette
« approche par la complexité »
pour les professeurs
documentalistes ?

A. Serres, URFIST Rennes, 2012
3
2/ Comprendre la complexité de
l’évaluation de l’information

Trois grands facteurs de
complexité :
• Multiplicité des dimensions de
l'évaluation de l'information
• Multiplicité des critères
d'évaluation
• Multiplicité des pratiques de
l'évaluation
A. Serres, URFIST Rennes, 2012
4
2.1 Comprendre la complexité : la
multiplicité des dimensions

Une activité et une question
multi-dimensionnelle :
• Au moins 10 dimensions à prendre
en compte…

Importance de tenir compte de
toutes ces dimensions pour la
formation :
• Éviter les approches réductrices,
naïves
A. Serres, URFIST Rennes, 2012
5
La dimension socio-politique

La question de (la) confiance :
• Prégnance du contexte socio-politique
• Crise des autorités

Voir l’évaluation de l'information comme
double symptôme :



de la crise de confiance envers les autorités
du rapport au monde des individus
Les enjeux socio-politiques des
infopollutions :
• La question de la fiabilité des infos sur le web
• Et celle de la qualité des ressources
A. Serres, URFIST Rennes, 2012
6
La dimension socio-politique :
sur l’autorité

« Il n'y a pas de si grand philosophe qui ne croie
un million de choses sur la foi d'autrui et qui ne
suppose beaucoup plus de vérités qu'il n'en
établit (...) Il faut donc toujours, quoi qu'il
arrive, que l'autorité se rencontre quelque
part dans le monde intellectuel et moral. Sa
place est variable mais elle a
nécessairement sa place. » (Tocqueville,
De la démocratie en Amérique, 1840)

Quelle est la place de l’autorité,
intellectuelle et morale, sur les
réseaux sociaux ?
A. Serres, URFIST Rennes, 2012
7
La dimension sociale, sociologique



Grande hétérogénéité des
pratiques d'évaluation
Multiplicité des paramètres
sociaux
La nécessaire connaissance des
pratiques informationnelles des
jeunes
A. Serres, URFIST Rennes, 2012
8
La dimension culturelle

Evaluation de l’information : aussi
une pratique culturelle
• Pratique de lecture, d’écriture
• Pratique médiatique : rapports avec la
presse, les médias…

Double mutation :
• Evolution des pratiques culturelles des
jeunes :

« Génération internet »
• Mutation de la culture avec le numérique :

Changement des modes de lecture,
d’apprentissage, de consommation culturelle…
A. Serres, URFIST Rennes, 2012
9
La dimension psychocognitive

Evaluer l’information = une
activité cognitive complexe
• Nombreuses compétences
cognitives mobilisées :


décodage sémiotique, repérage ,
lecture, analyse…
Tenir compte des étapes du
développement cognitif :
• Ex. de notion de source, trop
complexe avant 10 ans (Rouet)
A. Serres, URFIST Rennes, 2012
10
La dimension théorique

Mobilisation de notions théoriques
complexes :
•
•
•
•
•
•

Crédibilité
Autorité
Qualité de l’information
Pertinence
Source
…
Maîtrise des notions indispensable
aux tâches d’évaluation
A. Serres, URFIST Rennes, 2012
11
La dimension technique



Rôle-clé des outils, des évolutions du
web :
• outils du web social
• apports du web sémantique
Développer une culture technique du
web
Percevoir les limites des outils
A. Serres, URFIST Rennes, 2012
12
La dimension
méthodologique


Evaluer l’information = mettre en
œuvre plusieurs compétences
méthodologiques
Différentes démarches d'évaluation :
• Selon les contextes, les domaines, les
publics…

Démarche de questionnement
A. Serres, URFIST Rennes, 2012
13
La dimension
informationnelle

L’évaluation de l'information à la fois:
• au coeur de la culture informationnelle

par ses enjeux, les notions, les compétences…
• au carrefour des trois cultures de
l’information :

médias, infodoc, informatique
A. Serres, URFIST Rennes, 2012
14
La dimension éducative


Importance des enjeux éducatifs :
• formation au jugement critique
Caractère transversal de l'évaluation
de l'information :
• concerne tous les acteurs de l’école
• identifier les acteurs et leur rôle
A. Serres, URFIST Rennes, 2012
15
La dimension didactique

Concerne plus spécifiquement les
professeurs documentalistes :
• identifier les contenus à enseigner
• identifier les situations pédagogiques
• mettre en place les dispositifs
A. Serres, URFIST Rennes, 2012
16
2.2 Comprendre la complexité :
la multiplicité des critères de l’évaluation

Evaluer une ressource = mobiliser 2
grandes catégories de critères :
• Des critères « transversaux », liés à des
notions
• Des critères « d'objet » , liés aux
composantes d’une ressource
A. Serres, URFIST Rennes, 2012
17
Multiplicité des critères :
l’imbrication des objets

Plusieurs objets à distinguer dans toute
évaluation :
•
•
•
•
•
•

La source
L’auteur
L’information
La structuration du contenu
La présentation, le graphisme, la lisibilité…
L’usage, « l’utilisabilité »
Confusion fréquente des objets à évaluer :
• Par ex. entre fiabilité de source et facilité d’accès
A. Serres, URFIST Rennes, 2012
18
Multiplicité des critères :
l’imbrication des notions

Des « allants-de-soi » peu explicités :
• « Évaluer la qualité et la pertinence de
l'information », compétence D4.3 du nouveau
B2i Adultes

Mais qu’est-ce que la qualité de
l’information ? La crédibilité ?
L’autorité d’une ressource ? La
pertinence ?
• Importance de définir et de distinguer ces
notions, qui ne se recouvrent pas
A. Serres, URFIST Rennes, 2012
19
Quatre notions à distinguer :
la crédibilité


Crédibilité = « Caractère, qualité
rendant quelque chose susceptible
d'être cru ou digne de confiance »
Rôle-clé de la confiance :
• Crédibilité toujours à construire
• Plus proche d’un sentiment que d’une
qualité factuelle

Crédibilité d’une ressource :
• Qualité perçue, à partir de différents
indices

Deux typologies de la crédibilité
A. Serres, URFIST Rennes, 2012
20
Quatre notions à distinguer :
les objets de crédibilité

Quatre objets à mesurer :
• Crédibilité
• Crédibilité
• Crédibilité
• Crédibilité

de
de
du
du
la source
l’auteur
support
document
> pas de recouvrement
automatique
A. Serres, URFIST Rennes, 2012
21
Quatre notions à distinguer :
les facteurs de la crédibilité
Typologie de Fogg et Tseng, 1999

Crédibilité présumée (représentations) :
• Confiance accordée a priori à quelqu’un, à une
source, en fonction de ses représentations, de ses
croyances…

Crédibilité réputée (réputation) :
• Confiance accordée selon la réputation, la notoriété,
l’affiliation d’une source à une autorité…


Crédibilité de surface (apparence,
présentation) :
• Confiance selon la présentation d’une personne,
d’une ressource, d’un site web
Crédibilité d’expérience (usage) :
• Confiance liée à l’expérience personnelle d’une
personne, d’une
ressource, d’un site…
A. Serres, URFIST Rennes, 2012
22
Quatre notions à distinguer :
“l’autorité cognitive”


Selon Patrick Wilson : « une relation d’influence
de pensée, impliquant au minimum deux
personnes, l’une accordant à l’autre sa confiance
parce qu’elle maîtrise un domaine spécifique de
compétences »
Diversité des autorités cognitives :
• Personnes, livres, organisations, outils…

Autorité cognitive fondée sur la crédibilité, la
réputation, l’expertise
• Mais autorité plus forte que la crédibilité :
 Notion d’influence choisie, de reconnaissance
d’une expertise
A. Serres, URFIST Rennes, 2012
23
Quatre notions à distinguer :
l’autorité informationnelle


Notion « d’autorité informationnelle » (E.
Broudoux)
Quatre types d’autorités
informationnelles :
• L’autorité énonciative :

liée à un auteur, à un collectif… ;
• L’autorité institutionnelle :

Éditeur, organisation, source…
• L’autorité du support :

Liée au type de document ;
• L’autorité de contenu :

« plausibilité intrinsèque » du texte
A. Serres, URFIST Rennes, 2012
24
Quatre notions à distinguer :
la qualité de l’information

Trois grandes approches de la
qualité :
• « Qualité documentaire » :

Ensemble de critères, liés aux caractéristiques
formelles du contenu d’une ressource
• Qualité de l’information, au sens infonews
• Qualité des données (info-data) :

Très proche de la pertinence
A. Serres, URFIST Rennes, 2012
25
Quatre notions à distinguer :
la pertinence



« Qualité de ce qui est adapté exactement à
l'objet dont il s'agit. »
Notion complexe, nombreux modèles,
nombreuses théories
Au fondement de la recherche
documentaire :
• "Degré de corrélation entre une question
et la réponse apportée »
• approche précise mais réductrice de la pertinence
• Nécessité d’élargir la notion

Trois catégories de pertinences
A. Serres, URFIST Rennes, 2012
26
Quatre notions à distinguer :
les trois catégories de pertinences

La « pertinence-système » :
• pertinence de la représentation du document (indexation...)
et recherche d'information elle-même.

La « pertinence-utilisateur » : 2 types
• pertinence de la formulation de la requête

• pertinence du document par rapport au
besoin :
 Concerne uniquement l’utilisateur
La « pertinence-thème » :
• pertinence du contenu du document par rapport au thème
 évaluation formalisable de l’information
A. Serres, URFIST Rennes, 2012
27
Quatre notions à distinguer :
en conclusion


Bien distinguer les combinaisons entre les
notions
Une ressource peut être :
• crédible, de qualité, mais non pertinente :

Ex. d’une thèse pour un lycéen
• peu crédible, mais de qualité et pertinente :

Ex. d’un site personnel inconnu, mais de qualité et
pertinent
• crédible, mais de mauvaise qualité et non
pertinente:

Ex. d’un article de revue de mauvaise qualité
• non crédible et de mauvaise qualité mais
pertinente


Ex. d’un site sectaire pour un dossier sur les secte
Pour l’usager, primauté de la pertinence
sur tous les autres
A. Serres, URFIST Rennes, 2012
28
2.3 Comprendre la complexité :
la multiplicité des pratiques de
l’évaluation


A chacun sa pratique d’évaluation !
4 grands axes d’observation des pratiques
d’évaluation de l’information :
•
•
•
•
•

Les publics
Les contextes
Les dispositifs
Les types d'informations
+ Les critères
Nombreuses variables dans chaque axe
A. Serres, URFIST Rennes, 2012
29
La multiplicité des pratiques de
l’évaluation
A. Serres, URFIST Rennes, 2012
30
3/ Quelle formation à l'évaluation de
l'information ? Cinq questions, cinq
défis





Comment former à l’autonomie de jugement ?
> Le défi éducatif
Comment faire émerger les besoins de formation?
> Le défi des représentations
Quelles sont les difficultés de l’évaluation de
l’information ?
> Le défi épistémologique
De qui relève cette formation ?
> Le défi des acteurs
Former à quels contenus et comment ?
> Le défi didactique
A. Serres, URFIST Rennes, 2012
31
Quelle formation à l'évaluation de
l'information ? Le défi éducatif

Un défi éducatif global :
• « A l’avenir, l’éducation aura
pour but d’apprendre l’art du
filtrage » Umberto Eco (Le Monde, 12
octobre 2010)
A. Serres, URFIST Rennes, 2012
32
Quelle formation à l'évaluation de
l'information ? Le défi éducatif

Former pour quelles finalités ?
• « La formation à la culture informationnelle doit ainsi s'inscrire dans les
finalités éducatives et les valeurs propres à l'école, lesquelles touchent à
la construction d'une autonomie de pensée, à la formation à l'attention, à
la construction des savoirs, la formation citoyenne, à l’égalité des
chances et à l’insertion professionnelle et sociale. »
(Rapport du GRCDI, « Douze propositions pour l’élaboration d’un curriculum info-
documentaire »)

La question de l’autonomie de jugement


Former à l’évaluation = former au
jugement critique


Les paradoxes de l’autonomie sur internet
Finalités de la formation à l’évaluation =
finalités de l’éducation à l’information =
finalités de l’éducation
Défi éducatif :
• concerne tous les acteurs de l’éducation :
parents, enseignants,
de
A. Serres, URFIST professionnels
Rennes, 2012
l’information, étudiants…
33
Quelle formation à l'évaluation de
l'information ? Le défi des représentations
Comment faire émerger les besoins de
formation ?
 Plusieurs aspects contradictoires :
• Confiance globale envers le web comme média en
hausse
• Mais perception croissante de l’importance du
problème de l’évaluation de l’information
• Elévation relative des niveaux d’usage et des
compétences numériques des jeunes

Besoins de formation non reconnus :
• Chez les jeunes :


Appropriation des outils > autonomie technique > sentiment
d’autonomie pour l’évaluation
Le sentiment d’autonomie comme nouvel obstacle cognitif pour la
formation
• Chez les enseignants :

Problème encore
A. Serres,mal
URFIST identifié
Rennes, 2012
34
Quelle formation à l'évaluation de
l'information ?
Le défi des représentations

Quelques pistes (personnelles) :
• Développer une pédagogie du
questionnement
• Connaître les pratiques réelles des élèves
• Partir de ces pratiques :

Faire s'interroger les élèves sur leurs pratiques
• Quels critères spontanés de crédibilité sur
Facebook ou Twitter ?
• Utiliser les infopollutions :

« Piéger » les élèves avec des exemples de
désinformation
• Faire questionner les notions
A. Serres, URFIST Rennes, 2012
35
Quelle formation à l'évaluation de
l'information ? Le défi épistémologique



Principale difficulté d’une formation à l’évaluation
= l’évaluation de l’information elle-même
Nombreux savoirs, différentes cultures mobilisés
pour identifier et évaluer une ressource
Six types de cultures :
•
•
•
•
•
•

Culture « générale »
Cultures disciplinaires
Culture informationnelle (information literacy)
Culture informatique (computer literacy)
Culture numérique (digital literacy)
Culture médiatique (media literacy)
Initier les élèves à cette complexité et à la
distinction des cultures et compétences
A. Serres, URFIST Rennes, 2012
36
Quelle formation à l'évaluation de
l'information ? Le défi épistémologique

L’évaluation de l’information comme
figure emblématique de la
translittératie ?
• Transliteracy : « l’habileté à lire, écrire et
interagir par le biais d’une variété de
plateformes, d’outils et de moyens de
communication, de l’iconographie à l’oralité en
passant par l’écriture manuscrite, l’édition, la
télé, la radio et le cinéma, jusqu’aux réseaux
sociaux » (Sue Thomas and al.)

Hybridation des cultures
A. Serres, URFIST Rennes, 2012
37
Quelle formation à l'évaluation de
l'information ?
Le défi des acteurs de la formation

De qui relève cette formation ?
• Enseignants ? Professionnels de l’info. ?
• Question classique de l’articulation
disciplines/documentation



Problème de la spécificité des
apprentissages documentaires et d’une
didactique autonome
La nécessaire approche transversale et
multiple de l’évaluation
Le partage par les contenus et les
objectifs
A. Serres, URFIST Rennes, 2012
38
Quelle formation à l'évaluation de
l'information ? Le défi didactique

Quels contenus ?
• Notions à enseigner :


Les 4 notions essentielles de l’évaluation de
l’information
Notions de source, d’auteur, de validité…
• Voir Dictionnaire didactique…
Notions des autres cultures de l’information
• Compétences à viser :




Savoir identifier les sources
Savoir distinguer les critères d’évaluation
Savoir questionner les ressources
A. Serres, URFIST Rennes, 2012
39
Quelle formation à l'évaluation de
l'information ? Le défi didactique

Quelles activités pédagogiques ?
• Former à l’identification
• Sensibiliser à la notion de crédibilité
• Utiliser les infopollutions
• Travailler sur les controverses
sociotechniques :


Identifier les acteurs, les discours, les
positions, les intérêts…
Ne pas entrer dans les contenus
A. Serres, URFIST Rennes, 2012
40
Quelle formation à l'évaluation de
l'information ? Le défi didactique

Quelle progressivité ?
• Collège : bases de culture de
l’information

Repérage, décodage des ressources
web, connaissance des documents…
• Lycée :



Controverses sociotechniques
Notion de crédibilité
Quelle articulation avec la veille ?

L’évaluation de l'info. comme préalable à la
A. Serres, URFIST Rennes, 2012
veille
41
En conclusion :
5 illusions à combattre

L’illusion sociale :
• confiance excessive dans la communauté :

limites des réseaux de confiance
• évaluation de l'information = jugement personnel

L’illusion techniciste :
• délégation totale aux outils des tâches
d'évaluation
• l'impossible automatisation du jugement de
fiabilité
A. Serres, URFIST Rennes, 2012
42
En conclusion :
5 illusions à combattre

L’illusion épistémologique :
• la naïveté épistémologique face à l'information
• perdre de vue le caractère toujours contextuel,
construit... de l'information

L’illusion méthodologique :
• croire en une méthodologie universelle, passepartout
• limites des démarches trop linéaires
• "l'impossible méthodologie" ?

L’illusion pédagogique :
• approche procédurale de l'évaluation, limites des
référentiels
• approche strictement info-documentaire
• occulter la dimension trans-disciplinaire de
43
A. Serres, URFIST Rennes, 2012
l'évaluation
Références bibliographiques



BROUDOUX, Evelyne. Construction de l'autorité
informationnelle sur le web. In R. Skare, N. W. Lund et A.
Vårheim. A Document (Re)turn: Contributions from a
Research Field in Transition. Frankfurt : Peter Lang, 2007.
Disp. sur :
http://archivesic.ccsd.cnrs.fr/docs/00/12/07/10/PDF/AutorInf
o.pdf.
FOGG, B. J., & TSENG, H. ”The elements of computer
credibility”. Proceedings of the SIGCHI conference on Human
Factors in Computing Systems, 1999, p. 80–87
FOGG, B. J., SOOHOO, Cathy, DANIELSON, David R. How do
people evaluate a web site's credibility ? Results from a large
study [En ligne]. Stanford, California : Persuasive Technology
Lab Stanford University, 2002. 105 p. Disp. sur :
< http://www.consumerwebwatch.org/pdfs/stanfordPTL.pdf >
A. Serres, URFIST Rennes, 2012
44
Références bibliographiques



LIU, Ziming, HUANG, Xiaobin. « Evaluating the credibility of
scholarly information on the web: A cross cultural study ». The
International Information & Library Review [En ligne]. Juin 2005,
Vol. 37, n°2, p. 102. Disp. sur : <
http://dx.doi.org/10.1016/j.iilr.2005.05.004
SCHNAPPER, Dominique. « En qui peut-on avoir confiance ? ». Le
Monde [En ligne]. 15 Juillet 2010.
UCL (University College London), JISC (Joint Information Systems
Committee), Estève-Bouvet, Isabelle (trad.). Comportement
informationnel du chercheur du futur. Information behaviour of the
researcher of the future [En ligne]. Londres, Paris : UCL (University
College London), JISC (Joint Information Systems Committee),
2008. Disp. sur :
http://www.jisc.ac.uk/media/documents/programmes/reppres/gg_f
inal_keynote_11012008.pdf ; Trad. en français disp. sur :
http://www.savoirscdi.cndp.fr/fileadmin/fichiers_auteurs/PDF_man
uels/Le_comportement__informationnel_du_chercheur_du_futur.pd
f>
A. Serres, URFIST Rennes, 2012
45
Ressources personnelles sur
l’évaluation de l’information

Supports de stage URFIST :
• Evaluer la crédibilité d’une ressource
sur internet
• Evaluation de l’information sur
internet


Signets personnels sur Diigo :
Liste Evaluation information
« Dans le labyrinthe »
A. Serres, URFIST Rennes, 2012
46
Merci de votre attention !
Contact :
[email protected]
Site web de l’URFIST de Rennes :
http://www.sites.univ-rennes2.fr/urfist/
A. Serres, URFIST Rennes, 2012
47