|

2.2.1.  Circonscrire le corpus d’outils

2.2.1.1.  Présélection des outils

1 Commenter le paragraphe 1 2 Comme cela a été souligné dans le précédent chapitre, l’offre d’outils d’annotation numérique est pléthorique. Parmi cette masse d’outils, peu nombreux étaient ceux susceptibles de nous intéresser : beaucoup ne proposent des fonctionnalités que limitées (surlignage, « post-it »), tandis que d’autres, plus complexes, sont développés pour annoter l’image ou les flux vidéos ou pour gérer des signets. De plus, les outils obsolètes ou abandonnés en cours de développement sont innombrables.

2 Commenter le paragraphe 2 5 Pour identifier les outils d’annotation, je me suis tout d’abord appuyée sur la liste fournie par Emmanuel Château au début de mon stage. Je l’ai complété grâce à des recherches sur internet. De simples requêtes dans Google m’ont permis d’identifier certains outils ou articles traitant de l’annotation, mais les résultats les plus probants ont résulté de la consultation des répertoires DRIT et TAPoR et du dépouillement systématiques des programmes et comptes-rendus des éditions de Digital Humanities Days et I Annotate. Par ailleurs, le carnet de recherche de Marc Jahjah, Marginalia (et son précédent blog So Book Online, disponible sur archive.org) a été une précieuse aide dans cette recherche.

3 Commenter le paragraphe 3 3 Sur la base de quelques critères larges (l’annotation de texte, le travail collaboratif, l’implémentation sur serveur autonomes), j’ai établi une première liste d’une quinzaine d’outils. Un pré-tri a permis d’en éliminer un certain nombre, obsolètes ou clairement peu adaptés à notre projet. C’était notamment le cas de Pliny, développé par le King College, pensé pour une utilisation locale et non collaborative. C’était également le cas de Marginalia, E-Margin ou Annotate.

4 Commenter le paragraphe 4 2 Je n’ai retenu finalement que 6 outils : Annotator, Annotation Studio, Annotopia, Doméo, Pundit et Textus, dont les études approfondies ont révélé qu’ils étaient conçus pour des usages radicalement différents, mais que plusieurs d’entre eux étaient liés technologiquement.

2.2.1.2.  Difficulté à se documenter sur les outils

5 Commenter le paragraphe 5 7 La plus grande difficulté pour évaluer ces outils est le manque de documentation à leur sujet. Celles-ci, quand elles existent, sont difficiles à localiser et rarement mises à jour. Des pans entiers des outils sont laissés dans le flou, soit parce que son usage est trop évident pour ses concepteurs, soit par souci de protéger la technologie qui sous-tend (même quand il s’agit d’un projet open source!). Il est très mal aisé de trouver des informations sur la genèse des projets (contexte de production, acteurs), sur le nombre de versions produites ou sur la date de cessation de développement. Par ailleurs, les outils entretiennent des liens qui ne sont pas clairement explicités : certains ne sont que des extensions ou customisations d’outils tiers (ainsi, AnotateIt et Annotation Studio sont des implémentations particulières d’Annotator, tandis qu’Annotopia est une prolongation du projet de Doméo).

6 Commenter le paragraphe 6 1 Faire un benchmarking pour élire un outil adapté à un projet est difficile : difficile de repérer les outils, de dépasser l’effet vitrine, d’avoir des comparatifs, de bien comprendre la mécanique, les fonctionnalités… Je qualifie ici « d’effet vitrine » un discours concis et efficace conçu pour « vendre » l’outil, mais qui occulte les informations dont l’utilisateur a réellement.

7 Commenter le paragraphe 7 1 Il ne semble pas exister de méthodologie spécifique à l’évaluation des outils numériques destinés à la recherche.  A défaut, je me suis inspirée des pratiques de benchmarking dans la gestion de projet, des critères d’évaluation dans le monde du logiciel libre et des présentations d’outils sur DIRT et TAPoR.

Page 19

Source :http://johannadaniel.fr/memoire/?page_id=85