Session 02 : Différence entre versions
(→Les projets) |
(→Les projets) |
||
Ligne 34 : | Ligne 34 : | ||
[[INES|Charlotte Ecker - INES]] | [[INES|Charlotte Ecker - INES]] | ||
− | [[Simon Bouvier - | + | [[Simon Bouvier - ]] |
==À voir, à lire== | ==À voir, à lire== |
Version du 12 février 2019 à 15:28
Sommaire
Session #02: bases de données
Introduction
Cette session porte sur la récupération, l'archivage, l'analyse de données numériques. Il s'agira pour chacun.e de développer une ou plusieurs méthodologie(s) permettant de mener un travail d'enquête et de mise(s) en forme(s) à partir d'un corpus choisi. Durant cette session, nous nous intéresserons à ce qui délimite un corpus, ce qui définit un spécimen, ce qui le transforme en document. Nous aborderons ensuite différents paradigmes de bases de données et les types de d'opérations (et les requêtes) possibles pour chacun d'eux. Enfin, il sera question d'accessibilité à la fois des documents et du processus de travail (quoi partager et comment?).
Étapes du projet
- choisir une source de données numériques.
- les données peuvent être de n'importe quel type de média (texte, vidéo, image, son)
- types de sources possibles: un site web / un blog / un journal en ligne / un catalogue / une base de données de textes / de vidéos / de sons, etc.
- exemples: http://wikileaks.org, https://www.gutenberg.org/, https://freesound.org/, http://youtube.com, http://maps.google.com, http://patents.google.com
- définir un corpus. Il s'agit d'appliquer des limites à la source choisie pour ne s'intéresser qu'à une partie des données diffusées.
- types de limites: temporelles, géographiques, thématiques, liées à un groupe, liées à une personne, liées à un type de média, etc.
- exemples: une fuite de wikileaks, une rubrique d'un site, un auteur sur le projet Gutenberg, une recherche Youtube, le rayoon d'une bibliothèque etc.
- extraire des spécimens. Il s'agit d'extraire du corpus une sélection limitée d'éléments, donc de définir les limites propres à ces éléments, avant de les analyser.
- exemples: un post, une image, une frame de vidéo, une séquence sonore, un paragraphe, une fiche, etc.
- des spécimens de types différents peuvent être extraits du même corpus
- pour chaque spécimen, créer une fiche descriptive. Quelles propriétés des spécimens peuvent être intéressantes?
- exemples: dates, occurrences de mots, couleur, dimensions, fréquence sonore, position d'un objet dans une image, etc.
- choisir un type de base de données et définir une structure permettant d'encoder les fiches définies à l'étape précédente
- exemples: tableur, base de données mysql, dossier contenant des fichiers
- cela implique de créer une schéma de la base de données (type de relations, type de requêtes) signifiant sa structure (et donc sa cohérence et sa faisabilité, son niveau de complexité).
- définir une méthode d'encodage des spécimens dans la base de données
- soit automatiquement soit manuellement soit un mélange des deux
- définir la fréquence, la vitesse, les étapes propres à l'encodage
- encoder tout ou une partie du corpus
- expérimenter des requêtes à envoyer à la base de données
- exemples: sélectionner tous les chapitres qui contiennent le mot "guerre", sélectionner tous les auteurs qui ont répondu par un smiley à un message, sélectionner tous les éléments ordonnés selon un certain champs, etc.
Et tout le long: comment rendre accessible chaque étape du projet? Quelle mise en forme, quel accès?
Les projets
À voir, à lire
https://www.maribastashevski.com/nothing-personal-extract
https://mishkahenner.com/Dutch-Landscapes
https://cloud.editionsdevisscher.be/apps/gallery/s/ke4D8S6r8AysJLJ
Les bibliothèques de l'ombre: alexiadevisscher.be/piratelibraries.html