Votre recherche
Résultats 21 ressources
-
What worked and what didn't work as I pursued a History PhD later in life than would have been wise. Distilled into seven lessons.
-
Résumé d'une proposition de communication orale acceptée dans le cadre de la thématique "Enseignement et formation à la recherche" du colloque Humanistica 2020, 12-14 mai 2020 (annulée à cause de la situation sanitaire liée au Covid19).
-
Why did the French show so little enthusiasm for emigration to their early modern colonies, compared to other European peoples? In 2006, historian Yves Landry proposed that the image of America communicated to the French reading public by print media might have played a role in this phenomenon. This article examines this question by showing how America in general, and French colonies in particular, were represented in the Ancien Régime's three most prominent periodicals: the weekly news <em>Gazette</em>, the literary <em>Mercure de France</em> and the learned <em>Journal des Savants</em>. Through a combination of distant reading methods, the article builds a three-layered portrait of the New World as displayed to French readers. The first layer, made up of references to America in theater, games and other cultural artefacts built upon common knowledge, shows an unchanging, alien land filled with riches and glory for the few, mortal threats for the many, and the best, perhaps, set aside for foreigners. A second layer, made up of the periodicals' coverage of the slow production of knowledge through science and exploration, edulcorates this picture to some extent by showing that the New World is in the process of being domesticated, but that this process is very much still in its infancy. Finally, the top layer, represented by the Gazette's news coverage, shows a French colonial world that is dominated by Britain, virtually invisible in peacetime, and fraught with chaos at every moment. This top layer is especially important since it was the only one visible to the majority of readers, as the <em>Gazette</em> reached an audience perhaps ten times larger than the other periodicals. Therefore, the article largely supports the original hypothesis.</p>
-
From a digital historian’s point of view, Ancien Régime French texts suffer from obsolete grammar, unreliable spelling, and poor optical character recognition, which makes these texts ill-suited to digital analysis. This paper summarizes methodological experiments that have allowed the author to extract useful quantitative data from such unlikely source material. A discussion of the general characteristics of hand-keyed and OCR’ed historical corpora shows that they differ in scale of difficulty rather than in nature. Behavioural traits that make text mining certain eighteenth century corpora particularly challenging, such as error clustering, a relatively high cost of acquisition relative to salience, outlier hiding, and unpredictable patterns of error repetition, are then explained. The paper then outlines a method that circumvents these challenges. This method relies on heuristic formulation of research questions during an initial phase of open-ended data exploration; selective correction of spelling and OCR errors, through application of Levenshtein’s algorithm, that focuses on a small set of keywords derived from the heuristic project design; and careful exploitation of the keywords and the corrected corpus, either as raw data for algorithms, as entry points from which to construct valuable data manually, or as focal points directing the scholar’s attention to a small subset of texts to read. Each step of the method is illustrated by examples drawn from the author’s research on the hand-keyed Encyclopédie and Bibliothèque Bleue and on collections of periodicals obtained through optical character recognition.Du point de vue d’un historien numérique, les textes français d’Ancien Régime souffrent d’une grammaire obsolète, d’une orthographe irrégulière et d’une reconnaissance optique des caractères de faible qualité. Cet article résume les expériences méthodologiques qui ont permis à l’auteur d’extraire des mesures quantitatives utiles de ces improbables matières premières. Une discussion des caractéristiques générales des corpus de textes historiques transcrits à la main et des corpus produits par reconnaissance optique révèle qu’ils diffèrent en degré de difficulté mais non en nature. Les comportements qui rendent certains de ces corpus particulièrement difficiles à traiter numériquement, dont la distribution non aléatoire des erreurs, un coût unitaire d’acquisition relativement élevé, la dissimulation des documents atypiques et l’imprévisibilité des erreurs répétées, sont ensuite expliqués. L’article trace ensuite les grandes lignes d’une méthode qui contourne ces problèmes. Cette méthode repose sur la sélection heuristique de questions de recherche pendant une phase d’exploration ouverte des données; la correction sélective des erreurs à l’aide de l’application de l’algorithme de Levenshtein à un petit nombre de mots-clés choisis pendant la phase d’exploration; et l’exploitation des mots-clés et du corpus corrigé soit en tant que données brutes, soit comme points d’entrée permettant l’extraction manuelle de données probantes, soit comme boussoles permettant d’orienter l’attention du chercheur vers un sous-ensemble de documents pertinents à lire. Des exemples tirés de la recherche de l’auteur, qui porte à la fois sur des corpus océrisés de périodiques et sur les corpus reconstitués manuellement de l’Encyclopédie et de la Bibliothèque bleue, illustrent chacune des étapes. Mots-clés: fouille de texte; fouille de données; textométrie; production de l’espace; histoire numérique; correction d’erreurs
-
Ce tutoriel vous apprendra comment appliquer diverses méthodes stylométriques pour déterminer les auteurs de textes disputés. Trois méthodes sont abordées: les courbes caractéristiques de composition de Mendenhall, la méthode du khi carré de Kilgariff et, enfin, la méthode du Delta de John Burrows.
-
In this lesson you will learn to conduct ‘stylometric analysis’ on texts and determine authorship of disputed texts. The lesson covers three methods: Mendenhall’s Characteristic Curves of Composition, Kilgariff’s Chi-Squared Method, and John Burrows’ Delta Method.
-
Mon corpus, qui couvre la période 1740-1761, compte quelque 75 000 pages de texte imprimé, où les mentions de l'Amérique sont clairsemées mais présentes dans des contextes très variés: articles de nouvelles, comptes-rendus de spectacles, jeux de vocabulaire, extraits d'ouvrages scientifiques, etc. La fouille de texte était donc absolument nécessaire pour extraire le contenu pertinent de cette masse documentaire. Malheureusement, les textes d'Ancien Régime souffrent d'une orthographe irrégulière et d'une «océrisation» déficiente, causée notamment par le mauvais état des documents qui ont été soumis à la reconnaissance optique des caractères. De plus, certaines caractéristiques des périodiques que j'utilise en font ce que j'appelle du Bad Data puisque les prémisses de la théorie du Big Data, notamment le fait que les erreurs se répartissent de manière à peu près régulière et qu'il est tout de même possible d'en extraire un signal, ne s'y appliquent pas: les erreurs ont plutôt tendance à se regrouper dans des secteurs cruciaux du texte, et le coût unitaire d'acquisition des données «corrigées» se révèle passablement élevé. Il m'a donc fallu développer une méthode hybride, mi-numérique, mi-analogique, pour compléter mon projet, méthode qui repose notamment sur un outil que j'ai codé en Python.
-
Au tournant du XVIIIe siècle, les institutions politiques et sociales des Cherokees sont perturbées par une série de catastrophes militaires, économiques et démographiques. Une minorité inter-mariée avec les Blancs en profite pour instaurer une économie de plantations esclavagistes et une nouvelle forme de gouvernement qui la protège, notamment en dépouillant les descendants d’Africains des droits dont ils disposaient au sein de la nation. Cet article décrit le statut des Cherokees de descendance africaine au XVIIIe siècle, la prise de pouvoir par la nouvelle élite de planteurs, et le développement de lois discriminatoires qui en résulte.
-
Qu’avons-nous appris de la récente floraison de travaux sur l’Atlantique français de l’époque moderne menés par les historiens francophones et anglophones ? Ce bilan historiographique se penche sur trois aspects importants de la question : le raffinement et la remise en question du modèle de l’Atlantique en tant qu’espace économique cohérent et intégré ; l’esclavage, ses conséquences et ses résistances ; et la création et la circulation des savoirs. Les études portant sur des particularités locales, voire individuelles, s’y révèlent particulièrement éclairantes. Quelques avenues de recherches ultérieures sont également proposées.
-
Cet article présente une étude de cas dans laquelle nous avons exploité le contenu de la bibliothèque numérique du projet ARTFL de l’université de Chicago comme matière première dans le cadre d’une expérience d’histoire numérique. Deux corpus d’articles tirés de l’Encyclopédie de Diderot ont été tirés de la bibliothèque numérique afin de répondre à deux questions apparentées, portant sur la production d’un imaginaire spatial au moyen de la lecture de textes. Un corpus de 14 547 articles géographiques a permis de cerner l’évolution de la manière dont l’Encyclopédie produit une représentation des lieux, évolution engendrée par le passage de la vision initiale de Diderot à celle de l’auteur de la majorité du corpus, le chevalier Louis de Jaucourt. Un second corpus formé de 6 053 articles provenant d’une variété de catégories du savoir a ensuite permis de caractériser la production d’un espace, l’Amérique, en tant qu’objet de curiosité et de convoitise. Certains enjeux méthodologiques reliés à l’exploitation des bibliothèques numériques par un historien sont aussi abordés.
-
Les différentes facettes du tournant géographique initié par les disciples du philosophe Henri Lefebvre ont balayé l’ensemble des sciences humaines et sociales au cours des 30 ou 40 dernières années. Cet essai historiographique présente les précurseurs des tournants géographiques, leurs origines théoriques, les champs de recherche historiques dans lesquels ils se sont montrés particulièrement féconds, l’émergence récente des humanités spatiales qui combinent la sensibilité géographique avec les techniques d’analyse des humanités numériques, et quelques leçons à tirer de leurs enseignements.