Association francophone des humanités numériques
10-12 mai 2021 Rennes (France)
Contextualisation de la critique francophone d'art contemporain
William Diakité  1@  
1 : Université de Rennes 2
École Doctorale Arts, Lettres, Langues (ALL), EA Pratiques et Théories de l'Art Contemporain (PTAC), EA Linguistique Ingénierie et Didactique des Langues (LIDILE)

Cette proposition de communication a pour objectif de présenter une expérimentation conduite dans le cadre d'une recherche doctorale, initiée en 2017, et qui s'effectue dans le domaine de l'esthétique et des sciences de l'art. 

À l'initiative des équipes d'accueil Pratiques et Théories de l'Art Contemporain (PTAC) et Linguistique, Ingénierie et Didactique des Langues (LIDILE) de l'Université de Rennes 2 et soutenue par la Maison des sciences de l'homme en Bretagne, cette recherche vise à concevoir un appareillage permettant aux chercheurs en art d'étudier d'une part les discours de l'art relevant de la critique professionnelle, d'autre part de mettre en relation les corpus étudiés avec d'autres corpus comprenant des informations liées aux événements sociaux et politiques. 

La période concerne les années 1990 à nos jours et relève de la communauté linguistique francophone. Cette période est caractérisée par de profondes transformations des arts plastiques et de la critique. En France, ces transformations prennent leurs racines au moment de ce que l'on a nommé la « crise de l'art contemporain » (Michaud 2011). Ces transformations ont invité de nombreux philosophes de l'art et esthéticiens à revoir leur position et leur rôle face à ces différents renouvellements. Le philosophe Jean-Pierre Cometti, par exemple, tend à radicalement distinguer la critique d'art de la philosophie en insistant sur le fait que « ni l'interprétation (au sens herméneutique) ni l'évaluation [des œuvres d'art] ne sont à proprement parler des tâches philosophiques » (Cometti 2009). Ce dernier constat l'amène à proposer une esthétique minimale définie comme « une esthétique qui reconnaît à la critique une priorité et qui peut se proposer d'examiner les conditions d'effectuation (y compris effectives) de la reconnaissance dont l'art est solidaire » (ibid.).

À l'occasion de cette communication, il s'agira de présenter les premiers les résultats d'une expérimentation qui vise à fournir une assistance à la contextualisation des productions de critiques d'art. Si ces travaux portent effectivement sur un genre de discours particulier, soulignons que l'expérience pourrait être reproduite pour l'étude d'autre genres discursifs.

Cette expérimentation repose sur une interface web qui permet de charger un corpus encodé en TEI afin d'en extraire des informations. Cependant, celles-ci ne sont pas destinées à être interprétées directement par l'analyste comme c'est le cas dans les disciplines de l'analyse du discours. En effet, les informations produites par les algorithmes d'extractions sont utilisées pour construire une requête http permettant de communiquer avec des API (Application Programming Interface) de moteurs de recherche telles que celle de Google ou alors de Bing. Ces APIs permettent de questionner le web et mettent à disposition un ensemble de paramètres permettant d'affiner les requêtes (date de mise en ligne, opérateurs logiques, filtrage des sites web ou des types de ressources, etc.) Ainsi, l'hypothèse que nous discuterons durant la présentation est que, pour un document du corpus, il est possible de reconstruire son contexte d'énonciation ou autrement dit, de retrouver les ressources du web (articles de presse, de blog, de Wikipédia, etc.) en lien avec ledit document. La visée de l'outil s'inscrit donc dans une démarche d'objectivation du regard porté par l'analyste lors de l'examen de productions textuelles.

Notre corpus de travail est constitué de textes produits par le critique d'art Frédéric Bonnet. Ceux-ci ont été collectés à l'aide d'une méthode de scraping[1] depuis le site du Journal des Arts (www.lejournaldesarts.fr), un bimensuel fondé en 1994 consacré aux actualités sur l'art et son marché. Le corpus a été encodé en TEI (« édition de lecture ») en suivant les recommandations du consortium CAHIER en matière de corpus d'auteurs (Galleron et al. 2018). Il est composé de 946 documents, soit un total de 653308 mots, étalés sur une période allant de 2001 à 2017 (sans production en 2004).

Dans ce cadre, nous souhaitons présenter les étapes de constitution de notre corpus ainsi que l'application. Après avoir présenté les méthodes et les résultats des différentes évaluations de notre système, nous souhaitons discuter des apports d'une telle approche dans le cadre d'une étude de cas.

Cette expérimentation entre en résonance avec plusieurs recherches conduites ces dernières années : dans le domaine de la critique d'art, Nicolas Thély a proposé quatre opérations de contextualisation des productions critiques (Thély 2016). Ses expérimentations ont pour enjeu de révéler les conditions de production des textes critiques en les confrontant à différents types d'informations comme des quantités mesurées, des données GPS décrivant le parcours des critiques d'art, des informations extraites par des outils du TAL (Traitement Automatique des Langues) ainsi que des graphes.

Dans le domaine des sciences politiques, Hamzaoui et al. présentent une expérimentation portée sur la contextualisation du discours politique français (2019). Leur approche consiste à extraire des termes multimots pour constituer une requête de recherche. Une fois exécutée, cette requête fait remonter les articles Wikipédia les plus pertinents. Enfin, ces articles sont agrégés en un court résumé qui constitue le résultat de la procédure. Notre approche diverge de la leur en ce sens qu'il ne nous incombe aucunement de constituer un résumé à partir d'un corpus de référence mais bien de faire remonter des objets que l'on considèrera se constituer en contexte d'énonciation.

L'approche que nous souhaitons présenter dispose de nombreux avantages. D'abord, elle repose sur un corpus extrait automatiquement du web. Se faisant, nous nous affranchissons des coûts liés à la numérisation-description-océrisation des documents. D'autre part, contrairement à l'approche proposée par Hamzaoui et al., elle ne nécessite pas la constitution d'un corpus de référence. Enfin, et bien que les conséquences ne soient pas neutres, l'utilisation d'API permet là encore de s'affranchir de nombreuses difficultés lors de la mise en place technique. En ce sens notre approche tend à autonomiser l'analyste dans un cadre de recherche en environnement numérique.

Bibliographie

Cometti, Jean-Pierre. 2009. La Force d'un malentendu. Essais sur l'art et la philosophie de l'art. Questions Théoriques. Vrin.

Galleron, Ioana, Marie-Luce Demonet, Cécile Meynard, Fatiha Idmhand, Elena Pierazzo, Geoffrey Williams, Yves Buard, et Julia Roger. 2018. « Les publications numériques de corpus d'auteurs », 18. https://cahier.hypotheses.org/guides-juridiques/les-publications-numeriques-de-corpus-dauteurs

Hamzaoui, Ouassim, Tania Jiménez, Christèle Lagier, et Eric SanJuan-Ibekwe. 2019. « Contextualisation du discours politique ». Document numerique Vol. 22 (1): 63‑84.

Michaud, Yves. 2011. La crise de l'art contemporain. Presses Universitaires de France. https://doi.org/10.3917/puf.micha.2011.01.

Thély, Nicolas. 2016. « Quatre opérations pour étudier la critique d'art à l'époque des humanités numériques ».

 

[1] Rappelons que la régulation française sur le scraping est particulièrement ardue à interpréter et se faisant, nous nous sommes reposés sur les mentions légales du site, celles-ci ne faisant pas état de contre-indications concernant l'usage de méthodes d'extraction automatisée (https://www.lejournaldesarts.fr/mentions-legales)


Personnes connectées : 2 Vie privée
Chargement...