Le traitement automatique des langues et le journalisme des données
Intervenant : Xavier Tannier
Le traitement automatique des langues est une discipline de l’intelligence artificielle à mi-chemin entre l’informatique et la linguistique, qui a pour but d’analyser le langage humain, et dans notre cas, le texte. La fouille de texte s’applique à l’extraction d’informations pertinentes dans une grande quantité de données textuelles.
Dans ce contexte, journalistes et technologues ont développé la notion de « journalisme de données ». Cette pratique nouvelle du journalisme tire partie des données numériques disponibles pour produire et distribuer l’information. Elle bénéficie notamment de la popularité croissante de l’Open Data et de bases de connaissances, ainsi que des travaux récents en visualisation de données, pour faciliter l’analyse de l’information et proposer une grande variété de points de vue.