Accueil/ expose
Redrawing the lines between language and graphics
mardi 08 février 2022

Loading the player...
Descriptif

Conférence de Neil Cohn (Tilburg University) dans le cadre du Colloquium du département d'Etudes Cognitives de l'ENS-PSL.

Graphic and verbal communication are typically thought to work in very different ways. While speech uses a conventionalized vocabulary that is acquired from children’s environments, drawing is assumed to reflect the articulation of how people see and think, with learning based on “artistic talent.” Yet, research from linguistics and cognitive science upends these assumptions, suggesting that these domains are actually not so distinctive. I will argue that learning to draw involves building up a visual vocabulary of graphic representations that is developed across a sensitive period similar to that of language. In addition, comprehending sequential images involves a grammar built of “parts of speech” and hierarchic constituents, and their manipulation evokes similar brain responses as the syntax of sentences. Finally, I’ll show the origins of Western cultural considerations about “art” and its instruction, and argue that these assumptions actually inhibit people from learning how to draw, while obfuscating the linguistic status of these visual languages. Altogether, this work heralds a reconsideration of graphic communication and its place within the linguistic and cognitive sciences.

Référence : Site Visual Language Lab
 

Voir aussi


  • Aucun exposé du même auteur.
  • Base neurale de la mémoire spatiale : Po...
    Alain Berthoz
  • Interprétations spontanées, inférences p...
    Emmanuel Sander
  • Cognitive, developmental and cultural ba...
    Atsushi Senju
  • The origin of prosociality : a comparati...
    Nicolas Claidière
  • (Dis)organizational principles for neuro...
    Miguel Maravall Rodriguez
  • From speech to language in infancy
    Alejandrina Cristia
  • The Neural Marketplace
    Kenneth Harris
  • Why the Internet won't get you any more ...
    Robin Dunbar
  • Synergies in Language Acquisition
    Mark Johnson
  • The neuroeconomics of simple choice
    Antonio Rangel
  • Phonological Effects on the Acquisition ...
    Katherine Demuth
  • Inner speech in action : EMG data durin...
    Hélène Loevenbruck
  • Use of phonetic detail in word learning
    Paola Escudero
  • What is special about eye contact ?
    Laurence Conty
  • The inference theory of discourse refere...
    Amit Almor
  • Syntactic computations, the cartography ...
    Luigi Rizzi
  • Levels of communication and lexical sema...
    Peter Gärdenfors
  • Amygdalar mechanisms for innate, learne...
    Daniel Salzman
  • Explanation and Inference
    Igor Douven
  • Consciousness, Action, PAM !
    Thor Grunbaum
  • Principles of Neural Design
    Peter Sterling
  • Precursors to valuation
    Timothy Behrens
  • Is machine learning a good model of huma...
    Yann LeCun
  • Following and leading social gaze
    Andrew Bayliss
  • It’s the neuron: how the brain really wo...
    Charles Randy Gallistel
  • Biological Information: Genetic, epigene...
    Paul Griffiths
  • From necessity to sufficiency in memory ...
    Karim Benchenane
  • Comparing the difficulty of different ty...
    LouAnn Gerken
  • A big data approach towards functional b...
    Bertrand Thirion
  • Sign language and language emergence
    Marie Coppola
  • The collaborative making of an encyclope...
    Dario Taraborelli
  • The Evolution of Punishment
    Nichola Raihani
  • Metacontrol of reinforcement learning
    Sam Gershman
  • Homo Cyberneticus: Neurocognitive consid...
    Tamar Makin
  • Reverse Engineering Visual Intelligence
    Jim DiCarlo
  • What is listening effort?
    Ingrid Johnsrude
  • Genomic analysis of 1.5 million people r...
    Paige Harden
  • The Language of Life: exploring the orig...
    Catherine Hobaiter
  • Deliberate ignorance: The curious choic...
    Ralph Hertwig
  • The social brain in adolescence
    Sarah-Jayne Blakemore
  • Big data about small people: Studying ch...
    Michael Frank
  • Individual Differences in Lifespan Cogni...
    Stuart Richie
  • Why are humans still smarter than machin...
    James L. (Jay) McClelland
  • Contextual effects, image statistics, an...
    Odelia Schwartz
  • Problem solving in acellular slime mold...
    Audrey Dussutour
  • Choice and value : the biology of decisi...
    Alex Kacelnik
  • What happened to the 'mental' in 'menta...
    Joseph LeDoux
  • Rethinking sex and the brain: Beyond th...
    Daphna Joel
  • How robust are meta-analyses to publicat...
    Maya Mathur
  • How family background affects children’...
    Sophie Von Stumm
Auteur(s)
Neil Cohn
Tilburg University
Chercheur en sciences cognitives

Plus sur cet auteur
Voir la fiche de l'auteur

Cursus :

Neil Cohn est un spécialiste des sciences cognitives et un théoricien de la bande dessinée.

Ses recherches offrent la première étude scientifique sérieuse de la cognition de la compréhension des bandes dessinées, et utilisent une approche interdisciplinaire combinant des aspects de la linguistique théorique et de corpus avec la psychologie cognitive et les neurosciences cognitives.

Le travail de Cohn soutient que des capacités cognitives communes sous-tendent le traitement de divers domaines expressifs, notamment les langages verbaux et gestuels et ce qu'il appelle le "langage visuel" - la structure et la cognition des dessins et des récits visuels, en particulier ceux que l'on trouve dans les bandes dessinées.

Son livre de 2020, Who Understands Comics ?, explore les compétences requises pour comprendre les récits visuels et a été nominé pour le prix Eisner 2021 du meilleur travail académique/universitaire. Ses théories sur le langage visuel ont servi de base à la création de bandes dessinées d'actualité générées automatiquement pour la BBC.

Les recherches de Cohn ont également porté sur la compréhension et le statut linguistique des emoji et il a également contribué à proposer et à concevoir plusieurs emoji.

Cliquer ICI pour fermer
Annexes
Téléchargements :
   - Télécharger la vidéo

Dernière mise à jour : 28/03/2022