"Associate chair" et "reviewer"
CHI’13, CHI’14, CHI’15 (section “work-in-progress”) / NIME’17, NIME’18, NIME’21
CHI’12, CHI’14, CHI’16 / NIME’15, NIME’16, NIME’18
avec Stéphane Huot, Olivier Bau, Michel Beaudouin-Lafon, Wendy Mackay (in|situ|, LRI, Université Paris-Sud / CNRS / INRIA -- Disney Research, Pittsburg)
Arpège est une technique d'interaction gestuelle permettant un apprentissage progressif d'accords tactiles (postures multi-doigt), ainsi qu'un reconnaisseur robuste pour ce type de gestes
La première expérimentation valide nos directives de conception pour la création de grands vocabulaires de tels gestes
La seconde démontre que les utilisateurs novices peuvent apprendre et mémoriser ces gestes grâce à Arpège, dont le fonctionnement progressif favorise la création de stratégies mnémotechniques efficaces
→ Lien vers l'article publié à ITS 2013, en libre accès sur HAL - "Arpège: learning multitouch chord gestures vocabularies"
→ Lien vers l'article publié à FITG 2010 à Lille - "Conception et apprentissage des interactions tactiles : Arpege et le cas des postures multi-doigts"
→ Vidéo originale pour la soumission de l'article
avec Guillaume Faure, Stephane Huot, Olivier Chapuis, Michel Beaudouin-Lafon (in|situ|, LRI, Université Paris-Sud / CNRS / INRIA)
S'il est vrai que les techniques d'interaction reposant sur la dimension temporelle des gestes sont courantes, comme le double-clic, des utilisations plus complexes de motifs rythmiques sont peu communes en design d'interaction. Elles pourraient, par exemple, être particulièrement intéressantes dans des situations où le canal visuel est saturé ou même inaccessible
La première expérimentation valide la performance de notre reconnaisseur, l'efficacité de nos règles de conception de motifs rythmiques, et démontre que de utilisateurs non-musiciens peuvent facilement les reproduire
La seconde démontre que la mémorisation de tels motifs est aussi efficace que la mémorisation de raccourcis clavier, y compris pour des non-musiciens
Best Paper Award à ACM CHI 2012
→ Lien vers l'article, en libre accès sur HAL - "Using rhythmic patterns as an input method"
→ Vidéo originale pour la soumission de l'article
"Designing expressive interaction techniques for novices inspired by expert activities : the case of musical practice"
Encadrants : Michel Beaudouin-Lafon, Stéphane Huot
Rapporteurs : Carlos Agon (IRCAM et Univ. Paris 6), Marcelo Wanderley (McGill University)
Examinateurs : Christian Jacquemin (Univ. Paris-Sud), Yannick Prié (Univ. de Nantes)
• Proposition d'un cadre de conception pour étudier l'utilisabilité et l'expressivité des techniques d'interaction, comme deux nouvelles mesures de la qualité de l'interaction, alternatives à l'immédiateté, trop souvent prônée dans le design d'interaction
• Conception et évaluation de techniques d’interaction gestuelles et tactiles, et de méthodes d’apprentissage dédiées, inspirées par le jeu instrumental en musique
Le premier objectif est de s'appuyer sur l'apprentissage "tacite" qui a lieu lorsque nous écoutons de la musique, en créant des techniques d'interaction capables d'en tirer parti, et pourraient être à la fois expressives et accessibles à tous, y compris aux non-experts
Le second objectif est de s'inspirer des méthodes pédagogiques de la musique, pour faciliter l'apprentissage de ces interactions gestuelles
→ Lien vers le manuscrit et les résumés en français et en anglais
avec Hugues Genevois, Boris Doval et Vincent Goudard (Equipe "Lutheries - Acoustique - Musique", LAM, Institut Jean le Rond d'Alembert, Paris 6)
Dans le monde de la musique électronique, nous avons pris l'habitude de relier un geste (tourner un potentiomètre, appuyer sur un bouton), à une action élémentaire sur les paramètres physiques du son (fréquence, attaque, durée...)
En revanche, dans le monde des instruments de musique traditionnels, un geste agit de façon simultanée sur un ensemble de paramètres physiques interconnectés, à travers des processus complexes, que l'instrumentiste apprend à dompter de façon incarnée. On peut penser aux turbulences de la flûte qui peuvent changer du tout au tout au moindre mouvement des lèvres, au mécanisme du marteau d'un piano, ou au mouvement de Helmholtz entre un archer et une corde
L'objet de ce projet de recherche est d'explorer la possibilité de concevoir des comportements numériques (simulations physiques, symboles, logique...), répondant à la complexité des mécanismes physiques des instruments traditionnels, pour permettre un jeu instrumental des procédés de synthèse sonore
• Définition d’un cadre d’étude des qualités instrumentales des outils de musique électronique
• Architecture logicielle, prototypes, directives de conception pour une synthèse numérique plus « jouable »
→ Lien vers l'article publié à SMC 2011 - "Dynamic Intermediate Models for audiographic synthesis"
→ Lien vers l'article publié aux Journées d'Informatique Musicale en 2011 - "L’utilisation de modèles intermédiaires dynamiques pour la synthèse audio-graphique"
→ Lien vers l'article publié au congrès français d'acoustique - "Contrôle gestuel du rayonnement acoustique de sons de synthèse"
→ Lien vers mon mémoire de master - "Utilisation de modèles intermédiaires pour le mapping de paramètres de synthèse"
→ Vidéo originale pour le mémoire