Singing-driven interfaces for sound synthesizers

dc.contributor
Universitat Pompeu Fabra. Departament de Tecnologia
dc.contributor.author
Janer Mestres, Jordi
dc.date.accessioned
2011-04-12T16:36:22Z
dc.date.available
2009-01-08
dc.date.issued
2008-03-14
dc.date.submitted
2009-01-08
dc.identifier.isbn
9788469209653
dc.identifier.uri
http://www.tdx.cat/TDX-0108109-131050
dc.identifier.uri
http://hdl.handle.net/10803/7550
dc.description.abstract
Els instruments musicals digitals es descomponen usualment en dues parts: la interfície d'usuari i el motor de síntesi. Tradicionalment la interfície d'usuari pren el nom de controlador musical. L'objectiu d'aquesta tesi és el disseny d'un interfície que permeti el control de la síntesi de sons instrumentals a partir de la veu cantada.<br/><br/>Amb la present recerca, intentem relacionar la veu amb el so dels instruments musicals, tenint en compte tan la descripció del senyal de veu, com les corresponents estratègies de mapeig per un control adequat del sintetitzador.<br/>Proposem dos enfocaments diferents, d'una banda el control d'un sintetitzador de veu cantada, i d'altra banda el control de la síntesi de sons instrumentals. Per aquest últim, suggerim una representació del senyal de veu com a gests vocals, que inclou una sèrie d'algoritmes d'anàlisis de veu. A la vegada, per demostrar els resultats obtinguts, hem desenvolupat dos prototips a temps real.
cat
dc.description.abstract
Los instrumentos musicales digitales se pueden separar en dos componentes: el interfaz de usuario y el motor de sintesis. El interfaz de usuario se ha denominado tradicionalmente controlador musical. El objectivo de esta tesis es el diseño de un interfaz que permita el control de la sintesis de sonidos instrumentales a partir de la voz cantada.<br/><br/>La presente investigación pretende relacionar las caracteristicas de la voz con el sonido de los instrumentos musicales, teniendo en cuenta la descripción de la señal de voz, como las correspondientes estrategias de mapeo para un control apropiado del sintetizador. Se proponen dos enfoques distintos, el control de un sintetizador de voz cantada, y el control de la sintesis de sonidos insturmentales. Para este último, se sugiere una representación de la señal de voz como gestos vocales, incluyendo varios algoritmos de analisis de voz. Los resultados obtenidos se demuestran con dos prototipos a tiempo real.
spa
dc.description.abstract
Digital musical instruments are usually decomposed in two main constituent parts: a user interface and a sound synthesis engine. The user interface is popularly referred as a musical controller, and its design is the primary objective of this dissertation. Under the title of singing-driven interfaces, we aim to design systems that allow controlling the synthesis of musical instruments sounds with the singing voice. <br/><br/>This dissertation searches for the relationships between the voice and the sound of musical instruments by addressing both, the voice signal description, as well as the mapping strategies for a meaningful control of the synthesized sound. <br/>We propose two different approaches, one for controlling a singing voice synthesizer, and another for controlling the synthesis of instrumental sounds. For the latter, we suggest to represent voice signal as vocal gestures, contributing with several voice analysis methods.<br/>To demonstrate the obtained results, we developed two real-time prototypes.
eng
dc.format.mimetype
application/pdf
dc.language.iso
eng
dc.publisher
Universitat Pompeu Fabra
dc.rights.license
L'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: <a href="http://creativecommons.org/licenses/by-nc-sa/3.0/deed.ca">http://creativecommons.org/licenses/by-nc-sa/3.0/deed.ca</a>
dc.rights.uri
http://creativecommons.org/licenses/by-nc-sa/3.0/
*
dc.source
TDX (Tesis Doctorals en Xarxa)
dc.subject
segmentation
dc.subject
phonetic alignment
dc.subject
formant tracking
dc.subject
syllabling
dc.subject
real-time
dc.subject
mapping
dc.subject
control
dc.subject
vocal gestures
dc.subject
sound synthesis
dc.subject
user interface
dc.subject
singing voice
dc.subject
signal processing
dc.subject
controlador musical
dc.subject
alineamiento fonético
dc.subject
segmentación
dc.subject
analisi
dc.subject
mapeo
dc.subject
tiempo real
dc.subject
estimación de formantes
dc.subject
gestos vocales
dc.subject
sintesis de sonido
dc.subject
interfaz de usuario
dc.subject
control
dc.subject
procesado de señal
dc.subject
voz cantada
dc.subject
alineament fonètic
dc.subject
controlador musical
dc.subject
anàlisis
dc.subject
segmentació
dc.subject
estimació de formants
dc.subject
temps real
dc.subject
mapeig
dc.subject
control
dc.subject
gests vocals
dc.subject
interfícies d'usuari
dc.subject
síntesi sonora
dc.subject
veu cantada
dc.subject
processament del senyal
dc.subject
musical controller
dc.title
Singing-driven interfaces for sound synthesizers
dc.type
info:eu-repo/semantics/doctoralThesis
dc.type
info:eu-repo/semantics/publishedVersion
dc.subject.udc
004
cat
dc.subject.udc
531/534
cat
dc.subject.udc
78
cat
dc.contributor.authoremail
jjaner@iua.upf.edu
dc.contributor.director
Serra, Xavier
dc.rights.accessLevel
info:eu-repo/semantics/openAccess
cat
dc.identifier.dl
B.54963-2008
dc.description.degree
Programa de doctorat en Tecnologies de la Informació i les Comunicacions


Documents

tjj.pdf

3.042Mb PDF

This item appears in the following Collection(s)