Interdisziplinäres BGC-Kolloquium
veranstaltet vom Berlin Gesture Center in Kooperation mit
Vortrag von Stefan Kopp (Arbeitsgruppe Künstliche Intelligenz, Universität Bielefeld):
Wie Maschinen sprechen und gestikulieren lernen von der Psycholinguistik zur Computersimulation / Modeling speech and gesture production from psycholinguistics to computational simulations
Freitag, 1. Februar 2008, 19 Uhr, Projektron, Gneisenaustr. 2, 10961 Berlin-Kreuzberg (U-Bahnhof Mehringdamm)
In diesem Vortrag werden interdisziplinäre Forschungsarbeiten zur Untersuchung
der Produktion spontaner Sprache und begleitender Gesten vorgestellt. Das Untersuchungsszenario
sind Wegbeschreibungen. Die hier verfolgte Methodik verbindet die empirische
Untersuchung und Analyse von natürlichem Äußerungsverhalten
und den Entwurf psycholinguistischer Modelle mit der Erstellung von Berechnungsmodellen
durch Methoden der Künstlichen Intelligenz und deren Simulation in virtuellen
Charakteren. Die empirische Arbeit zielt auf die Beantwortung der Frage, welche
semantischen Aspekte eines Referenten unter welchen Umständen
für die Kommunikation ausgewählt werden und mit welchen konkreten
morpho-syntaktischen Mitteln sie sprachlich wie gestisch repräsentiert
werden. Die Erstellung von Berechnungsmodellen dient der Überprüfung
der durch Korpusannotation und -analyse gefundenen Befunde sowie der (unweigerlichen)
Identifikation neuer, vertiefender Fragestellungen für die Empirie und
Modellbildung. Abschließend wird die Frage diskutiert, inwieweit Fähigkeiten
zur Imitation, die eine Abbildung von perzeptiven auf eigene efferente Parameter
erfordert, helfen kann, künstliche Systeme zu befähigen, verkörperte
Kommunikation durch Gestik besser verstehen und selber produzieren zu können.
Der Vortrag ist in deutscher Sprache.
In this talk, I will present interdisciplinary work on the spontaneous production
of speech and accompanying iconic gestures, with a focus on the driving forces
behind depictive gesture. The methodology employed, here in a scenario of direction-giving
instructions, interweaves the empirical study of human behavioral (video and
motion capture) data and psycholinguistics modeling with computational modeling
and simulation in artificial humans. The empirical work that will be presented
aims at identifying which features of a referent people select for conveyance
at all, and under which circumstances, and what strategies they follow in representing
them verbally and gesturally. The computational work serves as a test-bed for
corpus annotation and analyses as well as for the conception of models that
exceed the current state of our empirical evidence, and it has led to conversational
agents like a conversational museum guide, a multimodal direction-giver, and
an assistant in collaborative Virtual Reality tasks. Finally, I will discuss
how the ability for imitation, which rests on the ability to map the perceptions
of a conspecifics action onto corresponding motor representations of ones
own, can play a key role in making such agents able to better understand and
employ gestural behavior in embodied utterances.
The presentation will be in German.