Donnerstag, 10. Juni 1999
14:00
Kongreßeröffnung / Congress-Opening

Begrüßungsansprachen + Informationen
Welcome & Information

Es sprechen: 
Prof. Dr. Gunnar Borstel, Vizepräsident der Universität Osnabrück 
Reinhard Mohaupt, Ministerium für Bildung, Wissenschaft, Forschung und Technologie 
Dr. Marlene Wartenberg, Generalsekretärin des Deutschen Musikrates 
Prof. Dr. Bernd Enders, Kongreßleiter 

Musiksaal

info

14:15

Prof. Dr. Thomas A. Troge 

Staatl. Hochschule für Musik, Karlsruhe (D) 

Global Village, Global Brain, Global Music – Realität oder Fiktion? 

V Musiksaal (öffentliche Veranstaltung, freier Eintritt) 

info
 
15:15

Dr. Norbert Schläbitz

Universität Paderborn (D) 

Weltenklang oder: Das Werk im Netz

V Musiksaal

info

Jochen Stolla

Technische Universität Berlin (D) 

Zwischen Naturtreue und Illusion - Zum Begriff der Natürlichkeit bei der elektroakustischen Übertragung klassischer Musik 

V Hörsaal 

info
16:15 Kaffeepause / Coffee break
16:30

Dr. Simon Emmerson

City University, London (UK) 

Crossing Cultural Boundaries Through Technology? 

V Musiksaal 

info

Prof. Hans-Peter Haller 

Freiburg (D) 

Elektronische Klangsteuerung in Echtzeit
Neue Klangräume
Umwandlung von Vokal- und Instrumentalklängen
Neue Klanggestalten 

V Hörsaal 

info

17:30

Prof. Dr. Hans-Joachim Braun 

Universität der Bundeswehr, Hamburg (D) 

Militärtechnik, musikalische Technik, Technologietransfer: Anmerkungen zu ihrem Verhältnis in der ersten Hälfte des 20. Jahrhunderts 

V Musiksaal 

info

Mark Bromwich & Julie Wilson-Bokowiec 

Dept. of Music, University of Huddersfield (UK) 

The Bodycoder System: Intensifying the Collaborative Process through the Use of New Technology
(lecture with performance) 

V Hörsaal 

info

19:30 Festliche Eröffnung der KlangArt in der Schloß-Aula

Freitag, 11. Juni 1999
09:15
bis
12:00 
Sonderveranstaltung

Prof. Dr. Bernhard Müßgens mit Schülern der Elisabethschule Osnabrück

Computereinsatz im Musikunterricht der Grundschule 

V Raum 214 

info
09:15

Dr. Ioannis Zannos

Staatl. Inst. für Musikforschung, Preußischer Kulturbesitz Berlin (D) 

Basic Concepts for Sound Modeling and Their Application 

V Musiksaal 

info

Prof. Dr. Guerino Mazzola

ETH Zürich/University of Laval, Quebec (CH) 

Degenerative Theory of Tonal Music 

V Hörsaal 

info
10:15

Dr. Christoph Reuter & Prof. Dr. Wolfgang Voigt 

Universität zu Köln (D) 

Die Klangfarbe des Theremins 

V Musiksaal 

info

Ian Whalley 

University of Waikato, Hamilton (New Zealand) 

"Unarted" Territory: Digital Music Techniques and the Development of Neo-World Music Styles 

V Hörsaal 

info
11:15 Kaffeepause / Coffee break
11:30

Dr. Joel Chadabe

University of New York, Albany (USA) 

A Portrait of the Interactive Musical Instrument 

V Musiksaal 

info

Prof. Dr. Jobst P. Fricke 

Universität zu Köln (D) 

Regionale Idiome in der Popmusik 

V Hörsaal 

info
12:30

Hildegard Westerkamp 

Vancouver (CAN) 

Komposition von Umweltklängen: Materielle Ausbeutung oder Bewußtseinsvertiefung 

V Musiksaal 

info

Prof. Rodney Waschka II 

North Carolina State University (USA) 

Artist Responses to Changes in Music Technology 

V Hörsaal 

info
13:30 Mittagessen / Lunch
14:15

Prof. Dr. Reinhard Kopiez

Musikhochschule Hannover (D) 

Kritische Diskussion moderner Multimedia-Software für Musiktheorie und Musikpädagogik 

V Musiksaal 

info

Dr. Georg Hajdu 

Hochschule für Musik Detmold, Abt. Münster (D) 

Der globale Komponist
Präliminarien zur Entwicklung einer vernetzten Echtzeitkompositionsumgebung 

V Hörsaal 

info

15:15

Dr. Bernhard Cronenberg

Graz/Salzburg (AU) 

Sequenzerprogramme und CD-ROMs als Hilfsmittel des Musikerziehers
praktische Beispiele einer sinnvollen Integration des Computers im Musikunterricht 

V Musiksaal 

info

Dr. André Ruschkowski 

Salzburg (AU) 

SALZBURGTRUM - Ein virtueller Stadtrundgang:
Eine neuartige Verbindung musikalischer Ideen und technologischer Prozesse 

V Hörsaal 

info

16:15 Kaffeepause / Coffee break
16:30

Dr. Eric Lyon 

Int. Academy for Media Art & Science, Ogaki City, Gifu (Japan) 

NetMix Audio 

V Musiksaal 

info

Prof. Dr. Bernhard Müßgens & cand. phil Tillman Weyde

Universität Osnabrück (D) 

Untersuchungen zum musikalischen Schrifterwerb. Das Computerkolleg Musik in der Grundschule 

V Hörsaal 

info
17:30

Prof. Dr. Jan Beran

Uni Konstanz (D) 

On the Composition of the Piano Concerto No. 1 

V Musiksaal 

info

Dr. Peer Sitter 

Neukirchen-Vlynn (D) 

Musikunterricht via Intra- und Internet 

V Hörsaal 

info
19:00 CongressConcert in der Schloß-Aula 

1. Teil:
Mark Bromwich & Julie Wilson-Bokowiec (Dept. of Music, University of Huddersfield)

Zeitgeist (Spirit of the Age)

Dancer: Julie Wilson-Bokowiec (Electronic Dance Theatre)

info

 

2. Teil:
Prof. Dr. André Ruschkowski (Mozarteum Salzburg)

SALZBURGTRUM - Ein virtueller Stadtrundgang
Videoperformance

anschließend: Gemütliches Beisammensein im Steckenpferd (Stadthalle)

Samstag, 12. Juni 1999
9:15

Papersession I (Beiträge je 20 Minuten)

Dr. Albert Gräf 

Johannes Gutenberg-Universität, Mainz (D) 

Terrestrisches Digitales Radio – Grundlagen, Anwendungen und Planungsprobleme 

V Musiksaal 

info

Prof. Dr. Bernd Enders 

Universität Osnabrück (D) 

Die Musikbibliothek im Internet - Multimedia-Publishing Online 

V Hörsaal 

info

cand. phil. Hae-Jeong Yoon 

Den Haag (NL) 

Die musikalische Anwendung von Fraktalen als Tonhöhengenerator 

V Musiksaal 

info

cand. phil. Heiner Klug 

Universität Düsseldorf (D) 

Digitales Musizieren ... Analoges Musizieren 

V Musiksaal 

info
10:15

Prof. Dr. Oliver Vornberger 

Universität Osnabrück (D) 

Multimedia im Internet 

V Musiksaal 

info

M.A. Bernd Schabbing 

Universität der Bundeswehr, Hamburg (D) 

Musik goes digital. Chancen und Probleme der weltweiten Vermittlung digitalisierter Musik 

V Hörsaal 

info
11:15 Kaffeepause / Coffee break
11:30

Prof. Dr. Karl-Jürgen Kemmelmeyer 

Musikhochschule Hannover (D) 

Klangexperimente mit MIDI, Computer und Tonband. Didaktische Anregungen für den Musikunterricht 

V Musiksaal 

info

Joran Rudi 

Norsk nettverk for Teknologi, Akustikk og Musikk, Oslo (Norway) 

DSP - Sound Synthesis and Educational Aims 

V Hörsaal 

info
12:30

Reimer Flügel 

Horneburg (D) 

Der Computer als ständig verfügbares Arbeitsmittel im Musikunterricht 

V Hörsaal 

info
13:30 Mittagessen / Lunch
14:15

Alex Merck 

(Redakteur der Fachzeitschrift für Studiotechnik ProductionPartner) (D) 

Einflüsse der Fortschritte in der Kommunikations- und Informationstechnologie auf die Lage der im Musikbereich tätigen Personen und Unternehmen  

V Musiksaal 

info

cand. phil. Ludger Rehm 

Universität Osnabrück (D) 

Versuch über den musikpädagogischen Beitrag zur Computer Literacy 

V Hörsaal 

info
15:15

Eberhard Schoener 

München (D) 

Anima als Bindeglied zwischen Global Village und Global Brain 

V Musiksaal 

info

Heino Klemenz 

Arbeitskreis für Schulmusik (D) 

Multimediale Technologie im Musikunterricht an allgemeinbildenden Schulen
Möglichkeiten und Grenzen 

V Hörsaal 

info

16:15 Kaffeepause / Coffee break
16:30

Dr. John Palmer 

University of Hertfordshire, London (UK) 

Which Global Music? 

V Musiksaal 

info

Prof. John Fitch 

University of Bath (UK) 

Teaching Software Synthesis: From Hardware to Software Synthesis 

V Hörsaal 

info
17:30

Nye Parry, PhD Student 

City University & Guildhall School of Music and Drama, London (UK) 

Living Steam: The relocation of concrete music in the environment 

V Musiksaal 

info

Papersession II (Beiträge je 20 Minuten) 

cand. phil. Martin Gieseking 

Universität Osnabrück (D) 

Gestaltung notengraphischer Interaktionsschnittstellen für Musiklernprogramme 

V Hörsaal 

info

cand. phil. Christian Spevak 

University of Hertfordshire (UK) 

Computerbasierte Erkennung von Klangereignissen 

V Hörsaal 

info

cand. phil. Marco Maria 

Humbodt-Universität, Berlin (D) 

Unschärfetests bei Hybrid-Instrumenten 

V Hörsaal 

info

19:00 CongressConcert im Schloß-Musiksaal 

1. Teil:
Karlheinz Essl (Studio for Advanced Music & Media Technology, Linz)

fLOSS (1998/99)
Live-electronic realtime composition environment
Part of the work-in-progress fLOW
http://www.essl.at/works/flow.html
Karlheinz Essl: computer performance
Jochen Bohnes: computer performance

 

2. Teil:
Jan Beran (Zürich)

Piano concert No. 1
Performance für Solo-Klavier und Tonband


Sonntag, 13. Juni 1999
10:00

Barry Truax 

Simon Fraser University, Burnaby, BC (CAN) 

Soundscape Composition as Global Music 

V Musiksaal 

info

Dr. Thomas Noll & Jörg Garbers

Technische Universität Berlin (D) 

Globale Musiktheorie 

V Hörsaal 

info
11:00

Dr. Karlheinz Essl 

Studio for Advanced Music & Media Technology Linz (AU) 

Komponieren im Cyberspace 

V Musiksaal 

info

Dr. Joachim Stange-Elbe

Universität Osnabrück (D) 

Die analytische Interpretation - Thesen und Simulation 

V Hörsaal 

info
12:00 Kaffeepause / Coffee break
12:15
bis
13:30 

Podiumsdiskussion / Round-Table 

Global Village, Global Brain, Global Music

mit Prof. Dr. S. Emmerson, Prof. Dr. B. Enders, Prof. Dr. N. Knolle, Prof. Dr. G. Mazzola (Moderation), Dr. N. Schläbitz, A. Merck, Prof. T.A. Troge 

Musiksaal (öffentliche Veranstaltung, freier Eintritt) 

Audiomitschnitt (mp3)

info
 

Themen

Donnerstag, 10. Juni, 14.00

Kongreßeröffnung mit Begrüßung (Congress Opening - Welcome & Information)

Es sprechen:
Prof. Dr. Gunnar Borstel, Vizepräsident der Universität Osnabrück
Reinhard Mohaupt, Ministerium für Bildung, Wissenschaft, Forschung und Technologie
Dr. Marlene Wartenberg, Generalsekretärin des Deutschen Musikrates
Prof. Dr. Bernd Enders, Kongreßleiter, Dekan des FB 3

back


Donnerstag, 10. Juni, 14.15

Prof. Dr. Thomas A. Troge (Staatl. Hochschule für Musik Karlsruhe)

Global Village, Global Brain, Global Music – Realität oder Fiktion?

Abstract:
Was meinen ein Musiker aus Zentaleuropa oder Mittelamerika, ein Musikwissenschaftler, ein PR-Agent, ein Schallplattenproduzent, ein Musiksoziologe, ein Hersteller von Synthesizern, wenn sie von Global Music sprechen? eine Realität? viele Realitäten, eine Fiktion? viele Fiktionen, ein Wunschbild oder viele? Wenn es so etwas wie Global Music gibt (oder einen Trend in diese Richtung), ist das dann überhaupt wünschenswert oder nicht eher eine Bedrohung für die zahllosen regionalen und nationalen Musikkulturen? Oder ist Global Musik & Global Brain doch nur eine vordergründige technologische Illusion, vorgetäuscht durch eine fast weltumfassende Medienpräsenz? Und schließlich: welche Begrifflichkeit, welche latenten Annahmen über die Welt verstecken sich in und hinter all diesen Spekulationen und Analysen, die ja ganz überwiegend von europäischen bzw. westlich geprägten Theoretikern angestellt werden?

Vita:
Thomas A.Troge studierte Musik, Ingenieurwissenschaften und Soziologie und legte dabei vier akademische Abschlüsse mit Auszeichnung ab. Nach mehrjähriger Konzert- und Unterrichtstätigkeit als Pianist gründete er das Zentrum für Musik- und Freizeitforschung Karlsruhe, in welchem er Kulturforschungs- und Managementprojekte auf regionaler bis internationaler Ebene durchführte. Gleichzeitig war er als Berater und Systemanalytiker für Computeranwendungen im kreativen Bereich tätig und wirkte bei mehreren der ersten Pilotptrojekte im Bereich MultiMedia mit. Herausragende Projekte waren u.a. das Forschungsprojekt »Musikatlas Baden-Württemberg« und seine für den Bereich Musik verantwortliche Mitwirkung an der Konzeption des Karlsruher »Zentrums für Kunst und Medientechnologie«. 1993 wurde er auf den ersten deutschen Lehrstuhl für Musikinformatik an der Hochschule für Musik Karlsruhe berufen, wo er seither das von ihm aufgebaute Computerstudio leitet.

back


Donnerstag, 10. Juni, 15.15

Dr. Norbert Schläbitz (Universität Paderborn)

Weltenklang oder: Das Werk im Netz

Abstract:
Orte setzen Grenzen. Mit dem Schritt ins Netz beginnen Netzwerkreisende der unbedingten Kunst Musik nun den letzten Halt zu nehmen, den in den Partituren der Aufschreibarbeit und in den Orten Ort der traditionellen Aufführung sie noch hatte. Eine Musik aber, die - mit dem Schritt ins Netz - Grenzen traditioneller Provenienz kaum mehr kennt, scheint haltlos. Und in der Tat - wo Interpretationen ehedem Grenzsteine des Möglichen setzten - zeigen sich diese nunmehr lose gesetzt und beileibe nicht festgelegt. Das Netz bietet kein geeignetes Material mehr, an dem ein Bewußtsein, das sich seiner Werte noch gewiss sein könnte, gerinnen kann. In einer virtuellen Gemeinschaft von selbstlosen Musikern beginnt ein anderer Weltenklang sich zu entwerfen, der seine Grenzen erst noch finden muß und der das Werk im frei flottierenden Netz als der Werte volles Flickwerk deklariert.

Vita:
Norbert Schläbitz - geb. 1959. Medientheoretiker und Musikpädagoge. Studium Deutsch/Musik Sek II/I. Erstes und zweites Staatsexamen. 1984-1992 Filmmusikkomponist und -produzent. 1996 promoviert zum Dr. phil. mit der Arbeit: Der diskrete Charme der Neuen Medien. 1992-94 an der TU Braunschweig beschäftigt. 1995-1997: Lehrbeauftragter an der Musikhochschule Detmold/Münster. 1998: Lehrbeauftragter der Universität Gesamthochschule Paderborn. 1997-heute: Lehrbeauftragter der Universität Gesamthochschule Essen. Seit 1997 Lehrer an der Gesamtschule Paderborn/Elsen. Forschungsschwerpunkt: Neue Medien, Musik und Pädagogik. Diverse Publikationen u.a. zusammen mit H.G. Kleinen: Handbuch Musik und Kind. Laaber (i.V.). Mitarbeit am Klett-Schulbuch Hauptsache Musik, hrsg. von Werner Pütz/Rainer Schmitt.

back


Donnerstag, 10. Juni, 15.15

Jochen Stolla (Technische Universität Berlin)

Zwischen Naturtreue und Illusion - Zum Begriff der Natürlichkeit bei der elektroakustischen Übertragung klassischer Musik

Abstract:
Grundlage für die weltweite Verbreitung und Verfügbarkeit von Musik ist deren technische, seit den Zwanzigerjahren insbesondere elektroakustische Reproduktion. Die akustische Reproduktion muss dabei als neue und eigenständige Darstellungsform von Musik gelten. Sie ist damit einerseits spezifischen ästhetischen Gesetzen verpflichtet, wird aber andererseits der traditionellen – ortsgebundenen – Konzertdarstellung gegenüber verantwortlich gemacht: An Aufnahmen klassischer Musik wird immer wieder, ausdrücklich oder stillschweigend, der Maßstab der Natürlichkeit angelegt.
Dieser Beitrag problematisiert den auf die elektroakustische Wiedergabe von Musik angewandten Begriff der Natürlichkeit und verfolgt seine Wandlung entlang der Entwicklung der Übertragungstechnik. Die globale Präsenz medial vermittelter Musik wird also bezogen auf die Asthetik ihrer Erscheinungsweise. Grundlage der Darstellung sind Ergebnisse ideen- und technikhistorischer sowie empirischer Untersuchungen.

Vita:
Geboren 1966 in Nürnberg. Tonmeisterstudium an der Hochschule der Künste Berlin. Nach Abschluss des Studiums Dissertation bei Prof. Dr. Helga de la Motte-Haber (TU Berlin) über Klangbildgestaltung bei Musikaufnahmen. Daneben musikwissenschaftliches Studium an der Justus-Liebig-Universität Gießen sowie Tätigkeit als freier Tonmeister und Musikjournalist. Seit 1997 redaktioneller Mitarbeiter im Bereich E-Musik des Hessischen Rundfunks. Lebt zur Zeit in Frankfurt am Main.

back


Donnerstag, 10. Juni, 16.30

Dr. Simon Emmerson (City University, London)

Crossing cultural boundaries through technology?

Abstract:
In recent years there has been an increasing interest in the use of instruments (and their performance traditions) from other - usually non-Western - cultures in contemporary western art music in general and electroacoustic music in particular. This paper examines the possible bases for such inter-cultural interactions. Many such instruments come from highly developed traditions which may be little understood by the western composer; many performance practices, attitudes and aesthetics may likewise be misunderstood in both directions. The problems and opportunities afforded by technology is a major issue.
Some key questions for the composer and educator include: Notation: its uses and limits; the relation with an aural tradition;
The identity of the work: object, performance or process?
The notion of the author: the nature of the collaboration between composer and performer;
The sounding result: what is important for the listener?
The paper will examine critically these issues drawing particularly from the author’s experiences working with Indian, Korean and West African musicians (as well as ‘non-standard’ western instruments such as the harpsichord) with ‘western’ electronics.

Vita:
Simon Emmerson (b. Wolverhampton 1950) studied Natural Sciences and Music Education at Cambridge, including work with Roger Smalley and Tim Souster. He taught music and physics at secondary school level before pursuing postgraduate studies at City University, London, where he subsequently joined the staff to direct the Electroacoustic Music Studio. He gained a Doctorate at the University in 1982 and is now a Reader in the Music Department. In recent years he has received commissions, all including electronics or tape, from Lontano, Shiva Nova, Philip Mead, Nicola Walker Smith, Jane Chapman, the Groupe de Musique Expérimentale de Bourges, the Smith Quartet and Inok Paek. He was first prize winner at the Bourges Electroacoustic Awards 1985 for his work Time Past IV (soprano and tape). He is editor of The Language of Electroacoustic Music (Macmillan, 1986 now Harwood Academic); he has edited two issues of Contemporary Music Review and is a contributor to Journal of New Music Research and Organised Sound. He is currently Treasurer of Sonic Arts Network. A CD of his works appeared on the Continuum label in 1993.

back


Donnerstag, 10. Juni, 16.30

Prof. Hans-Peter Haller (Freiburg)

Elektronische Klangsteuerung in Echtzeit – Neue Klangräume
Umwandlung von Vokal- und Instrumentalklängen – Neue Klanggestalten

Abstract:
1. Mein Weg zur Elektroakustischen Musik, zur Elektronischen Klangumformung in Echtzeit. Erste Versuche in den 50er Jahren. Systematische Erforschung der Klangumformung im Freiburger Studio
2. Elektronische Klangumformung – keine aufgesetzte Verschönerung, keine Manipulation, sondern Integration in den kompositorischen Prozeß
3. Musikmanagement heute und elektro-akustische Aufführungspraxis
4. Der Interpret und seine erweiterte Klanggestaltung

Vita:
Geboren 1929 in Radolfzell am Bodensee. Nach dem Abitur 1947 Kirchenmusikstudium in Heidelberg. Parallel hierzu Kompositionsunterricht bei Wolfgang Fortner und René Leibowitz.
Freier Mitarbeiter an den Städtischen Bühnen Heidelberg und beim Südfunk Stuttgart.
Nach dem Staatsexamen im Herbst 1950 Beginn der Tätigkeit als Aufnahmeleiter und Programmredakteur beim Südwestfunk, Baden-Baden.
Von 1954-1958 Studium am musikwissenschaftlichen Seminar der Universität Freiburg (Prof. Dr. Gurlitt). Nach der Rückkehr zum Südwestfunk 1959 zusätzlich immer mehr Sonderaufgaben in Zusammenhang mit der Neuen und Elektronischen Musik.
1972 Beurlaubung von den bisherigen Verpflichtungen am Südwestfunk, um die Leitung des neugegründeten Experimentalstudios der Heinrich-Strobel-Stiftung des Südwestfunks in Freiburg im Breisgau zu übernehmen.
1974-1990 Lehraufträge und Lektorate an den Universitäten Basel und Freiburg sowie an der Hochschule für Musik Freiburg. Verleihung des akademischen Titels Professor durch Kultusminister Hahn, Stuttgart.
Zahlreiche Vorträge im In- und Ausland. 1989 Erster Preisträger der Christoph und Stephan Kaske-Stiftung in München; 1990 Verleihung des Reinhold-Schneider-Preises der Stadt Freiburg.
Seit Ende 1989 im vorzeitigen Ruhestand, um im Auftrag der Heinrich-Strobel-Stiftung eine zweibändige Dokumentation über das Experimentalstudio und die Erforschung der Elektronischen Klangumformung zu schreiben. Die beiden Bände sind 1995 innerhalb der Südwestfunk-Schriftenreihe »Rundfunkgeschichte« im Nomos-Verlag, Baden-Baden erschienen.

back


Donnerstag, 10. Juni, 17.30

Prof. Hans-Joachim Braun (Universität der Bundeswehr, Hamburg)

Music Technology and Military Technology in the First Half of the Twentieth Century

Abstract:
Wie kommt George Antheil, selbsternannter 'bad boy of music' der 1920er Jahre, zusammen mit der Schauspielerin Hedy Lamarr dazu, auf der Grundlage des Player Pianos in den frühen vierziger Jahren eine neuartige Funksteuerung für Torpedos zu entwickeln, die im 2. Weltkrieg noch nicht eingesetzt wurde, heute aber eine wichtige Grundlage des US-MILSAT Verteidigungssystems bildet? Welche Zusammenhänge bestehen zwischen den frühen Synthesizerentwicklungen des AT&T Ingenieurs Parkinson in den Bell Laboratories in den USA und seinem Feuerleitsystem für Flugabwehrgeschütze, das die auf London gerichteten deutschen V1 Raketen weitgehend wirkungslos machte? Was haben die von dem amerikanischen Fernmeldeobersten Richard H. Rangers, Pianist, Organist und Absolvent des renommierten MIT, entwickelten und in den Rangertone Studios von so unterschiedlichen Musikern wie Bing Crosby, Earle Brown und Morton Feldman geschätzten Magnetophongeräte mit den Forschungen deutscher Naturwissenschaftler und Ingenieure im Zweiten Weltkrieg zu tun, die das Magnetophon vorrangig zur Aufzeichnung von Feindnachrichten und zur Kriegsberichterstattung entwickelt hatten? (Die Alliierten produzierten im Krieg mit einem Vorläufer, dem Stahldrahtmagnetophon, zur "moralischen Unterstützung" der eigenen Truppen und zur Einschüchterung des Gegners zusätzlichen Kampfeslärm.)
Der Vortrag will zeigen, welche Zusammenhänge zwischen Militärtechnik und musikalischer Technik bestanden, welche Anreize es zu ihrer Entwicklung gab, ob und inwieweit Modifikationen bei der Übertragung von einem auf den anderen Bereich nötig und möglich waren. Ist der Krieg wirklich der "Vater aller Dinge"?

Vita:
Braun, Hans-Joachim, Prof. Dr., seit 1982 ordentl. Professor für Neuere Sozial-, Wirtschafts- und Technikgeschichte an der Universität der Bundeswehr Hamburg, Hauptarbeitsgebiete: Technische Neuerungen und Technologie-transfer, fehlgeschlagene Innovationen, Technik und Kultur, insb. Technik und Musik. Zu letzterem verschiedene Veröffentlichungen u.a. in "Technikgeschichte", Jge. 1992, 1994; Hg. von "I sing the BodyElectric" Music and Technology in the 20th Century (Hofheim: Wolke Verlag, 1999), Hg. der Schriftenreihe "Studien zur Technik-, Wirtschafts- und Sozialgeschichte", Generalsekretär des International Committee for the History of Technology (ICOHTEC), Vorsitzender des Wiss. Beirats der Georg Agricola Gesellschaft zur Föderung der Geschichte der Naturwissenschaften und der Technik.

back


Donnerstag, 10. Juni, 17.30

Mark Bromwich & Julie Wilson-Bokowiec (Dept. of Music, University of Huddersfield)

The Bodycoder System: Intensifying the Collaborative Process Through the Use of New Technology (lecture with performance)

Abstract:
Status of Research: Process completed: Findings substantiated.
This paper will discuss how the Bodycoder System was developed as the result of a long term collaboration between the authors; a composer and electronics designer and a dancer/choreographer. The paper will outline how the artists developed a brief for a performance interface which would enhance and further empower their collaborative process.
The paper will describe how the Bodycoder System has polarized the collaborative/compositional process enabling choreography and musical composition to be developed simultaneously in a kind of global creative process which, by necessity, encompasses all the dimension of the finished performance.
The paper will discuss the manner in which the authors have used the Bodycoder System as a means of both liberating the dancer from his/her historic position as slave to the music and the theatre environment, and as a means of reflecting the complex real-time activity of the mind within the creative process and in-performance.
The paper will discuss the creative and rehearsal process; how sounds are formulated by the artists, how images arise out of movement ideas, and how the impetus for movement occurs. The authors will also discuss the nature of their collaborative process as it is mediated through new technology and the new methodologies which have arisen out of such work.
The aim of the project was to create a new performance mechanism using the movements of a performer to affect and control the audio and video compositional material. Various bodily worn tactile and movement sensors were investigated, these will be described and their strengths and weaknesses detailed.

 

Zeitgeist (Spirit of the Age)
Dancer: Julie Wilson-Bokowiec (Electronic Dance Theatre)

A performance which features Electronic Dance Theatre's Bodycoder System a wireless sensor suit worn by a dancer which enables real-time control and manipulation of both sound and visual parameters
Zeitgeist is a powerful real-time performance. The Zeitgeist is a dancer; half cyborg, half geisha - a contemporary archetype - exploding the postmodern myth of isolation and economies on the intimate edge of the body as hyper-sensual being. Zeitgeist explores the notions of the thinking skin, the ancient imaginal flesh, the kinetic power of the body which leads the mind into the realms of its own deep psychology.
"Bodycoder ... opens a domain of cyborg art that exceeds the human without simply rejecting it" (Drew Hemment - for MUTE - UK) "an extraordinary fusion of human body, sound and video - inventive and powerful" (Stephanie Fergusson - Yorkshire Post - UK). The piece is a highly challenging and confrontational explosion of kaleidoscopic densities.
The multiple layers of sound and images are an attempt to reflect something of the density of human thought - the imaginal parameters which drive the creative engine of the body. This piece has been described by an audience member as overwhelming "like an acid trip with the performer pulling the strings" (SF - Yorkshire Post).
Sound palettes are constructed from a variety of sources some real-samples such as Tibetan horns, aboriginal voices, and processed speech fragments. Sampled sounds were manipulated using electro-acoustic processes such as time expansion/compression, harmonic filtering, convolutions and spectral morphing, these were authored using various computer based processes including Sound designer II , Alchemy, Audiosculpt and Hyperprism.
The visual comprise of sequences of symbols and typography which create a hyper-language of intellectual reflexes. These are interspersed with close-ups of the body, and bodies caught in trance-like postures, urban and electronic landscapes and ancient rituals.

Vita:
Mark Alexander Bromwich - Composer / Electronics Designer - studied Electrical Engineering, specialising in communications systems. He has developed electronic systems for a number of research units including the Cosmic Ray Group and the Nuclear Magnetic Resonance project at Leeds University. Mark has lectured in Electro-acoustic Music at Bretton Hall, and is currently Studio Manager of the Electro-acoustic recording studios at the University of Huddersfield. Performances and commissions include: Specific Space a Multi-Media dance theatre performance installation Commissioned by the Huddersfield Contemporary Music Festival, Kirklees Metropolitan Council and Yorkshire & Humberside Arts. Good Vibrations a piece for 4 electric shavers and percussion sponsored by Braun UK. Ghosts (1995) (stories from the Aboriginal Dream Time) commissioned by Yorkshire and Humberside Arts for the 4 Composers, 4 Choreographer project, and subsequently played at the ICMC (1998). The Navigator (1995) EDT, and interactive dance theatre show featuring a sensitised performance space. Zero in the Bone (1997) for Meta-trombone and interactive computer electronics for trombonist Barrie Webb. The Anatomy Class (1997) featuring the Bodycoder System, and Route (1998) a full length score commissioned by EDT. Mark has been the Sound Manager of The Huddersfield Contemporary Music Festival since 1979 and has both diffused and assisted other Electro-acoustic composers such as Boulez, Stockhausen, Xenakis and Cage realise their works and premier new pieces at the festival.

Julie Wilson - Director / Performer - studied contemporary dance at Middlesex University with Maggie White and Gene Esko before going on to studying for a short time with Lindsay Kemp. Julie is a co-founder with Mark Bromwich of Electronic Dance Theatre which was formed in 1995 with the aim of exploring a new electronic dance theatre aesthetic. Julie was awarded a PhD (1997) in Theatre Studies with Philosophy and Psychology. Julie's performance and directing credits include: Salome (1985) (Harvey Goldsmith) for The Enid, In The Red Room (1990) nominated for the Witbread London Fringe Theatre Award. Fig III (1990/91) for actress/mime Julia Bardsley, at the I.C.A and The Purcell Rooms, London. Alice (1996) for the Lawrence Batley Theatre. The Transmediator Tour (1996) (Germany) an improvised multi-media show with Genesis P-Orridge. The Picture of Dorian Gray (1995) for the LBT in association with Opera North, Street Scene (1996) an American opera by Kurt Weill featuring the Twentieth Century Orchestra of the University of Huddersfield. The direction and reconstruction and first UK performance of the 1st Abreaction Play by Hermann Nitsch as part of the 1995 Post-war Austrian Drama Conference supported by the German Consulate (Manchester). The Anatomy Class (1997), The Navigator (1995), and Route (1998) for EDT. Julie is currently developing a hybrid libretto for a new chamber opera Jitterbug Perfume commissioned by the Lawrence Batley Theatre with has just received a prestigious award from the Millennium Festival Commission.

back


Freitag, 11. Juni, 9:15
Sonderveranstaltung

Prof. Dr. Bernhard Müßgens mit Schülern der Elisabethschule Osnabrück

Computereinsatz im Musikunterricht der Grundschule

Abstract:
In einer unterrichtspraktischen Vorführung unter schulähnlichen Bedingungen werden mit Kindern aus einer ersten und zwei vierten Klassen Arbeitsformen und -ergebnisse aus einem Forschungsprojekt mit der Elisabethschule in Osnabrück vorgestellt. Mit Hilfe des von Prof. Dr. Bernd Enders und Mitarbeitern entwickelten Computerkollegs Musik wurden im Laufe des Schuljahres 1998/99 Grundlagen der Musiktheorie mit Grundschulkindern auf neue Weise erarbeitet und geübt. Nach der Unterrichtsvorführung stehen die am Projekt beteiligten Schüler, Lehrer sowie die wissenschaftlichen Leiter zu einem Gespräch über die bisherigen schulpraktischen Erfahrungen bei der Arbeit mit dem Computerkolleg Musik zur Verfügung.

back


Freitag, 11. Juni, 9.15

Dr. Ioannis Zannos (Staatl. Inst. für Musikforschung, Preußischer Kulturbesitz Berlin)

Basic Concepts for Sound Modeling and Their Applications

Abstract:
This paper discusses some basic concepts for the formal description of sound models. Some of these concepts originate from systems for computer assisted composition and performance which aim at providing general programming tools for music creation. Here, they are reviewed in the context of real-time, object oriented systems and a general formal framework is proposed. Starting with the concept of event, the property of "onset time" is extended the feature of trigger condition, to allow embedding of interactive elements in partially fixed temporal structures. Furthermore, the concepts of "exciter" and "resonator" known from model-based synthesis are generalized to include abstract algorithms, acting there as control source and filter or processing algorithm. An important issue addressed in this discussion is the integrated treatment of event-structure level control algorithms with that of sound-algorithm level control. An example implementation in the real-time object oriented systems "SuperCollider" is provided, showing how these concepts can be applied in a tool for constructing graphical user interfaces for testing algorithms in order to interactively search and archive suitable settings for use in musical performance.

Vita:
Ioannis Zannos studied flute at the Guildhall School of Music and Drama and composition at the City University, London, where he graduated in 1981 with an honours B.Sc. Degree in Music. He continued his instrumental and musical theoretical studies in Athens, and from 1983 studied Musicology at the University of Hamburg, where he recieved the M.A. in 1985 and the PhD degree in 1989. During this time he conducted field research in greek and turkish music in Istanbul and acted as musicological supervisor in the production of a record with classical ottoman music by greek speaking composers. He also developed a computer system for notation, transcription and analysis of traditional greek and turkish music which was demonstrated at several international conferences.
From 1989 to 1993 Ioannis Zannos studied Information Engineering at the University of Tokyo. He developed systems for computer assisted music design at the Artificial Intelligence Laboratory of the Research Centre for Advanced Science and Technology of the University of Tokyo, under Professor Setsuo Ohsuga. He obtained the Doctor of Engineering Degree from the University of Tokyo in September 1993.
Since 1993 Ioannis Zannos works as researcher at SIM (Federal Institute of Music Research, Berlin, Germany), holding the position of Head of Music Technology and Documentation Section. The main focus of his research is the computer–based analysis, simulation and synthesis of musical processes in the context of multimedia systems with new human–computer interfaces. Specific applications he is developing involve use of the SensorGlove as human motion input device for the control of sound synthesis and musical performance. At the same time he is in charge of the bibliographic and documentation projects of the Institute and responsible for the development of a client–server database system for music.

back


Freitag, 11. Juni, 9.15

Prof. Dr. Guerino Mazzola (University of Laval, Quebec, CAN)

Degenerative Theory of Tonal Music

Abstract:
Die unter dem Kürzel GTTM bekannte "Generative Theory of Tonal Music" von Ray Jackendoff und Fred Lerdahl gehört ihrem Anspruch nach zum Thema "globale Musiktheorie". Während in den exakten Wissenschaften geltende Theorien automatisch globale Gültigkeit besitzen, ist dies in der Musikwissenschaft immer noch ein Desideratum. Wir diskutieren im Rahmen der Mathematischen Musiktheorie, der Strukturalistischen Musiksemiotik und der Musikinformatik die globalen Ansprüche der GTTM. Die Befunde provozieren neben einer Kritik an den formalen und inhaltlichen Qualitäten der GTTM auch entsprechend unangenehme Fragen an eine vor allem im deutschen Sprachraum in Verdrängung der GTTM verharrende traditionelle Musiktheorie.

Vita:
Prof. Dr. habil. Guerino Mazzola, *1947 in Uster/ZH als Schweizer Bürger. Studium und Promotion summa cum laude in Mathematik, Theoretischer Physik und Kristallographie an der Universität Zrich. Postdoctoral Studien an den Universitäten von Paris-Sud und Rom. 1980 nach Habilitation an der Universität Zürich Entwicklung der Mathematischen Musiktheorie und Konstruktion eines Musikcomputers. 1984 wissenschaftlicher Direktor der Darmstädter Symmetrieausstellung. 1987 Entwicklung der Musiksoftware presto sowie der Analyse- und Interpretationssoftwareplattform RUBATO. Nationalfonds-Projekte über Tiefen-EEG und Musikwahrnehmung (1987) sowie über computergestützte Analyse und Interpretationstheorie (1992-1996). Seit 1996 Associate Professor für Mathematik an der Universitt Laval/Quebec sowie ständiger Gast und Dozent am Multimedia Lab der Universität Zürich. Seit 1997 Experte beim Schweizerischen Wissenschaftsrat und Berater beim Berliner VW-Projekt "Labor Mathematische Musiktheorie". Seit 1998 Dozent an der ETH-Zrich und Web-Consultant an Hochschulen. Als Contemporary-Jazz-Pianist strebt Mazzola die Synthese von Denken und Fühlen an und produziert mehrheitlich in Übersee. Mazzola ist Autor von acht Büchern und über 70 wissenschaftlichen Publikationen in den Gebieten Arithmetik, Topologie, Kategorientheorie, Algebraische Geometrie, Mathematische Musiktheorie, Hirnforschung, Computergraphik & Kunstwissenschaft, Interpretationstheorie, Musikinformatik, Wissenschaftspolitik und Internet-Diskurs; zehn LPs und CDs als Jazz-Pianist.

back


Freitag, 11. Juni, 10.15

Dr. Christoph Reuter / Prof. Dr. Wolfgang Voigt (Universität zu Köln)

Die Klangfarbe des Theremins

Abstract:
Kein anderes Instrument kann die Singstimme eines Soprans so täuschend echt imitieren wie ausgerechnet das früheste aller elektronischen Musikinstrumente, das Theremin.
Der Beitrag geht der Frage nach, wie diese nahezu perfekte Klangimitation erreicht werden konnte und welche Klangmerkmale für die elektronische Erzeugung einer Sopranstimme ausreichen. Antworten hierzu fanden sich im Originalpatent Leon Theremins. Schon aus seinen Schaltplänen ergeben sich viele Beeinflussungsmöglichkeiten der Klangfarbe. Es stellte sich zum einen heraus, daß Theremin sogar schon die Möglichkeit einer dynamikabhängigen Klangfarbe in Betracht gezogen hatte, und zum anderen, daß sein ausgesprochenes Ziel nicht die Erschaffung neuer Klangfarben war sondern die Imitation der schon vorhandenen.
Die soprantypischen Klangmerkmale lassen sich durch eine digitale Analyse und Resynthese von Ausschnitten der legendären Theremin-Einspielungen von Clara Rockmore ermitteln.

Vita:
Christoph Reuter, Dr., geb. 1968 in Duisburg, 1998-94: Studium an der Universität zu Köln (Musikwissenschaft, Deutsche Philologie, Pädagogik), 1995-1996: Stipendium nach dem GrFG, Dissertation über die Heraushörbarkeit von Orchesterinstrumenten. 1996: Promotion. Freie Lehrtätigkeit am Bildungszentrum für informationsverarbeitende Berufe (b.i.b.), Hannover und Symmedia, Paderborn (Multimedia-Toolbook, MIDI, Sampling, Harddisk-Recording, Internet). Freie Mitarbeit bei Schott Musik International (Multimedia-/Internetprogrammierung und -beratung). 1998-1999: Wissenschaftlicher Assistent für systematische Musikwissenschaft an der Universität zu Köln. Seit April 1999: Stipendium der DFG.

Dr. Wolfgang Voigt (geb. 1943) absolvierte das Tonmeister-Studium an der Nordwestdeutschen Musikakademie Detmold und studierte anschließend Musikwissenschaft. 1974 wurde er mit einer Arbeit über Klangerzeugung und Klangfarbe historischer und neuzeitlicher Fagottinstrumente an der der Universität Köln promoviert. Er war während und nach seinem Studium bei Rundfunk und Fernsehen als Tonmeister tätig und ab 1974 als Miterfinder an der Entwicklung der elektronischen Blasinstrumente Martinetta und Variophon beteiligt. Seit Ende 1975 war er außerdem Wiss. Assistent am wiss. Seminar der Universität Münster und nach der Habilitation 1983 Hochschullehrer im Bereich der Systematischen Musikwissenschaft an den Universitäten Bochum, Münster und Köln.

back


Freitag, 11. Juni, 10.15

Ian Whalley (Music Department The University of Waikato, Hamilton, New Zealand)

"Unarted" Territory: Digital Music Techniques and the Development of Neo-World Music Styles

Abstract:
When using new music technology to replicate existing musical styles and techniques, the immediate problems are technological; aesthetic problems being largely explored within the rubric of existing performance, orchestration and recording techniques. As composers proceed on a continuum from the stylistically known to the unknown made possible through the application of new technology, the problems increasingly concern fusing new techniques with new art. The proposition is illustrated in forms of neo-world music, which are beginning to explore a global music aesthetic.
Neo-world music is understood here to be largely western, tonally based, and rhythmically focused. It is digitally generated and instrumentally focused, except where a sampled voice or performance is used in a piece out of its original context, or a live acoustic instrument is used as an aspect of a larger digitally generated sequence. Works often use a wide range of decontextualised musical traits, sometimes assembled in an eclectic fashion. They may also include environmental sounds, 'nonwestern' instruments, and electronically constructed sounds. Aspects of popular and art music such as new age, film music, and electroacoustic music are then included.
The paper suggests that the further one gets away from the aesthetics of an established musical style in terms of timbre, performance gestures, and temporal/structural patterns, the greater the demand on technical skill and artistic judgment in the generation, arrangement and production of music. The development of new music styles using aspects of the familiar and unfamiliar within the digital medium is then simultaneously a technical and artistic problem.
The problems of blending art and science in the digital realm become increasingly apparent when one ventures into artistically unfamiliar territory. The way forward here depends on the generation of new artistic ideas and new artistic techniques.

Vita:
Ian Whalley is a senior lecturer at the University of Waikato is Hamilton, New Zealand. In 1992 he established the digital music studios on campus which he continues to direct. He now leads the digital music programme to doctoral level.
An active author, Whalley's recent contributions include articles for professional journals such as Music in New Zealand, academic journals including Convergence (UK) and Enculturation (USA), and reviews for the Sunday Star Times (NZ).
His research has focused on real-time performance gestures in computer music, digital music aesthetics, music and the internet, physical modeling synthesis, and digital music orchestration. Papers have recently included in international symposiums in Finland, Germany, New Zealand, Australia and Japan.
As an electroacoustic composer, he was awarded a NZ/Japan exchange grant and premiered Ga no mita mono in Tokyo in 1998, and has recently pemiered Inucm and Izu at international festivals in New Zealand and Australia. As co-ordinator of the NZ Sonic Arts listserve group, he is currently compiling a compact disk of contemporary New Zealand electroacoustic composers works. Projects this year also include compositions and research work for three world conferences: Wellington (Systems Dynamics), Beijing (Computer Music) and Sydney (IASPM).

back


Freitag, 11. Juni, 11.30

Dr. Joel Chadabe (USA)

A Portrait of the Interactive Musical Instrument

Abstract:
A musical instrument in general has three parts: a performance device, a sound generator, and a link that connects the performance device to the sound generator. In a violin, for example, the performance device is the strings and bow, the sound generator is the sound box, and the link between them is the bridge. That structure can represent an electronic as well as an acoustic instrument. In fact, many electronic musical instruments, even those with unusual performance devices or sound generators, exemplify that design.
There are, however, differences between an acoustic and an electronic instrument. First, the performance device in an acoustic instrument initiates the sound which is then resonated in the sound box, while the performance device in an electronic instrument simply controls the sound generator. While the performance device in an acoustic instrument is an intrinsic part of the instrument (you can't have a violin sound without the strings and bow), the design of an electronic performance device can be designed with ergonomics in mind.
Second, unlike a violin which will always sound like a violin, the sound generator of an electronic musical instrument can make any sound.
Third, unlike the bridge in a violin which transmits a performer's relatively complex controls (pitch, loudness, vibrato, articulation, etc) to a single sound generator, in an electronic musical instrument the link can connect any aspect of a performance gesture to any number of sound variables in any way. In fact, performing an electronic musical instrument is not unlike flying a fly-by-wire airplane where the pilot tells a computer what he/she would like the plane to do and a computer flies the plane accordingly.
In short, an electronic performance device can be used ergonomically to control any sound in any way, with the result that the electronic musical instrument can be more comfortable to play, easier to learn, and more flexible in the sounds it can produce than a traditional acoustic instrument.
But the most important advantage of the electronic music instrument is that the link can be active rather than passive, which is to say that it can generate musical information. Historically, such instruments have been developed since the CEMS System, which I commissioned from Robert Moog in 1968, and Salvatore Martirano's SalMar Construction, built between 1969 and 1972.
Unlike a traditional instrument in which a performer's control is passed directly to the sound generator, in these information-generating instruments the performer performs the control system, which adds its own information to what the performer specifies. The performer and automatic controls share control of the instrument. If the automatically-generated information contains some unpredictable elements, the performer becomes an improviser, reacting to the information generated by the instrument he/she is playing.
Electronic instruments, further, can be designed to create different roles for their potential performers. They can be performed by professionals in concert halls or, for example, by amateurs at home via the world wide web. And the instrument can be designed to put these professionals or amateurs in the roles of conductors, soloists, composers, or improvisers.

Vita:
Joel Chadabe, composer and performer, is an internationally recognized pioneer in the development of interactive music systems. His music is available on Deep Listening, CDCM, and other labels. His widely-praised book 'Electric Sound: The Past and Promise of Electronic Music', published by Prentice Hall in November 1996, is the first comprehensive overview of the history of electronic music. His articles have appeared in many journals, magazines, and anthologies, and as president of Intelligent Music, he was responsible for the publication of a wide range of innovative software, including M and Max. He has received awards from the National Endowment for the Arts, New York State Council on the Arts, Ford Foundation, Rockefeller Foundation, Fulbright Commission, and other funding organizations. He is currently Professor Emeritus at State University of New York at Albany, Director of the Electronic Music Studio at Bennington College, and founder and President of Electronic Music Foundation.

back


Freitag, 11. Juni, 11.30

Prof. Dr. Jobst P. Fricke (Universität zu Köln)

Regionale Idiome in der Popmusik

Abstract:
Sogar im Zeitalter von >Weltmusik< und sogar im Bereich von Pop fallen dem Hörer gelegentlich regionale Idiome auf. In vielen Ländern gibt es neben dem unverfälschten Import westlicher Prägung eine zweite Schicht, die diese Idiome deutlich hörbar werden läßt. Die fremdkulturellen Anregungen wurden offensichtlich mit der eigenen Tradition überformt. So ist in unterschiedlichem Grade - je nach Land - im Melodischen und hier insbesondere in typischen melodischen Wendungen, im Rhythmischen oder im Klanglichen, bedingt durch das Instrumentarium und den Klangkörper, ein "lokales Kolorit" festzustellen. Welche Elemente sich im Prozeß der Anverwandlung und der Übernahme durchsetzten, ist nicht nur abhängig davon, welche Abwandlungen die Popmusik zuläßt, sondern auch davon, welche gestalterische Kraft die Elemente der traditionellen Kunst besitzen.

Vita:
Fricke, Jobst P., Prof. Dr. phil., Jahrgang 1930, studierte Musikwissenschaft, Physik, Psychologie und Kommunikationswissenschaften an den Universitäten in Göttingen, Berlin, Köln und Bonn, wurde 1959 in Köln promoviert und anschließend mit dem Aufbau der Abteilung "Musikalische Akustik" im Musikwissenschaftlichen Institut betraut. 1969 habilitierte er sich mit einer Arbeit über "Intonation und musikalisches Hören". Von 1970 bis 1995 Professor und Leiter der Abteilung. Seitdem regelmäßige Lehrtätigkeit an der Universität zu Köln, seit 1972 auch an der Hochschule für Musik in Köln, über die akustischen und psychologischen Grundlagen der Musik. Seit 1995 im Ruhestand. Entwickelte mit Studenten seiner Abteilung das Elektronische Blasinstrument, das die Schumannschen Klangfarbengesetze mit dem Verfahren der Impulsformung in die Klangstruktur umsetzte. Hauptarbeitsgebiete neben der Erforschung der Klangeigenschaften der Musikinstrumente und ihrer Anwendung in Klangsynthese und Aufnahmetechnik sind die Musikkommunikation und Grammatik der Musik. Spezialisierung auf die systemischen Zusammenhänge zwischen akustischen, psychologischen und kulturellen Faktoren in der Musikentwicklung und die dadurch gegebenen Möglichkeiten des Verstehens von Musik.

back


Freitag, 11. Juni, 12.30

Hildegard Westerkamp (Vancouver, Canada)

Das Komponieren mit Umweltklängen: Materielle Ausbeutung oder Bewußtseinsvertiefung?

Abstract:
Mit Hilfe der Audiotechnologie ist es jetzt möglich, alle Klänge dieser Welt festzuhalten. Hören wir deshalb unserer Welt bewußter zu oder verbannen wir die aufgenommenen Umweltklänge ungehört in unsere Schubladen, während unsere Umgebung weiterhin an Lautstärke und Lärmdichte zunimmt? Oder - haben wir unsere Kompositionsideen restlos erschöpft und müssen unsere Klangwelt daher als letzte Ressource ausbeuten? Oder - kann letztlich eine Kompositionssprache entwickelt werden, die unsere Beziehung zur Klangumwelt bewußter behandelt und unser Verständnis für das Produzieren und Hören von Umweltklängen vertieft? Anhand von Klang- und Kompositionsbeispielen werden diese Fragen erörtert.

Vita:
Hildegard Westerkamp was born in Osnabrück, Germany in 1946 and emigrated to Canada in 1968. Whether as a composer, educator, or radio artist most of her work since the mid-seventies has centred around environmental sound and acoustic ecology. She was a member of the original World Soundscape Project, has taught courses in Acoustic Communication at Simon Fraser University in Vancouver, Canada and has conducted soundscape workshops internationally. She is a founding member of the World Forum for Acoustic Ecology (WFAE) and was the editor of The Soundscape Newsletter between 1991 and 1995. By focusing the ears' attention to details both familiar and foreign in the acoustic environment, Westerkamp's compositional work draws attention to the inner, hidden spaces of the environment we inhabit.

back


Freitag, 11. Juni, 12.30

Ass. Professor Rodney Waschka II (North Carolina State University, USA)

Artist Responses to Changes in Music Technology

Abstract:
This paper surveys changes in music technology in the last two decades and discusses the responses of various types of musicians to these new developments. Technological innovations considered include digital recording technology, use of compositional algorithms in the making of music, technological changes in the promotion, marketing, and distribution of music, as well as the general increases in the speed and availability of computers and the resulting impact on printed score production, institutional and private studios, and the role and concept of the composer. Both general and individual artist responses of composers and performers are described, documented, and placed within an historical context with examples ranging from the "general retreat" from the technological change to the "total embrace" artistic positions.

Vita:
Rodney Waschka II is a composer/performer working with algorithmic composition, intermedia pieces, and music for traditional ensembles. His teachers include Larry Austin, Paul Berg, Charles Dodge, Thomas Clark and Clarence Barlow. Waschka's works consist largely of computer music compositions for traditional instruments and/or synthesizer/tape and frequently include other media: visuals, theater, poetry. His pieces have been performed throughout Europe and North America, and in Asia and South America. Composition, performances, and recordings of Waschka's music have been supported by grants and commissions from The National Endowment for the Arts, Meet The Composer, The Texas Composers' Forum, RESONANS (The Netherlands), the Logos Foundation (Belgium), North Carolina State University, Addison Centre Theater, the Hip Pocket Theater, and the University of North Texas. The recipient of numerous commissions and prizes in support of his musical activities, his music is published by Borik Press. His pieces, A Noite, Porem, Rangeu E Quebrou; Last Night; Help Me Remember; Xuan Men, and Visions of Habakkuk have all appeared on recent Centaur compact discs, with Ravel Remembers Fascism forthcoming. Recordings of Waschka's music are also available on the IRIDA and Ama Romanta labels. A former officer of the International Computer Music Association, Waschka is an Associate Professor at North Carolina State University where he directs the computer music studio.

back


Freitag, 11. Juni, 14.15

Dr. Georg Hajdu (Musikhochschule Münster)

Der globale Komponist – Präliminarien zur Entwicklung einer vernetzten Echtzeitkompositionsumgebung

Abstract:
Ausgehend von einem zunehmenden Interesse für offene Formen und improvisatorische Aspekte in meinen Stücken Fingerprints für Klavier und Intermezzo für Keyboard und Elektronik bin ich vor allem an der Frage interessiert, wie sich die Maschine in offene Kompositionsprozesse einbinden läßt. Von Komponisten wie Barlow oder G. Lewis sind Konzepte bekannt, bei denen Musiker auf die vom Computer improvisierte Musik reagieren (Barlow), oder bei denen ein Computer das musikalische Geschehen verfolgt und durch seine Reaktionen wiederum die Grundlage für die Interaktion des Musikers schafft (Lewis). Dabei ist die symbolische Ebene (der Einsatz einer Partitur) bei Barlow auf Vorkomponiertes (z.B. in Una fantasia e un piano meccanico) beschränkt, während sie etwa in dem Stück Voyager bei Lewis ganz fehlt.
Die Hinzunahme einer symbolischen Ebene hätte zwei Dinge zur Folge: Einerseits würde es dem improvisierenden Musiker erlauben, auf visuelle Stimuli zu reagieren, andererseits könnte auch ein ganz anderer Typus von Musiker in den Vorgang mit einbezogen werden, nämlich der mit der freien Improvisation unvertraute, klassisch ausgebildete Musiker, der allerdings über gute Blattlesefähigkeiten verfügen sollte. Ob die Symbolebene allerdings nur aus traditioneller Notenschrift oder etwa anderen grafischen Zeichen bestehen soll, kann in diesem Zusammenhang nicht diskutiert werden.
Dieses in Grundzügen beschriebene Konzept kann ganz in MAX verwirklicht werden. Die benötigten Komponenten bestehen aus einer Tonhöhenverfolgereinheit (z.B. das Objekt fiddle von M. Puckette) zur Eingabe, einer Echtzeitkompositionseinheit zur Transformation dieser Eingabe (eventuell unter Einsatz eines neuronalen Netzwerks zur Kategorisierung der musikalischen Vorgänge) und einer Notationseinheit, die die Ereignisse in Notenschrift übersetzt (ein einfaches Vorbild ist mein MAX-Patch µtone das in Echtzeit mikrotonale Tonketten auf vier Systemen notiert; es beruht auf dem MAX-Objekt lcd). Die Notationseinheit bzw. -einheiten (denn jeder teilnehmende Musiker besitzt seinen eigenen Computer) bekommt die Daten über das Netzwerk nach dem udp-Protokoll (dazu das MAX-Objekt otudp ). Die Verwendung von größeren Netzwerken wie etwa dem Internet würde es schließlich erlauben, Stücke interaktiv in verschiedenen Räumen, an verschiedenen Orten entstehen zu lassen - ein globaler Kompositionsvorgang.

Vita:
Georg Hajdu, geboren 1960 in Göttingen, gehört zu den ersten Komponisten seiner Generation, die sich systematisch der Verbindung von Musik, Naturwissenschaft und Informatik verschrieben haben. Nach Studien in Köln und dem Center for New Music and Audio Technologies in Berkeley (Kalifornien), letzteres mithilfe eines DAAD-Stipendiums, promovierte er an der University of California mit einer multimedialen Bühnenkomposition (Libretto: Thomas Brasch). Nach Aufenthalten am IRCAM und dem ZKM gründete er 1996 mit seiner Frau, der Pianistin Jennifer Hymer, das Ensemble WireWorks, das sich auf die Live-Aufführung elektroakustischer Musik spezialisiert hat. Seit dem selben Jahr unterrichtet er Theorie und Musikmedien an der Hochschule für Musik Detmold, Abteilung Münster.
Neben seinen vielfach mit Preisen bedachten Kompositionen, die von einer pluralistischen Haltung geprägt sind, ist Georg Hajdu auch als Autor von Publikationen zu verschiedenen Themen im Grenzbereich von Musik und Naturwissenschaft hervorgetreten. Zu seinen Interessens- und Forschungsgebieten gehören Mikrotonalität, algorithmische Komposition und der Einsatz neuronaler Netzwerke in der Musik.

back


Freitag, 11. Juni, 14.15

Prof. Dr. Reinhard Kopiez (Musikhochschule Hannover)

Kritische Diskussion moderner Multimedia-Software für Musiktheorie und Musikpädagogik

Abstract:
Die rasante Entwicklung der Computertechnik hat in den letzten 10 Jahren auch neue Software-Anwendungsmöglichkeiten für den Bereich der professionellen Musikausbildung und der Musikwissenschaft im weitesten Sinn eröffnet. So gibt es mittlerweile ein breites Angebot an Software für Gehörbildung, Analyse von Einzelwerken, Kontrapunkt, Tonsatz oder Klanganalyse. Auffällig ist allerdings, daß die meisten Produkte kommerziell orientiert sind und sich nur begrenzt für den professionellen Ausbildungsbereich eignen. Häufig ist der Endnutzer unterfordert und es entsteht der Eindruck, daß seine Bedürfnisse auch überhaupt nicht bekannt zu sein scheinen. In meinem Vortrag werde ich die These verfolgen, daß die interessantesten Softwareprodukte aus dem nicht-kommerziellen Bereich stammen und häufig von idealistischen Einzelautoren entwickelt wurden, denen die Bedürfnisse des Endnutzers genau bekannt sind. Es wird diskutiert, welche Konsequenzen sich daraus für die Hochschulausbildung ergeben.

Vita:
geb. 1959, Gitarrenstudium an der Musikhochschule Köln (Konzertexamen 1982), anschließend Studium der Musikwissenschaft, Psychologie und Musikethnologie an der TU Berlin (Magister 1987, Promotion über ein lernpsychologisches Thema 1990, Habilitation 1998). Von 1990 bis 1995 Hochschulassistent für Musikwissenschaft an der TU Berlin. Von 1995 bis 1998 Professor für Systematische Musikwissenschaft an der Musikhochschule Würzburg, seit Ende 1998 Professor für Musikpsychologie an der Musikhochschule Hannover. Diverse Veröffentlichungen zu Interpretationsforschung, Übemethodik und musikalischen Alltagskulturen (Fußball-Fangesänge).

back


Freitag, 11. Juni, 15.15

Prof. Dr. André Ruschkowski (Mozarteum Salzburg)

SALZBURGTRUM - Ein virtueller Stadtrundgang:
Eine neuartige Verbindung musikalischer Ideen und technologischer Prozesse

Abstract:
Die Komposition SALZBURGTRUM thematisiert die Vielschichtigkeit individueller menschlicher Raumwahrnehmungen und deren Interaktion in der Stadt Salzburg anhand charakteristischer Klangzeichen. Das musikalische Material besteht aus zwei Ebenen: Originalton-Aufnahmen von ausgewählten Orten der Stadt Salzburg sowie ihren graduellen elektronischen Modifikationen. Diese elektronischen Techniken, die in Abhängigkeit vom jeweiligen klanglichen Ausgangsmaterial speziell gewählt und modifiziert wurden, sollen im Referat mit entsprechenden Musikbeispielen näher erläutert werden. Dabei geht es vor allem um die hier spezielle Verbindung zwischen musikalischer Wirkung und der Rolle elektronischer Techniken zur Erzielung dieser künstlerischen Resultate.

Vita:
Geboren 1959 in Berlin, Studium der Musikwissenschaft an der Humboldt-Universität Berlin, 1993 Dissertation über divergierende ästhetische Konzeptionen elektronischer Musik, Arbeiten in verschiedenen Studios für elektronische Musik (u.a. Berlin, Paris, Wien, Toronto), Preise und Anerkennungen bei Internationalen Wettbewerben für elektroakustische Musik (1985 und 1989 in Bourges, 1989 und 1990 in Varese, 1997 in Paris, 1998 St. Paul (USA) und Braunschweig, CD-Veröffentlichungen auf den Labels "OffScale" (Berlin), "La Muse en Circuit" (Paris) und "Sonic Circuits" (St. Paul, USA), 1995 Gastprofessor für Musik des 20. Jahrhunderts an der Universität Köln, unterrichtet derzeit als Professor für elektronische Musik an der Universität Mozarteum Salzburg sowie an der TU Berlin.

back


Freitag, 11. Juni, 15.15

Ass. Prof. Dr. Bernhard Cronenberg (Graz/Salzburg)

Sequenzerprogramme und CD-ROMs als Hilfsmittel des Musikerziehers – praktische Beispiele einer sinnvollen Integration des Computers in den Musikunterricht.

Abstract:
Im Rahmen des Vortrags werden anhand konkreter Unterrichtssequenzen in den Bereichen Rhythmisches Gestalten, Musikanalyse und Werkbegegnung, Vokale und Instrumentale Improvisation, Bewegungserziehung sowie Chorische Arbeit Möglichkeiten einer sinnvollen Integration des Computers im Klassen-Musikunterricht der Zehn- bis Achtzehnjährigen unter Verwendung von Cubase Score gezeigt. Bei den diversen Unterrichtsmodellen wird - mit Rücksicht auf die Schulsituation - grundsätzlich davon ausgegangen, dass eine vollwertig ausgestattete Computerkonfiguration zur Verfügung steht, die der Lehrer als unterrichtliches Hilfsmittel bedient. Vorrangiges Ziel der Unterrichtssequenzen ist das Ausloten von verschiedenen Alternativen des interaktiven Musizierens mit dem Computer.

Vita:
Cronenberg, Bernhard, Mag. art., Dr. phil., Ass.Prof. an der Lehrkanzel für Allgemeine Musikerziehung der Universität für Musik und darstellende Kunst Graz, geb. 1963, 1988 Abschluss der Lehramtsstudien in Musikerziehung und Französisch, 1996 Promotion in Musikwissenschaft, Lehrtätigkeit an den Universitäten für Musik und darstellende Kunst Graz und Salzburg, daneben teilbeschäftigter Gymnasiallehrer in Graz, Lehrbuchautor (Arbeitsbücher für den Musikunterricht der Zehn- bis Vierzehnjährigen) und Autor musikpädagogischer Materialien, zahlreiche Vortragstätigkeit bei Lehrerfortbildungsveranstaltungen und musikpädagogischen Kongressen im In- und Ausland, Publikationen zu methodisch-didaktischen Fragestellungen des Klassen-Musikunterrichts, Forschungstätigkeit mit dem Schwerpunkt auf den Gebieten: Integration der Computertechnik in den Musikunterricht, offene Lernformen.

back


Freitag, 11. Juni, 16.30

Ass. Prof. Dr. Eric Lyon (Dartmouth College, USA) / Professor Dr. Hisagazu Igarashi (Int. Academy for Media Art & Science, Ogaki City, Gifu, Japan)

NetMix Audio

Abstract:
This programming framework contains a set of tools being developed in conjunction with live performance with the capability of distributed realtime DSP operations on sounds. MIDI control signals are broadcast to an "orchestra" of PCs on a network which synthesize and process sounds. This affords DSP capabilities limited only by the number and power of the PCs, and in particular, gives the capability for spatialization of sound with large numbers of outputs, and for non-local performance.

The tools are developed and enhanced in response to performance needs. Performances have been given at various locations in Japan. Our current focus has been on resynthesis from short time Fourier analysis data. This technique lends itself well to distributed parallel processing, as a given FFT data frame may be split between arbitrary numbers of computers (up to FFT size N/2) and resynthesized with oscillator banks. This approach gives us many opportunities for modifying the sound, both in aggregate and separately, such that different portions of the spectrum receive different treatment by such means as different increment, spectral companding, algorithmic traversal, non-sinusoidal resynthesis, and so on.
Our future work includes many time-domain processes, with realtime adjustment and configuration of DSP modules. We also expect to tailor the system for a network rave party.

Vita:
Eric Lyon is composer with ongoing activity in both acoustic and digital electronic music. His works have been performed internationally, with representation at such events as Gaudeamus, ICMC, Darmstadt and the Bonk Festival of New Music of which he is a co-founder.
An extension to his composition work is his research and development of software tools for processing digital sound. He has made these tools available on the Internet since 1993, such as POWERpv - a set of Fourier-based spectral processors; BashFest - a virtual drum machine; EriCsound - a set of Csound synthesizers and processors; and EriCmix - a set of Cmix functions and objects. More recent work has involved interactive CGI web pages which generate music for the web surfer, or algorithmically generate Csound synthesizers and orchestras.
Lyon joins the faculty of Dartmouth as assistant professor of Music in March 1999. Prior to joining Dartmouth, Lyon has taught and researched for 5 years in Japan at both Keio University and The International Academy of Media Arts and Science (IAMAS). During this time he performed with the live digital audio ensemble Psychedelic Bumpo in both Japan and Germany.
Lyon's music is available in CD format on labels including CRI, Frog Peak, Smart Noise, Voys, Ash International, Bonk Music (BFM). His instrumental music is published by Frog Peak.

back


Freitag, 11. Juni, 16.30

Prof. Dr. Bernhard Müßgens / cand. phil. Tillman Weyde (Universität Osnabrück)

Untersuchungen zum musikalischen Schrifterwerb. Das Computerkolleg Musik in der Grundschule.

Abstract:
Unter Bezug auf die unterrichtspraktische Vorführung vom Vormittag, in der mit Kindern aus einem ersten und zwei vierten Klassen Arbeitsformen und -ergebnisse aus einem Forschungsprojekt mit der Elisabethschule in Osnabrück vorgestellt wurden, werden weitere Perspektiven der Entwicklung und Anwendung des Computerkollegs Musik diskutiert. Die am Projekt beteiligten wissenschaftlichen Leiter stehen zu einem Gespräch über die bisherigen schulpraktischen Erfahrungen und über Perspektiven bei der Arbeit mit dem Computerkolleg Musik im Musikunterricht an allgemeinbildenden Schulen zur Verfügung.

 

Vita:
Bernhard Müßgens, Prof. Dr. phil., geb. 1959, Studium Musik und Deutsch für das Lehramt an Grundschulen in Bielefeld und Duisburg, anschließend Musikwissenschaft, Germanistik und Philosophie in Münster, 1988 Promotion in Musikwissenschaft, 2. Staatsexamen, bis 1994 wissenschaftlicher Assistent am Institut für Musik- und Tanzpädagogik der Deutschen Sporthochschule Köln, danach Grundschullehrer in Rheinland-Pfalz und Lehrbeauftragter am Institut für Musik und ihre Didaktik der Universität zu Köln, 1996 Habilitation in Musikpädagogik, seit 1997 Professor für Schulische Musikpädagogik an der Universität Osnabrück.

back


Freitag, 11. Juni, 17.30

Prof. Dr. Jan Beran (Uni Konstanz)

On the composition of the Piano concert No. 1

Abstract:
In this talk, the basic conceptual foundations of my piano concert No. 1 are discussed. The actual compositional process happens at a subconscious `intuitive' level which is difficult (or impossible) to describe in detail. A description of this `emotional core' is therefore not subject of the talk. Instead, we focus on the purely constructional part of the composition. The basic concept relies on the theory of transformations of local and global compositions in suitably defined musical spaces, as outlined in Mazzola (1990) and implemented in the composition software PRESTO. The mathematical concepts used here are, in particular: algebraic modules, symmetries and manifolds. The theoretical concepts will be illustrated by practical examples from the piano concert.

Vita:
1983: Diploma in Mathematics, ETH Zurich, Switzerland; 1986: PhD in Mathematics, ETH Zurich; 1984-87: Studies in composition and music theory at the University of Zurich (among others at H.U. Lehmann); 1987-88: Visiting Assistant Professor in Statistics, University of North Carolina at Chapel Hill (NC, USA); also since 1987: Visiting Scholar at various US universities (Standford, University of Washington, Cornell, MIT) and consultant for Bellcore (NJ, USA) and MathSoft, Inc. (Seattle, WA, USA); 1988-1991: Assistant Professor, Texas A\&M University, USA; 1992-1994: Research Fellow, University of Zurich, Switzerland; since 1994: Associate Professor, University of Konstanz, Germany.

back


Freitag, 11. Juni, 17.30

Dr. Peer Sitter (Neukirchen-Vlynn)

Schulen ans Netz! - Musikunterricht ans und durchs Netz?

Abstract:
'Schulen ans Netz' - diese Aufforderung ist bis in die Musikräume der Schulen vorgedrungen. Ob es sich lohnt das Internet (oder ein Intranet) für den Schulalltag zu nutzen, wie Kosten, Technik und skeptische Informatikkollegen gehandhabt werden können, - all das soll Gegenstand der Betrachtungen sein.

Vita:
Sitter, Peer, Dr., geb. 1961 in Gelsenkirchen, Studium 1981-1983 Physik, Mathematik an der Universität Bielefeld, 1983-1989 Musik und Physik Sek, II/I an der Bergischen Universität-GH Wuppertal, 1997 Promotion in Musikwissenschaft an der Universität Osnabrück, 1992 - 1995 wiss. Mitarbeiter und Lehrbeauftragter am Musikwissenschaftlichen Institut der Universität zu Köln. Im SS 1999 Lehrbeauftrag an der Bergischen Universität Wuppertal. Zur Zeit tätig an der städt. Gesamtschule in Kamp-Lintfort. Arbeitsbereiche: Repräsentation von Musik im Computer, Neue Technologien und Musik, Computer und Musikpädagogik.

back


Samstag, 12. Juni, 9.15
Papersession I

Dr. Albert Gräf  (Johannes Gutenberg-Universität, Mainz)

Terrestrisches Digitales Radio – Grundlagen, Anwendungen und Planungsprobleme

Abstract:
Die elektronischen Medien befinden sich derzeit in einem fundamentalen Umbruch von der Analog- zur Digitaltechnik. Neue Technologien im Bereich der optischen Datenübertragung, der zellulären Mobilnetze, der Satellitenübertragung und des digitalen terrestrischen Rundfunks bilden die Grundlage für die globalen Breitband-Datennetze des postindustriellen Informationszeitalters. Mit ihrer Hilfe wird es möglich sein, umfangreiche und komplex strukturierte multimediale Inhalte in kürzester Zeit an prinzipiell beliebige Punkte der Erde zu transportieren. Die fortschreitende Integration von Kommunikations- und Informationstechniken eröffnet dem Netzteilnehmer dabei vollkommen neue Möglichkeiten, die übertragenen Informationen weiterzuverarbeiten. Eine Vielzahl von möglichen Anwendungen dieser Datennetze werden derzeit diskutiert, wie z.B. Telekooperation, individuelle Produktion, elektronisches Publizieren, verteilte Multimedia-Bibliotheken, interaktives Fernsehen u.v.m.
Einen Teil der Netz-Infrastruktur werden die zur Zeit noch in der Einführungsphase befindlichen digitalen terrestrischen Übertragungssysteme im Rundfunkbereich bilden. Im Gegensatz zu Kabel- und Mobilfunknetzen im Telekommunikationsbereich, die primär der bidirektionalen Kommunikation zwischen einzelnen Netzteilnehmern dienen, zielen die digitalen Rundfunknetze auf die flächendeckende Ausstrahlung von Multimedia-Daten (Audio, Bilder, Video) zusammen mit beliebigen anderen Inhalten, die sich digital codieren lassen. Ein terrestrisches, kabelloses Übertragungssystem ist hier unbedingt notwendig, da man weder mit Kabelnetzen noch mit Satelliten den mobilen Empfänger, d.h. vor allem Empfänger in Fahrzeugen, Zügen und Schiffen, erreichen kann. Zwar fehlt dem digitalen terrestrischen Rundfunk der für interaktive Anwendungen notwendige Rückkanal, dieser ließe sich jedoch mit Hilfe von Mobilfunknetzen realisieren.
Der Vortrag befasst sich mit dem innerhalb des Eureka-Projekts 147 entwickelten System DAB (Digital Audio Broadcasting, in Deutschland auch "Digitalradio" genannt), das in den kommenden Jahrzehnten das FM-Radio in vielen Ländern der westlichen Welt nach und nach ersetzen soll. Es ist dabei unser Ziel, einen Überblick über die technischen Grundlagen und die Einsatzmöglichkeiten dieser neuen Technik zu geben, wobei auch auf einige der grundsätzlichen Probleme bei der Implementierung und Anwendung des Systems eingegangen werden soll.

Vita:
1991: Diplom in Mathematik an der Johannes Gutenberg-Universität Mainz. Danach wissenschaftlicher Mitarbeiter an der Johannes Gutenberg-Universität; Durchführung und Betreuung diverser interdisziplinärer Forschungsprojekte im Bereich Medientechnik und Informatik, insbesondere im Zusammenhang mit dem "Forschungsverbund Medientechnik Südwest" (FMS). 1995: Promotion zum Dr. rer. nat. an der Johannes Gutenberg-Universität. Seit 1998: Wissenschaftlicher Assistent an der Johannes Gutenberg-Universität und Leiter der Abteilung Musikinformatik. Stellvertretender Vorsitzender des "Interdisziplinären Arbeitskreises Musik- und Kunstinformatik" an der Universität Mainz. Koordinator des FMS II-Projekts II.3 ("Planungswerkzeuge für digitale terrestrische Funknetze"). Mitglied in den Arbeitskreisen II und III des DAB-Pilotprojektes Baden-Württemberg.

back


Samstag, 12. Juni, 9.15
Papersession I

cand. phil. Hae-Jeong Yoon (Den Haag, Niederlande)

Die musikalische Anwendung von Fraktalen als Tonhöhengenerator

Abstract:
Die Fraktale Geometrie ist eine noch junge Disziplin. Fraktale sind phänomenologisch durch Selbstähnlichkeit und Skaleninvarianz charakterisiert. Ihr Wesen besteht in der Einfachheit ihrer Keime und in ihrer komplexen Entfaltung, die eine ästhetisch faszinierende Ordnung im Chaos birgt. Das Konzept der Fraktale und die entsprechenden mathematischen Modelle können in der musikalischen Komposition angewandt werden.

Vita:
Hae-Jeong Yoon, geb. 1960; 1982-1986 Bachelor Degree im Fach Anglistik an der Korea-Universität in Seoul; 1988-1996 Magisterstudium in den Fächern Musikwissenschaft, Anglistik und Pädagogik an der Universität Köln; seit 1996 Promotionsstudium im Fach Musikwissenschaft an der Universität Osnabrück.

back


Samstag, 12. Juni, 9.15
Papersession I

cand. phil. Heiner Klug (Universität Düsseldorf)

Digitales Musizieren ... Analoges Musizieren

Abstract:
Die Geschichte der abendländischen Musik ist eine Geschichte der schriftlichen Überlieferung. Diese Geschichte kann als Prozess der geistigen Digitalisierung und Normierung aufgefasst werden, der in enger Wechselwirkung mit der Verfeinerung von Notations- und Überlieferungstechniken erfolgte. Weg vom ursprünglich "analogen" Musizieren der Naturvölker, wo das kontinuierliche Klangereignis die einzige Richtgröße und die mündliche Überlieferung die einzige Tradierungsform darstellt, entstand im Lauf der abendländischen Musiküberlieferung eine "digitale" Denktradition, die ihren Höhepunkt im ausgehenden 19. und 20. Jahrhundert erreicht. Hier werden weite Teile von Musikpädagogik und Musikpraxis bestimmt von den Kriterien "falsch" - "richtig", "0" und "1": Folge der Rasterung in Tonhöhe und Zeit, dargestellt durch Punkte oder "Nicht-Punkte" in der Partitur. Doch inwiefern wird diese Rasterung der zu überliefernden musikalischen Information gerecht? Welche Reduktion geht damit einher? Erleidet das Musizieren Einbußen durch diese Reduktion? Die neuen Techniken der elektronischen Klangverarbeitung, etwa durch Sampling, verfeinern diesen Prozess durch immer kleinere Rasterung und scheinen ihn damit zu konterkarieren. Führt also die elektrische Digitalisierung durch immer höhere Rechenleistungen zu einer Rückgewinnung verlorengegangener Zwischenräume und damit zu einer dem Menschen "gemäßeren", also "analogeren" Musikkultur?

Vita:
Heiner Klug, Jahrgang 1962. Dipl.-Ing. Ton- und Bildtechnik (1990), Dipl.- Musiklehrer (1993), cand. phil., Promotion an der Robert-Schumann-Hochschule Düsseldorf über Medieneinflüsse auf die Musikkultur voraussichtlich 1999, unterrichtet seit 1994 an der Niederrheinischen Musikschule Duisburg und am Institut für Medienwissenschaft der Heinrich-Heine-Universität Düsseldorf.

back


Samstag, 12. Juni, 9.15

Prof. Dr. Bernd Enders (Universität Osnabrück)

Die Musikbibliothek im Internet - Multimedia-Publishing Online

Abstract:
Die neuen Informations- und Kommunikationstechnologien erlauben den weltweiten Austausch von digitalisierten Informationen, zuallererst von Textdaten, in zunehmendem Maße aber auch von Graphiken, Animationen, Videosequenzen sowie akustischen Informationen wie Musik und Sounds. Multimedia und Internet eröffnen einen qualitativen Sprung der Erstellung, Archivierung, Recherche und Verteilung von musikspezifischen Publikationen wie z.B. in der Musikwissenschaft.
Anders als beim gedruckten Buch können Texte über Musik mit Sound-, MIDI- und Videobeispielen verbunden und mit Hilfe von geeigneten Serversystemen theoretisch jederzeit und überall in der Welt eingesehen werden. Der Vortrag berichtet von Möglichkeiten, Problemen und Lösungen, die bei der exemplarischen Erprobung netzbasierter Strategien der Präsentation und Distribution von musikalischen Informationen an der Universität Osnabrück gewonnen wurden.

Vita:
Enders, Bernd, Prof. Dr. phil. habil., geb. 1947, Studium an der PH Westfalen-Lippe, Abt. Siegerland, und an der Musikhochschule Köln, 1980 Promotion an der Universität zu Köln in Musikwissenschaft, Philosophie und Pädagogik, Schuldienst als Studienrat. Seit 1981 Dozent (ARat, AOR, PD, Apl. Prof.) im Fachgebiet Musik / Musikwissenschaft an der Universität Osnabrück, Habilitation 1986. Von 1992 bis 1994 Prof. im Musikwissenschaftlichen Institut der Universität zu Köln (Musik im 20. Jahrhundert), seit 1994 Prof. für Systematische Musikwissenschaft an der Universität Osnabrück mit dem Schwerpunkt Musikelektronik / Musikalische Informatik.
Zahlreiche Veröffentlichungen (z.B. Lexikon Musikelektronik, Mainz 1985, 1987, Leipzig 1988, Mainz 1998), Vorträge im In- und Ausland sowie Rundfunksendungen zu pädagogischen und wissenschaftlichen Fragen der neuen Musiktechnologie. Leiter des CAMI-Projekts mit Entwicklung und Herausgabe des Lehrprogrammsystems Computerkolleg Musik; wissenschaftlicher Berater im Rahmen des vom nds. Kultusministeriums initiierten Modellversuchs Neue Technologien und Schule, Initiator und Programmdirektor der Osnabrücker Biennale KlangArt und Koordinator der darin eingebundenen KlangArt-Kongresse "Neue Musiktechnologie" seit 1991 bis 1997. Initiator und geschäftsführender Leiter der 1997 gegründeten Forschungsstelle Musik- u. Medientechnologie.

back


Samstag, 12. Juni, 10.15

Prof. Dr. Oliver Vornberger (Universität Osnabrück)

Multimedia im Internet

Abstract:
Das Internet hat sich zu einem weltumspannenden Kommunikationssystem entwickelt, welches für den Informations-Anbieter und den Informations-Suchenden gleichermaßen von Interesse ist. Der Vortrag streift kurz die historische Entwicklung des Internets mit seinen textbasierten Protokolle wie email, news und telnet. Danach werden moderne Konzepte zur Präsentation multimedialer Inhalte vorgestellt und anhand zahlreicher Beispiele demonstriert, wie der Informationsgehalt von Web-Seiten durch multimediale Komponenten wie Animation, Audio, Video und Virtual Reality verbessert werden kann.

Vita:
Oliver Vornberger, Prof. Dr. rer. nat, geboren 1951 in Essen/Ruhr, Studium der Informatik an der Universität Dortmund, 1980 Promotion an der Universität Paderborn, einjähriger Postdoc-Aufenthalt im Computer Science Department der University of California at Berkeley, USA, 1987 Habilitation in Informatik an der Universität Paderborn, seit 1988 Professor für Praktische Informatik an der Universität Osnabrück.

back


Samstag, 12. Juni, 10.15

M.A. Bernd Schabbing (Universität der Bundeswehr, Hamburg)

Musik goes digital. Chancen und Probleme der weltweiten Vermittlung digitalisierter Musik

Abstract:
Die Digitalisierung von Musik, Multimediapräsentationen und die Bereitstellung von Musik in Computernetzen wie z.B. dem Internet oder auf digitalen Speichermedien wie CD, CD-I, CD-ROM oder DVD bietet eine große Vielfalt der Präsentations- und Zugangswege zu Musik sowie deren Bearbeitung. Dabei sind die neuen Möglichkeiten für Komponisten, Musiker, Schallplattenfirmen und Musikhandel allgemein gleichfalls interessant, weil sich auch neue Wege im Bereich des Marketing und des Absatzes eröffnen. Zugleich stellen die mit den neuen Medien verbundenen einfachen Möglichkeiten der Bearbeitung sowie des Kopierens von Musikwerken auch neue Anforderungen an die weltweite Wahrung der Urheberrechte.
Der Vortrag skizziert die Möglichkeiten aber auch Probleme des digitalen Mediums und bietet Lösungen für die Länder- und Genregrenzen überschreitende Präsentation von Musik ohne Verletzung der Urheberrechte an.

Vita:
Bernd Schabbing wurde 1970 in Münster/Westfalen geboren. 1989-1995 Studium der historischen und systematischen Musikwissenschaft, Geschichte, Philosophie und Psychologie in Münster und Hamburg. Magisterexamen 1995. 1995-1998 Diplom- Aufbaustudium für Kulturmanagement an der HfM Hamburg. Diplomexamen 1998. Seit 1998 Doktorand am Musikwiss. Institut der Uni. Hamburg („Gustav Mahler als Dirigent“). Seit 1989 journalistische Tätigkeit für Tageszeitungen und Musikjournale, Veröffentlichungen zu neuen Musik- und Medientechnologien sowie Kongress- und Messeberichterstattung. Seit 1993 Mitarbeiter an der Universität der Bundeswehr Hamburg im Forschungsprojekt ,,Musik und Technik“. Seit 1995 Projektmanagement (Kongressorganisation, Druckschriften) und Berater von Institutionen in Kultur und Wissenschaft.

back


Samstag, 12. Juni, 11.30

Prof. Dr. Karl-Jürgen Kemmelmeyer (Musikhochschule Hannover)

Klangexperimente mit MIDI, Computer und Tonband. Didaktische Anregungen für den Musikunterricht

Abstract:
Die neuen technischen Möglichkeiten des Homerecording werden oft nur für die Produktion populärer Musikvorbilder genutzt. In meinen Seminaren und Arbeitsgruppen wurde versucht, die neue Technologie auch zum Verständis anderer Musikbereiche einzusetzen. Vorgestellt und kommentiert werden Ergebnisse, die u.a. Studierende des Studiengangs Schulmusik in Hannover gemeinsam erarbeiteten.
Inhalte: u.a. Cages präpariertes Klavier - nachgestellt mit MIDI und Sampling / Musik aus Glas - mit dem guten alten Tonbandgerät / Eine Fuge verstehen - analytische Instrumentation einer Bach-Fuge / Didaktische Interpretation einmal anders - Schuberts "Winterreise" als Hörspiel / Glassy Menuetto und Computer-Solfeggio / Klangwelten der 70er / Titelproduktion im Schulmusikstudium.

Vita:
Dr. Karl-Jürgen Kemmelmeyer ist Professor für Musikpädagogik an der Hochschule für Musik und Theater Hannover, Gründungsinitiator des Instituts für Musikpädagogische Forschung und Präsident des Landesmusikrates Niedersachsen - u.a. Mitarbeit am Aufbau des MIDI-Tonstudios der Hochschule sowie an der Einrichtung des Jazz/Rock/Pop-Studiengangs, Konzeption zur Förderung der Rockmusik in Niedersachsen (u.a. Bandstipendium), Lehrerfortbildung im Bereich Populärer Musik, Tonstudioarbeit und Rundfunktätigkeiten (NDR, ORF, Deutschland Radio) - zahlreiche Publikationen zur Musikdidaktik (u.a. Unterrichtswerk "Spielpläne", "Der Schlager", "Musik und Raum", Musik in der Sonderpädagogik), zur Musikpolitik und zur Musikwissenschaft.

back


Samstag, 12. Juni, 11.30

Joran Rudi (Norsk nettverk for Teknologi, Akustikk og Musikk, Oslo)

"DSP" - Sound Synthesis and Educational Aims

Abstract:
The paper will discuss a package with recently completed eduactional software tailored for teaching sound, sound processing and composition for students and pupils in the elementary school and up including junior college.
The background for the development of this idea will also be discussed, together with experiences from two completed and separate projects. In addition, there will be a short demo of the software itself.

Vita:
Jøran Rudi (*1954) was born in Oslo and began his career in music as a rock guitarist in the end of the 70's. His studies in music theory and composistion were conducted at New York University, and Rudi has since concentrated his work within the genre of computer music, where his list of works contain compositions for electroacoustic instruments or tape, as well as music for dance, film, multimedia and performance art. Most of his later works have been commissioned for festivals and other international events, and have been performed worldwide. Rudi is director of NoTAM (Norwegian network for Technology, Acoustics and Music).

back


Samstag, 12. Juni, 12.30

Reimer Flügel (Horneburg)

Der Computer als ständig verfügbares Arbeitsmittel im Musikunterricht

Abstract:
Bislang war der Zugang der SchülerInnen zur Musik wesentlich abhängig von der Fähigkeit des Lehrers, die "pädagogischen Unzulänglichkeiten" der nur isoliert voneinander bestehenden Medien zu überbrücken, um die musikalischen Strukturen der Lerninhalte für das Auge, das Ohr und das Spiel gleichermaßen erfahrbar zu machen. Diese Barrieren verschwinden mit dem Multimediacomputer immer mehr, so dass sich für den Musiklehrer völlig neue Dimensionen öffnen, Jugendlichen Spaß an musikalischem Tun im weitesten Sinne des Wortes zu vermitteln und zu ermöglichen. Hinzu kommt die Chance, Methoden zeitgenössischer Musikproduktionen nicht nur zu erfahren, sondern auch auszuprobieren. Die Möglichkeiten, die sich durch die ständige Verfügbarkeit eines Rechners im Musikraum ergeben, sollen anhand verschiedener Beispiele aufgezeigt werden.

Vita:
Flügel, Reimer, geb. 1950, Studium der Physik und Erziehungswissenschaft in Hamburg, seit 1977 Leiter der Hauptschule Horneburg-Niederelbe. Dort erteilt er Technik- und Musikunterricht als Autodidakt. 1985/86 Mitglied der Kommission des Nieders. Kultusministeriums "Neue Technologien und das Fach Musik", bis 1991 aktiv in der darauf aufbauenden Lehrerfortbildung des Landes Niedersachsen an der TU Braunschweig, seit 1991 Kontakte zur Firma Steinberg mit dem Ziel, pädagogische Wünsche in die Programmkonzeptionen einzubringen und den Kontakt zwischen Hersteller und Pädagogen zu fördern. Neben dieser Tätigkeit und der Enwicklung von Lehrmitteln für den Technikunterricht bleibt das Zentrum seiner Arbeit die (Haupt)Schule und der dortige Einsatz zeitgemäßer Medien im normalen Unterricht.

back


Samstag, 12. Juni, 14.15

Alex Merck (Redakteur der Fachzeitschrift für Studiotechnik ProductionPartner)

Einflüsse der Fortschritte in der Kommunikations- und Informationstechnologie auf die Lage der im Musikbereich tätigen Personen und Unternehmen

Abstract:
Nach einem historischen Überblick über die Entwicklung der Einkommensarten aus Musik geht es vor allem um die Themen:
1) Erhöhung der Produktivität durch neue Technologie
2) Einführung der privaten Kopiermöglichkeiten ab den 70ern, Weiterentwicklung und Folgen (CD-Recordables , MP-3)
3) Veränderung der Broadcast-Möglichkeiten - kurzfristige und langfristige Folgen.
Den Abschluss bildet eine Übersicht über die Folgen für die verschieden Berufsgruppen und Unternehmensbereiche - sowie die Lösungsansätze.

Vita:
Alex Merck hat Wirtschaft und Musik (Berklee College of Music, Boston) studiert und mehrere CDs als Künstler aufgenommen und produziert. Seit 1985 ist er als freier Journalist u.a. für "Production Partner", "MacUp" und "Keyboards" tätig und hat zwei Bücher beim GC Verlag veröffentlicht. Seit 1992 ist er Geschäftsführer einer Plattenfirma mit den Labels "Lipstick", "Jazzline", "Barracuda" und "Satori" und seit Anfang 1999 Mitglied im Ausschuss für neue Technologien des Bundesverbands der Phonographischen Wirtschaft. Als einer der ersten Musik-Geschäftsleute begann er bereits 1993 mit Promotionarbeit im Internet und betreibt seit 1994 diverse Websites, einschließlich des "MEBIS", einer Site mit wirtschaftlichen Informationen zur Musikbranche.

back


Samstag, 12. Juni, 14.15

cand. phil. Ludger Rehm (Universität Osnabrück)

Versuch über Musikpädagogik und computer-literacy

Abstract:
In den letzten zehn Jahren ist eine umfang- und perspektivenreiche Aufsatzliteratur zur Methodik des Computereinsatzes im Musikunterricht entstanden; auch die didaktische Diskussion konnte sich auf weiten Strecken nicht von den Vorgaben und Diktaten der neuen Technologien lösen und ist immer noch oft von einem medientheoretischen Defizit geprägt; der Bezug auf allgemeinpädagogische Theorie ist bislang nur am Rande zu beobachten. Der Vortrag nimmt diese Desiderate in den Blick und versucht, aus Sicht einer vor allem an Walter Benjamin und Marshall McLuhan orientierten Medientheorie einige Grundphänomene des Computerzeitalters zu beschreiben und anhand von Klafkis Allgemeinbildungskonzept zu befragen. Erste mögliche Bestimmungen, Antworten und Überlegungen werden musikpädagogisch transformiert und exemplarisch für die konkrete Unterrichtswirklichkeit erläutert.

Vita:
Ludger Rehm, geb. 1963 in Kleve/Ndrh., studierte Philosophie und Musikwissenschaft in Münster, abgeschlossenes Lehramtsstudium für die Fächer Musik und Deutsch in Osnabrück, anschließend Graduiertenstipendium und Referendariat, Mitarbeit an der Forschungsstelle Literatur der Frühen Neuzeit an der Universität Osnabrück, seit 1997 Musik- und Deutsch-Lehrer am Gymnasium Damme. Forschungsschwerpunkte und Veröffentlichungen zu Walter Benjamin, Medientheorie, Liedforschung (Schubert/Müller, Zelter/Goethe) und Musikpädagogik; derzeitige Arbeitsprojekte: ",Heliopolis‘ und Schuberts Arkadien", "Verstehen Neuer Musik im Computerzeitalter", "Walter Benjamins ,Einbahnstrasse´ - ein Emblembuch der Moderne".

back


Samstag, 12. Juni, 15.15

Eberhard Schöner (München)

Anima als Bindeglied zwischen Global Village und Global Brain

Abstract:
Begriffe wie Synchronicity oder Muga = Ekstase (Zen) erhalten in diesem neuen Medium eine große Bedeutung. Sinnlichkeit, Kontemplativität, Phänomenologie werden diesen neuen Weltinnenraum (Goethe) zur Bühne der Zukunft machen.

Vita:
Schoener, Eberhard, geb. 1939 in Stuttgart, Studium an der Musikakademie in Detmold (Violine, Chorleitung, Kammermusik, Oper), Erster Geiger an der Bayrischen Staatsoper, 1962 Gründung des Münchner Jugendsymphonieorchesters, 1966 Gründung und Leitung der Münchner Kammeroper, 1969 Gründung der Bavaria-Studios für elektronische Musik. Viele Kompositionsaufträge, z.B. von der Bundesregierung für die Expo in Osaka, Cross-Over-Konzerte, Opernprojekte und Multimedia-Projekte, u.a. mit Deep Purple ("Rock meest Classic"), The Police ("Video Magic"), Esther Ofarim, Klaus Nomi, Mike Oldfield, Helen Schneider, Gianna Nannini u.v.a., zahlreiche Filmmusiken (z.B. "Traumstadt" von Joh. Schaaf), Titelmusiken für Fernsehserien (z.B. "Derrik"), Schallplatten (z.B. "Flashback" 1878). Im Jahre 1985 erstes Satelliten-Live-Konzert mit zeitgleich spielenden, per Satellit miteinander kommunizierenden Künstlern in Japan und München, künstlerische Leitung der Musik-Festivals auf der Insel Elba seit 1987, diverse Preise und Auszeichnungen, 1995 Multimedia-CD-ROM "Cold Genius" nach der gleichnamigen Oper.

back


Samstag, 12. Juni, 14.15

Heino Klemenz (Arbeitskreis für Schulmusik)

Multimediale Technologie im Musikunterricht

Abstract:
Multimediafähige Computer haben schon seit einigen Jahren - spätestens seit der Markteinführung einer neuen Grafikkartengeneration mit Beschleunigerchips für die damit besser, schneller und rasanter ablaufenden Computerspiele - einen wichtigen Platz im Kinder- und Schülerzimmer eingenommen. Mit den schnelleren Rechnern sind gleichzeitig auch die Soundkarten mit guter Audioqualität keine Ausstattungs-Extras mehr, wie noch vor ein paar Jahren. Natürlich hinkt die Schule dieser Entwicklung meilenweit hinterher, und so kommt es inzwischen nicht selten vor, daß die Schüler - dank besserer Ausstattung zuhause - Forderungen an die Schule und natürlich auch an den Musikunterricht dahingehend stellen, doch einmal mit dem umzugehen, was inzwischen zu jeder Grundausstattung eines PC mit Soundkarte gehört, nämlich Sequenzer-, Soundbearbeitungs- und Studiosoftware. Spätestens als der erste Schüler einer 9. Klasse mit seiner selbstproduzierten Technoaufnahme auf einer selbstgebrannten CD in den Musikunterricht kam, um von mir - als seinem Musiklehrer - eine Meinung und Einschätzung zu hören, wurde mir klar, was ich zu tun hatte. Über meinen Stand der Dinge möchte ich auf diesem Kongreß berichten.

Vita:
Heino Klemenz ist Lehrer an einer Realschule, außerdem leitet er ein Fachseminar für Grund- und Hauptschullehrer am Ausbildungsseminar Stade. Er gibt seit einigen Jahren die Homepage des Arbeitskreises für Schulmusik (AfS) heraus und hat sich als Referent und Teilnehmer an diversen Fortbildungsveranstaltungen zum Bereich "Musik und Computer" beteiligt.

back


Samstag, 12. Juni, 16.30

Dr. John Palmer (University of Hertfordshire, London)

Which Global Music?

Abstract:
The end of the 20th century, and to a greater extent the end of the second Millennium, invite us to reflect upon the current cultural context and shed light on some possible artistic outcomes which may result from the increasing technological advancements in our society. The 'global village' hypothesis is a proposition denoting crucial cultural implications which need to be fundamentally questioned and critically investigated without delay. How is the relationship between the artist and the community to be managed within such a possible environment? How can the musical community organise itself in such a way as to embrace dissimilarity and variety and integrate them within a universal artistic idiom? Or is such a circumstance a real threat to those idiosyncratic diversities that have so far shaped and instigated the progress of music?

Vita:
Dr. John Palmer is a composer and performer, and since 1995 Senior Lecturer in Composition at the University of Hertfordshire, England, where he is also Director of Research and Postgraduate Studies. He was a Music Lecturer at Oxford University until 1995 and is also a guest lecturer in various universities and conservatories in the UK and Europe. As a pianist, he graduated from the Musikhochschule at Lucerne, Switzerland. He undertook postgraduate studies in composition at Trinity College of Music, London, and at City University, London, where he completed a PhD Doctorate in Composition. He also studied with Jonathan Harvey, Edison Denisov and Vinko Globokar. As a performer of acoustic and electroacoustic music, he is regularly active as a soloist and in various electroacoustic ensembles. His music has been performed and broadcast worldwide, awarded with several international prizes in London, Tokyo, Bourges, Klagenfurt and Lucerne, and released on CD by the Bourges prize-winners vol. 8 compilation, France, Sargasso Records UK, and the Russian Electroshock Records label. He is currently preparing a TV programme on his music for the Russian Television and working on several lectures, commissions and concerts in Europe and North America.

back


Samstag, 12. Juni, 16.30

Prof. John Fitch (Professor of Software Engineering Department of Mathematical Sciences, University of Bath)

Teaching Software Synthesis: From Hardware to Software Synthesis

Abstract:
The computational power of today's personal computers brings the most powerful signal processing and synthesis tools developed in the larger educational and research establishments into the home studio. Cost is no longer the issue. For less than $2000 you can have the equivalent of the IRCAM ISPW or a Next Running SynthBuilder on your battery powered PPC or PC Laptop. What is more, all the "essential" software tools and utilities can be had commercially at very low cost or are freely available over the Internet. Thus we are seeing that independent composers and freelance artists are seeking out this software, and this places demands on the designers for ease of use and general utility.
This paper concentrates on one of the remaining problems which limits the widespread use of the technology, and could still limit electro-acoustic music to a few enthusiasts or a few musicians with persistence, and that is the complexity in specifying every feature of a composition, and in particular describing the detailed timbral evolution of each note. With the recent publication of a detailed pedagogical book on Csound, the authors are concerned that the initial enthusiasm may die before the skills and excitement in crafting detailed musical sounds and moments are fully developed. Many of the students who arrive in synthesis classes have already been exposed to the sounds of the DJs, Collage Artists, Turntabelists, Remix Artists, Hip Hop and Ambient Scene, and come with expectations.
While not disparaging the necessity for skilled practitioners to learn these skills eventually, our experience in teaching young musicians have led us to provide a comprehensive set of synthesis models for the free Csound system, which can satisfy the immediate requirement for "cool presets", and at the same time have sufficient control for exploration and variation. Thus the student of software synthesis can start to experiment with timbre from a secure base but with a wide number of interesting possibilities. The catalog of "software synthesis presets" we have constructed include simple examples of the main synthesis techniques such as additive, subtractive, FM, waveshaping, and granular. These are extended with physical models and physically inspired models.
When designing a set of models particularly focused on pedagogy, one is faced with the question of how much control to allow. While personally having the belief that more control is better, we have still managed to design opcodes with recommended ranges of use and while maintaining the Csound programming model resort to tables and function generators where they are appropriate. Thus we believe that we have constructed a set of sounds which are useful for educational purposes, and will allow a student to compose and investigate the electronic medium and yet require but a minimum of technical or mathematical background. The goal being that these sounds and models can form the core of the student's first steps to finding their individual "soft-voice." The wide availability of hardware keyboard synthesisers has required us to build a bridge from the inflexible controls they provide; a bridge which leads smoothly to the advanced techniques, and which allows students to stop when they reach their personal goal.
As part of this technology we also have packaged the system so distribution of sounds via the World-wide Web is made easier, and this is demonstrated also in CD-ROM technology, using a single file format rather than the usual orchestra/score dichotomy. This simple modification to the standard Csound software opens up many possibilities for wider distribution of creative art works.
Longer term research aims are to assist in the phrasing and ensemble of electro-acoustic works, and these will be mentioned.
The full paper will describe the catalog of software synthesis models in detail, presents some experience of their use in teaching, and showcase our effort to bring the power of software synthesis to the hardware-based sound designer and professional music synthesist of today.

Vita:
John Peter Fitch, Professor of Software Engineering, University of Bath. After postdoctoral research at The Computer Laboratory, Cambridge (1971-1977) and a short time at the Department of Computer Science, University of Utah and at the Department of Computer Studies, University of Leeds, he was appointed at the age of 35 to the joint position of Director, The Computer Unit and Professor of Software Engineering at the University of Bath. After 5 years the Directorship was relinquished and he has been a full-time professor since. He is also Managing Director of Codemist Ltd, a symbolic computation and compiler company.

back


Samstag, 12. Juni, 16.30

Nye Parry, PhD Student (City University & Guildhall School of Music and Drama, London)

Living Steam: The relocation of concrete music in the environment

Abstract:
Using the example of a recent multi-channel sound installation at the Kew Bridge Steam Museum, the lecture will discuss some of the implications, for both composer and listener, of returning processed real-world sounds (in this case steam pumping engines) to their original environment. These include a heightened awareness of source and re - contextualisation of "live" environmental sounds sharing the same acoustic space.

Vita:
Nye Parry works as an electro-acoustic composer whose recent work encompasses sound installation (Living Steam (see above), Boomtown-multi speaker installation, Oldham Art Gallery), contemporary dance scores (for Yael Flexer, Colin Poole, Charles Linehan) and multi media as well concert works (The Seasons, Grand Junction). His work has been broadcast and performed internationally. He teaches at the Guildhall School of Music and Drama and is completing his PhD at City University London.

back


Samstag, 12. Juni, 17.30
Papersession II

cand. phil. Martin Gieseking (Universität Osnabrück)

Gestaltung notengraphischer Interaktionsschnittstellen für Musiklernprogramme

Abstract:
Autoren von Musiklernprogrammen stehen immer wieder vor dem Problem, Noten auf dem Bildschrim ausgeben zu müssen. Oft sind es nur ein paar Takte, die zum einen korrekt angeordnet und zum anderen sensitiv sein sollten. Nur wenn man die Musiksymbole z.B. mit der Maus anklicken kann, ist eine notengraphische Interaktion möglich. Welche Möglichkeiten und Probleme es gibt, über ein Notenmodul mit der Anwendung zu interagieren, soll in diesem Vortrag kurz dargestellt werden.

Vita:
Martin Gieseking, geb. 1970, begann sein Studium 1990 für das Lehramt an Gymnasien mit den Fächern Musik und Mathematik an der Universität Osnabrück, das er 1996 mit dem Ersten Staatsexamen abschloß. In seiner Examensarbeit thematisierte er die Konzeption und Implementation code-basierter Notengraphik für die er 1997 den Jonscher-Förderpreis erhielt. In seiner Dissertation, die mit einem Stipendium der Graduiertenförderung unterstützt wird, beschäftigt er sich ebenfalls mit der automatischen Generierung interaktiver Notengraphik. Martin Gieseking arbeitete darüber hinaus an der Entwicklung der Gehörbildungsprogramme des Computerkollegs Musik mit.

back


Samstag, 12. Juni, 17.30
Papersession II

cand. phil. Christian Spevak (University of Hertfordshire)

Computerbasierte Erkennung von Klangereignissen

Abstract:
Das hier vorgestellte Forschungsprojekt beschäftigt sich mit der Entwicklung eines Plug-ins für den Acousmographe, ein Programm zur graphischen Darstellung und Analyse von Klängen. Das Plug-in soll die Möglichkeit bieten, anhand eines ausgewählten Klangereignisses die gesamte Audiodatei nach klanglich ähnlichen Ereignissen zu durchsuchen. Ein erster Ansatz wird die Verwendung selbstorganisierender künstlicher neuronaler Netzwerke sein. Mögliche Anwendungsgebiete des Programms bestehen sowohl im wissenschaftlichen wie im pädagogischen Bereich.

Vita:
Christian Spevak, geboren 1973, studierte Musik und Physik an der Universität Osnabrück und schloss im Dezember 1998 mit dem Ersten Staatsexamen für das Lehramt an Gymnasien ab. Seine Examensarbeit befasste sich mit Stilanalytischen Untersuchungen zum künstlerischen Schaffen von Keith Jarrett. Im Januar dieses Jahres erhielt er ein dreijähriges Promotionsstipendium am Music Department der University of Hertfordshire, England, für die Weiterentwicklung des Acousmographe in Zusammenarbeit mit der INA-GRM (Institute National Audiovisuel - Groupe de Recherches Musicales) in Paris.

back


Samstag, 12. Juni, 17.30
Papersession II

cand. phil. Marco Maria (Humboldt-Universität, Berlin)

Unschärfetests bei Hybrid-Instrumenten

Abstract:
Für die Entwicklung eines Verständnisses von Musikforschung, bei welchem der erklingende Anteil von Musik gleichberechtigt neben strukturellen und historischen Gegenständen steht, wird die kritische Reflektion von Forschungsmethoden eine wichtige Voraussetzung bilden. Unter dem Aspekt der Interface-Problematik muß z.B. immer wieder neu untersucht werden, welche Auswirkung ein Setting, mit dem man gerade arbeitet, auf ein Ergebnis haben wird; ebenso ist zu hinterfragen, welchen Einfluss die Form der Darstellung von gewonnenen Ergebnissen auf einen Nachvollzug durch Dritte haben kann.
Eine musiktechnologische Möglichkeit, welche diesbezüglich heute zur Verfügung steht, sind hybride, über eine Datenverarbeitungsanlage ansteuerbare Klaviere und Flügel. Ihre Funktion als Bindeglied zwischen Computer und Tongenerator, traditionellem Musikinstrument und Netzwerkkommunikation macht sie als Werkzeug für künstlerische, pädagogische und wissenschaftliche Arbeit sehr attraktiv.
Leider reproduzieren aber solche Instrumente eingespielte oder editierte Musik oft ungenau, was in den letzten Jahren immer wieder zu Entäuschungen und zu einer Unsicherheit bezüglich ihrer generellen Eignung für anspruchsvolle Arbeit geführt hat.
Wie groß aber diese Unschärfen bei einem einzelnen Instrument oder bestimmten Modell wirklich sind, an welcher Stelle sie entstehen und ob sie sich korrigieren lassen, ist nicht immer leicht zu ermitteln.
Eine wichtige Frage wäre hier beispielsweise, ob ein Instrument zwar eingespielte Daten korrekt ein- und ausliest, bei der Reproduktion dann aber mechanisch versagt. Bei Arbeit mit editierter Musik wäre es wichtig zu erfahren, ob entstehende Unschärfen bei verschiedenen Reproduktionen desselben Stücks auf dem gleichen Instrument konstant bleiben.
Durch Audio/MIDI-Synchronaufnahmen und Re-recording läßt sich nun mit wenig Aufwand auf auditiv-visuelle Weise feststellen, ob für eine bestimmte Anwendung die Performance eines hybriden Instruments ausreichend ist oder nicht.
Gleichzeitig wird dadurch die Basis für eine Datenanalyse und die Weiterbearbeitung der Musik geschaffen.
Die anhand von Instrumenten des musikwissenschaftlichen Seminar der Humboldt-Universität zu Berlin und bei Yamaha-Europa/Rellingen gemachten Tests welche meiner Darlegung zu Grunde liegen, wurden mit einem Macintosh "PowerBook G3" und einer Probeversion der Software "ProTools®" von Digidesign durchgeführt.

Vita:
Marco Maria, ausgebildeter Klavierbauer, lebt und arbeitet als freiberuflicher Stimmer in Berlin. Dort absolvierte er an der Hochschule der Künste ein ein Rhythmik-Studium und schreibt zur Zeit an der Humboldt-Universität, unter Prof. Dr. Auhagen an einer Dissertation über methodologische Experimente im Bereich Musiktechnologie und Tanz.

back


Sonntag, 13. Juni, 10.00

Prof. Barry Truax (Simon Fraser University, Burnaby, BC Canada)

Soundscape Composition as Global Music

Abstract:
Soundscape composition, as initiated by the World Soundscape Project at Simon Fraser Univeristy, and soundscape documentation is being increasingly practiced worldwide. Today there are two striking manifestations of this work: the increasing globalization of the electroacoustic community, and the increasing sophistication of digital techniques applied to soundscape composition. This work will be illustrated with audio examples.

Vita:
Barry Truax is a Professor in both the School of Communication and the School for the Contemporary Arts at Simon Fraser University where he teaches courses in acoustic communication and electroacoustic music. He has worked with the World Soundscape Project, editing its Handbook for Acoustic Ecology, and has published a book Acoustic Communication dealing with all aspects of sound and technology. As a composer, Truax is best known for his electroacoustic and computer music, examples of which may be heard on the Cambridge Street Records label.

back


Sonntag, 13. Juni, 10.00

Dr. Thomas Noll / Dipl. Inf. Jörg Garbers (TU, Berlin)

Globale Musiktheorie

Abstract:
Um die Attribute "lokal" und "global" sinnstiftend auf Musiktheorie zu beziehen, kann man gleichermaßen drei Bereiche im Auge haben, die systematisch voneinander abhängen:
1.) musiktheoretische Texte oder allgemeiner: Zeichenkomplexe und ihre lokalen und globalen Aspekte,
2.) die globale Verwebung lokaler Wissenschaft im Sinne ihrer Institutionen und Kommunikationsformen und
3.) die "globale Mentalität" der Musiktheoretiker, die sich aus den individuellen, idiosynkratischen oder "lokalen" Begriffsauffassungen, Spezialkenntnissen, Denkweisen und Mnemotechniken konstituiert. Unsere Untersuchungen beschäftigen sich schwerpunktmäßig mit dem ersten Bereich unter Berücksichtigung wichtiger Konsequenzen für die beiden anderen. So erörtern wir mathematische, semiotische und informatische Fragen des kollektiven Editierens globaler musiktheoretischer Texte anhand konkreter Beispiele aus unserem Forschungsprojekt.

Vita:
Thomas Noll, geb. 1962, Studium der Mathematik in Jena (Diplom in Zahlentheorie), Aufbaustudien in Komposition/Tonsatz an der Musikhochschule Dresden und in Semiotik an der Technischen Universität Berlin, Dissertation zum Thema "Morphologische Grundlagen der abendländischen Harmonik" (1995), Seit 1998 Leiter der wissenschaftlichen Nachwuchsgruppe KIT-MaMuTh zur Mathematischen Musiktheorie an der TU Berlin.

Jörg Garbers, geb. 1969, Diplom-Informatiker, Studium an der FU Berlin, seit 1997 Wissenschaftlicher Mitarbeiter im Verbmobil-Projekt zum maschinellen Dolmetschen an der TU-Berlin, seit 1998 Mitarbeiter bei KIT-MaMuTh.

back


Sonntag, 13. Juni, 11.00

Dr. Karlheiz Essl (Studio for Advanced Music & Media Technology, Linz)

Komponieren im Cyberspace

Abstract:
Das Arbeitsfeld des Künstlers ist zu allen Zeiten von den jeweiligen gesellschaftlichen und technologischen Zustände bestimmt, die von den Künstlern wiederum mitgestaltet werden. Durch die rasante Entwicklung und die Verfügbarkeit neuer Technologien und Informationsstrukturen verändert sich auch der Schaffensbereich des Komponisten: ein Umbruch zeichnet sich ab. An Hand der eigenen kompositorischen Arbeit soll diese Veränderung an einigen konkreten Beispielen aufgezeigt werden. Sie beleuchten exemplarische Ausschnitte eines erweiterten Arbeitsfeldes, das sich vom vielbeschworenen "Elfenbeinturm" zu distanzieren versucht.
Durch die Dokumentation des jeweiligen Standes der künstlerischen Arbeit und der Reflexion darüber auf einer Website mutiert der hermetische Vorgang des Komponierens "in splendid isolation" zu einem transparenten Prozess, der für jeden einsichtig ist.
Neben geschlossene Werke (die als Partituren vorliegen) treten offene Prozesse und Versuchsanordnungen, in die andere Musiker und Komponisten interaktiv eingebunden werden. So wäre beispielsweise das "work-in-progress" Amazing Maze (1996 ff.) für Computer und Live-Musiker ohne das Internet undenkbar.
Der Cyberspace selbst wird zum Terrain einer sich neu herausbildenden Kunstform (webArt), die die technologischen, formalen und inhaltlichen Möglichkeiten (und Begrenzungen) des Webs in einer völlig neuartigen Weise mit Inhalten erfüllt, ohne die simple Übertragung eines alten Mediums in ein neues zu betreiben. In diesem Bereich verschwimmen auch die Grenzen zwischen den einzelnen Kunstformen. Darüber hinaus bietet sich hier die Zusammenarbeit mit KünstlerInnen aus anderen Sparten an, wie etwa in der multi-medialen Web-Installation MindShipMind (1996-98), die gemeinsam mit der kalifornischen Videokünstlerin Vibeke Sørensen entstand.
Neben Partituren, die traditionell über Verlage distribuiert werden, entwickeln sich neue Formen musikalischer Notationen, die auf die formalen Darstellungsmöglichkeiten von HTML-Browsern zugeschnitten sind und deshalb keines herkömmlichen Notenvertriebs bedürfen, wie Champ d'Action (1998) für computer-gesteuertes Ensemble.
Die Absicht, den geschlossenen Werken offene Prozesse entgegenzusetzen, findet seine adäquate Konkretisierung in einer völlig neuen Weise: das musikalische Werk existiert nicht mehr als interpretier- und reproduzierbare Notation, sondern einzig und allein als Software, wie es am Beispiel der unendlichen Lexikon-Sonate (1992 ff.) für computer-gesteuertes Klavier dargestellt wird.

Vita:
Karlheinz Essl was born 1960 in Vienna. Studies at the Wiener Musikhochschule: composition (Friedrich Cerha), electro-acoustic music (Dieter Kaufmann), double bass (Heinrich Schneikart). Studies at the University of Vienna: musicology (doctoral thesis on »Das Synthese-Denken bei Anton Webern«, Vienna 1989).
His work with computers and a prolonged occupation with the poetics of serial music are a formative influence in his compositional thinking. Besides writing instrumental music, K@rlheinz Essl also works in the field of electronic music, interactive realtime compositions and sound installations and as a performer and improviser.
»Composer in residence« at the Darmst Commission at IRCAM, Paris (1992-93). Portrait concerts at the Salzburg Festival 1997 (»Next Generation«). Teaches »Computer Aided Composition« at Studio for Advanced Music & Media Technology of the Bruckner-Conservatory in Linz.

back


Sonntag, 13. Juni, 11.00

Dr. Joachim Stange-Elbe (Universität Osnabrück)

Die analytische Interpretation – Thesen und Simulationen

Abstract:
Gemäß der adornoschen Forderung, daß einer Interpretation immer eine Analyse des Werkes voruaszugehen habe, werden bestimmte Interpretationsaspekte zu einigen Contrapuncten aus Bachs »Kunst der Fuge« vorgestellt, deren Gestaltung sich ausschließlich auf analytische Strukturen stützt.
Mit der Hilfe der modernen Computertechnologie eröffnet sich die Möglichkeit der Simulation einer rein analytischen Interpretation, die Darstellung eines musikalischen Werkes aus der Struktur des Notentextes.
Der Vortrag geht den Voraussetzungen der analytischen Kriterien nach und zeigt die Modellierung analytischer Strukturen, die durch gezielte interpretatorische Gestaltung ihren klanglichen Ausdruck erlangen. Hierbei wird der Frage nachgegangen, wo die Problematiken einer analytischen Interpretation liegen und wie deren künstlerisch-ästhetische Aussagen zu bewerten sind.

Vita:
Geboren 1956 in Baden-Baden. Studium der Musikwissenschaft, Germanistik und Philosophie an der Universität Freiburg. Promotion 1988 über »Die Bedeutung der elektroakustischen Medien für die Musik im 20. Jahrhundert«. Beschäftigung mit Elektronischer Musik, u.a. Gründung eines privaten Studios für Computermusik. Konzerte und Klanginstallationen in mehreren deutschen Städten, Teilnahme an verschiedenen Wettbewerben (u.a. 2. Preis beim 5. Wettbewerb für Synthesizer- und Computermusik der Neuen Akademie, Braunschweig 1994). Freie wissenschaftliche Tätigkeit am Institut für Musik und Akustik des »Zentrum für Kunst und Medientechnologie« (ZKM), Karlsruhe. Derzeit musikwissenschaftliche Habilitation an der Universität Osnabrück. Im Sommersemester 1999 Vertretung einer Professur für Ästhetik/Pädagogische Psychologie an der Musikhochschule Karlsruhe.

back


Sonntag, 13. Juni, 12.15 - 13.30

Podiumsdiskussion / Round Table

Global Village, Global Brain, Global Music

Prof. Dr. S. Emmerson, Prof. Dr. B. Enders, Prof. Dr. N. Knolle, Prof. Dr. G. Mazzola (Moderation), Dr. N. Schläbitz, A. Merck, Prof. T.A. Troge

Audiomitschnitt (mp3)

back