Alle Beiträge von cagentartist

'cagentArtist' ist ein Label für viele verschiedene Künstler, die auf unterschiedliche Weise Ideen aus dem Blog von cognitiveagent.org bearbeiten. Motto: die Wirklichkeit erschliesst sich nur im Experiment - sei erfinderisch - sei mutig - kommuniziere deine Erfahrungen - niemand ist wirklich alleine - wir sind Teil eines größeren Ganzen, das wir verstehen wollen

Sound Experiments von cagentARTIST

Letzter Eintrag: 30.Juli 2024

Es gibt eine Liste von vielen hundert Klangexperimenten aus der RUM-Zeit von cagentArtist (RUM := Radically Unplugged Music). Seit Entstehung dieser Liste ist viel Zeit vergangen. Seit kurzem gibt es neue Aktivitäten in Richtung Klangexperimente. Da ist noch vieles offen. Diese werden ab jetzt auf dieser Seite direkt kommentiert.

WALKING in the WILD (WitW)

Text ab 26.Jan 2024

Jeden Tage erscheinen viele, viele Tausend neue Songs/ Sounds …

Und es gibt schon viele Millionen.

Macht es da noch Sinn, irgendeinen neuen Sound zu versuchen?

Mathematisch allerdings … aber lassen wir das …

cagentArtist hat sich an den ‚Punkt Null‘ begeben.

Das Motto heißt: WALKING in the WILD. Ein Schlagzeug fängt an zu sprechen, irgendwelche Instrumente folgen, ohne Plan; gerade das ist der Plan.

Führt der ‚Plan der Planlosigkeit‘ in neue Bereiche der Klangwelt?

Warten wir mal ab.

Häuser werden wohl nicht gerade einstürzen … das ‚Unsagbare‘ aber hatte schon immer seinen Reiz.

Mathematisch … aber lassen wir das.

Klangbeispiele seit 26.Jan 24

Walking in the Wild 10 (30.Juli 2024)

Walking in the Wild (25.6.24)

Walking in the Wild (14.6.24)

Walking in the Wild (11.3.24)

Walking in the Wild 5 (6.3.24)

Walking in the Wild 4 (12.2.24)

Walking in the Wild 1

Walking in the Wild 2

Walking in the Wild 3

Erste Skizze zum ‚Philosophy in Concert (PhilInCon)‘ Konzept

Erste Skizze zum Aufführungskonzept von 'Philosophy in Concert' vom 11.Juli 2015
Erste Skizze zum Aufführungskonzept von ‚Philosophy in Concert‘ vom 11.Juli 2015

Erste Skizze zum ‚Philosophy in Concert (PhilInCon)‘ Konzept

Mit Blick auf den ersten Aufführungstermin am 1.Dezember 2015 (und natürlich den vorausgehenden Vorbereitungssitzungen) stellen sich viele konkrete Fragen, wie man die faszinierende Idee von ‚Philosophy in Concert‘ denn nun konkret fassen will.

EMERGING MIND und PHILOSOPHY IN CONCERT

Eine Vorgabe besteht darin, dass wir das Philosophy in Concert Konzept in enger Anbindung an das Emerging Mind Projekt des INM sehen. Dieses wiederum steht in vielfältiger Beziehung zum Philosophie- und Wissenschaftsblog www.cognitiveagent.org, hier insbesondere zu dem Buchprojekt Die andere Superintelligenz. Es geht um das epochale Thema, wie die Zukunft des Menschen im Angesicht der sich entwickelnden künstlichen Intelligenz aussehen wird: geht der Mensch unter oder deutet sich hier eine neuartige Synthese an, die den Menschen zwar nachhaltig verändern wird, aber zugleich seine Chancen auf ein Leben in der Zukunft erhöht? Letzteres würde voraussetzen, dass der Mensch überhaupt mal wieder anfängt ernsthaft über sich nachzudenken. So richtig hat er dies noch nie getan. Jetzt aber wird es langsam Zeit, will er sich nicht selbst abschaffen…

PHILOSOPHY IN CONCERT und cagentARTIST

Während das Philosophy in Concert Projekt von einer offenen interdisziplinären forschungsorientierten Arbeitsgruppe getragen wird, steht hinter dem Philosophy in Concert Konzept eine offene gemischte Künstlergruppe mit dem Label ‚cagentARTIST‘. Sie wird demnächst auch – analog zum Emerging Mind Projekt — ihre offizielle Basis im Institut für Neue Medien (INM) einrichten.

PHILOSOPHY IN CONCERT – PERFORMANCE Konzept

Philosophy in Concert ist ein Performance-Konzept, mittels dessen eine Künstlergruppe Ideen mit einem Publikum austauschen möchte.

RAUM

Der Raum ist als Raum dunkel und hat einen abgrenzbaren Aktionsbereich mit Soundanlage, Leinwand, Aktionsfläche. Alles Licht kommt über Lichtmanipulatoren.

SENSORIK

Alle Sound- und Lichtereignisse orientieren sich an den spezifischen Wahrnehmungsschwellen; dies ist der Bereich der größten Empindlichkeit.

ZEIT

Die Ereignisfolge ist unterteilt in eine ‚Einschwingphase‘, in eine ‚Präsentationsphase‘ und in eine ‚Diskursphase‘, eventuell gefolgt von einer ‚Ausklingphase‘.

In der Einschwingphase werden u.a. die optimalen Klangbereiche ermittelt.

In der Präsentationsphase werden zu einem Thema Bilder, Klänge, Texte und Aktionen eingespielt. Dies geschieht in fünf größeren Szenen, die insgesamt nicht länger als 45 Minuten dauern.

In der Diskursphase haben alle Teilnehmer zunächst die Gelegenheit, anhand von Beispielfragen ihre Eindrücke, Gedanken und Fragen zur Präsentation in kleinen Gruppen auszutauschen (10 – 20 Min). Es folgt dann eine offene Diskursphase zwischen allen und den Künstler-Philosophen (30 – 45 Min), die von einer dynamischen Gedankenskizze begleitet wird. Falls der Raum es zulässt, kann man die offizielle Diskussion dann in eine Jeder-spricht-mit-Jedem Phase übergehen lassen.

EREIGNISGRAMMATIK

1. Bezugspunkt ist ein dunkler stiller Raum.
2. Minimalistische Bild- und/oder Klangereignisse strukturieren den Raum und die Zeit.
3. Bild und Klang können ‚einzeln‘ auftreten, ohne Interaktion, oder gemeinsam, mit Interaktion.
4. Sprache ist immer gesprochene Sprache (oder gesungen).
5. Die Bilder sind entweder ’statisch‘ oder ‚veränderlich‘. Im letzteren Fall ‚unkoordinieret‘ mit dem Klang oder ‚koordiniert‘.
6. Menschliche Elemente kommen im Ereignisraum direkt vor wie auch der gesamte Raum und die gesamte Zeit als ein ‚zwischenmenschliches‘ Ereignis gesehen wird.

KÜNSTLER

Die Künstler-Philosophen ‚hinter‘ den Ereignissen sind sowohl Menschen wie auch intelligente Maschinen. Der Besucher ‚vor‘ den Ereignissen kann anhand der Ereignisse nicht so ohne weiteres erkennen, welcher Typ von Künstler gerade aktiv ist. Außerdem treten Menschen oft/ meistens symbiotisch mit den intelligenten Maschinen auf.

EXPERIMENTELLER RAHMEN

Die Idee ist, eine experimentelle Grundstruktur zu finden, die für die angezielte Kommunikation ‚optimal‘ ist.

SOUND OUTLET ’soundcloud.com‘

After finishing more than 500 Music experiments I started a small’sound outlet‘ on the platform ’soundcloud.com‘. This includes a short playlist1 from cagentArtist (https://soundcloud.com/cagentartist-1/sets/playlist1) and a second one (soundcloud.com/cagentartist/sets/playlist1).

This makes it even simpler for me to hear my own Music … :-)

Best regards

cagentArtist

MUSIK-EXPERIMENT NR.X.3

BEZIEHUNGEN ZWISCHEN KLANG UND BILD

ZIEL

In diesem Experiment soll erstmalig ein komplexes Esperiment beschrieben werden, das aus mehreren kleinen Experimenten besteht und bei dem die Beziehung zwischen Klang und Bild thematisiert wird.

ENTSTEHUNG

Ausgangspunkt für die Idee zu diesem Experiment waren drei isolierte, spontane Experimente mit Bildern und Klängen (erste Spuren finden sich auf der Seite Soundexperimente Phase 2 ganz unten bei den Nummern Nr.218-219).

Nach dem Herumprobieren mit einigen Bildverarbeitungsalgorithmen bei einer Bildfolge B1 mit einem komplexen Kriterium K(B1) hatte ich ausprobiert, was passiert, wenn man zwei zuvor erstellte Klangbilder S1 und S2 mit jeweiligen Kriterien K(S1) und K(S2) mit der Bildfolge B1 parallelisiert. ‚Intuitiv‘ fand ich, dass das Klangbild S2 ‚besser‘ zu B1 passt als das Klangbild S1.

Nach Fertigstellung eines einfachen experimentellen Videos V1(B1,S2) ‚entstand‘ der Eindruck, dass die ‚Passung‘ von B1 und S2 noch nicht ‚optimal‘ sei. ‚Intuitiv‘ gibt es den ‚Eindruck‘, dass man ausgehend von dem klanggebundenen Kriterium K(S2) eine ‚optimierte‘ Version von K(B1) benötigt, was zur ‚Konstruktion‘ einer neuen Bildfolge B2 anregt.

Es gibt also folgendes Gesamtszenario: Bezogen auf eine Population POP1 (aktuell Anz(POP1) = 1; wünschenswert ist Anz(POP1) > 1) gibt es ein ‚Urteil‘ darüber, ob ein Klangbild und eine Bildfolge ‚gut‘ passen oder ‚weniger gut‘, geschrieben P(K(B), K(S))=X mit X aus dem Intervall [0,1]. P()=0 soll heißen ‚passt gar nicht‘ und P()=1 soll heißen ‚passt optimal‘.

Die Besonderheit bei dieser Anordnung ist, dass das ‚Urteil‘ P()=X auf der Basis von subjektiven Einschätzungen ausgesprochen wird, deren innere Struktur und deren inneres Zustandekommen weitgehend ‚im Dunkeln‘ liegen, da sie nicht bewusst ablaufen. Dies bedeutet, dass man versucht das jeweilige Kriterium K einerseits anhand von ‚Materialeigenschaften‘ zu beschreiben – indiziert durch Km – und andererseits die ‚unsichtbaren‘ inneren Eigenschaften K über diese äußeren Eigenschaften zu indizieren.

Während man also bei einer Population POP mit Anz(POP)>1 meist eine Einigung über die Materialeigenschaften Km eines Kriteriums bekommen kann, ist dies bei den internen Eigenschaften eines Kriteriums K nicht ohne weiteres oder nur angenähert möglich. Dies verweist dann drauf, dass die ‚Innenwelt‘ eines Mitglieds P1 von POP ‚anders‘ ist als die Innenwelt eines anderen Mitglieds P2.

EXPERIMENT PLAN

Aus diesen ‚intuitiven‘ Vorversuchen hat sich nun folgender Plan für ein Experiment ergeben:

1. Vorstellen der Bildfolge B1 mit äußerem Kriterium Km(B1)
2. Vorstellen des Klangbildes S1 mit äußerem Kriterium Km(S1)
3. Vorstellen des Klangbildes S2 mit äußerem Kriterium Km(S2)
4. Vorstellen einer Kombination von B1 mit S1 in Form eines Videos V(B1, S1).
5. Zwischenauswertung Urteil P(K(B1), K(S1))=X
6. Vorstellen einer Kombination von B1 mit S2 in Form eines Videos V(B1, S2).
7. Zwischenauswertung Urteil P(K(B1), K(S2))=X
8. Versuch der Konstruktion einer neuen Bildfolge B2 mit äußerem Kriterium Km(B2)
9. Vorstellen einer Kombination von B2 mit S1 in Form eines Videos V(B2, S1).
10. Zwischenauswertung Urteil P(K(B2), K(S1))=X
11. Vorstellen einer Kombination von B2 mit S2 in Form eines Videos V(B2, S2)
12. Zwischenauswertung Urteil P(K(B2), K(S2))=X
13. Abschließende Diskussion zum Experiment X.3

BESUCH BEI PHONOPHON 10.Nov.2014– Hier trifft man die wahren Klangsucher …

Letzte Korrektur: 11.Nov.2014, 17:38h (Die Namen von Peter W. und Gero K. waren vertauscht)

Am Montagabend des 10.November 2014 hatte ich eine Sitzung im INM (Frankfurt); als die Sitzung endete begann eines der vielen Phonophon Konzerte (https://phonographie.org/?page_id=8). Nach langer Zeit bin ich wieder einmal hingegangen … und es war ein packendes Erlebnis. Laut Ankündigung 10.11.2014: Peter Wießenthaner/Gero Koenig (D) – Patrick Bessler (D) waren zu Gast .

Patrick Bessler bei Phonophon im INM 10Nov2014
Patrick Bessler bei Phonophon im INM 10Nov2014

Patrick Bessler (D) benutzte eine Loop-Schaltung, deren aktuelle Daten sich nicht nur überlagern ließen, sondern die man nachträglich auch abschnittsweise verändern konnte. Dadurch ergaben sich immer wieder neue, überraschende Klangstrukturen, in denen man die Ausgangssignale seiner E-Gitarre kaum noch wiedererkennen konnte. Auf Patrick Bessler (D) – Soundcloud (https://soundcloud.com/patrick-bessler) findet man viele Beispiele.

Georg Koenig beim Phonophon Konzert im INM am 10.November 2014
Peter Wiessenthaner beim Phonophon Konzert im INM am 10.November 2014

Peter Wiessenthaner (D) benutzte ein in Software realisiertes Array von 7 Filtergruppen, jede Gruppe jeweils 6 Filter, also insgesamt 42 Filter. Jede Gruppe wurde jeweils getrennt auf einem eigenen Audiokanal (also auch 7 Boxen) ausgegeben. Der Klang der 7 Boxen mischte sich dann im Raum. Zusätzlich schickte er die Audiosignale in ein Visualisierungsprogramm, das aus lauter gestreckten Ellipsen bestand, die ein – flickerfreies! – ‚Puzzle‘ auf einer Leinwand erzeugten (für Beispiele siehe die Seite (https://wiessenthaner.de). Dort auch weitere Infos.

Peter Wiessenthaner bei Phonophon im INM am 10.Nov.2014
Georg Koenig bei Phonophon im INM am 10.Nov.2014

Gero Koenig (D) beeindruckte mit einem selbstgebauten Instrument, das vom klassischen Piano inspiriert war, aber völlig anders klang und auch völlig anders gespielt wurde. Speziell für sein Instrument hatte er neuartige Saiten anfertigen lassen, die mittels Reibung zum Schwingen gebracht werden. Da gleichzeitig mehr als eine Saite angeregt werden kann ergeben sich vielstimmige Klänge, Akkorde. Der Klang ist eine Art Mischung aus Streichinstrument und Orgel; sehr eindrücklich. Mehr Beispiele und Informationen finden sich (https://chordeograph.de/video-mp3-fotos/).

NACHGEDANKEN
Als cagentArtist bin ich einerseits auch auf der Suche nach neuen Klängen, andererseits geht es aber auch um das gesellschaftliche Phänomen, dass der ‚Mainstream‘ die meisten Menschen alltäglich einer Art ‚Klang-Gehirnwäsche‘ unterzieht, nach der sie sowohl im Hören wie auch im eigenen Klang-Tun gewissermaßen amputiert sind. Sie sind darauf ‚abgerichtet‘, nur noch das zu hören, was sie immer hören, und sie sind ‚demotiviert‘, selber irgendwelche Klänge zu erzeugen, da sie niemals die professionellen Retortenklänge aus den allgemeinen Medien reproduzieren können. Die alltägliche Musikalität erscheint irgendwie ‚zurecht geschrumpft‘, ‚verstümmelt‘.
Um dieser massenhaften ‚Verkrüppelung‘ entgegen zu wirken, braucht es neue Aktivitäten, neue ‚Klang-Gegenstrategien‘, um die Menschen aus ihren ‚Hörkorsetts‘ zu befreien, sie zu befähigen, auch Klänge jenseits des ‚Mainstreams‘ wieder hören zu können.
Der Phonophon Verein mit seinen Phonophon Konzerten repräsentiert hier eine beeindruckende und ermutigende Initiative, die sich gegen diese Massen-Gehirnwäsche stemmt. Die Kreativität, die Originalität und auch das Engagement der hier auftretenden Klangkünstler, die primär eigentlich Klangsucher und Klangexperimentatoren sind, ist einfach wunderbar.

KOMPOSITION – GEDANKEN ZWISCHENDURCH

1. Während die Arbeit an der Komposition von Experiment Nr.X2 noch läuft, stellen sich viele Gedanken ein, die aus allen möglichen Kombinationen gespeist werden.

POTENTIELLE ZUHÖRER

2. Obgleich die Kompositonsarbeit nicht von einem bestimmten Zuhörer ausgeht, entsteht doch unwillkürliche immer wieder ein fiktiver Dialog zwischen einem möglichen Zuhörer und dem aktuellen Sound.

3. Für die überwältigende Menge der Menschen stellt experimentelle Musik keine wirkliche Option im Alltag dar.

4. Man hat sich zwar daran gewöhnt, dass durch die Fortentwicklung der Technik unvorstellbar kleine Dinge mittels Mikroskopen ’sichtbar‘ gemacht werden können, dass man elektromagnetische Wellen als Klang aus dem Radio hören kann, das alle möglichen Sensoren Vorgänge messen können, die vorher unbekannt waren, dass man aber mit dem Computer und geeigneten Zusatzgeräten nun kontrolliert Klänge erzeugen kann, die über die traditionellen Musikinstrumente und Stimmen hinausgehen, das erzeugt immer noch Erstaunen und vielfache Ablehnung.

5. Aber selbst mit Blick auf traditionelle Klangkörper wie einem Sinfonieorchester sind die meisten Zuhörer nicht bereit, alle Klangmuster zu hören, die solch ein Klangkörper hervorbringen kann. Für die meisten beschränkt sich ‚Musik‘ auf sehr wenige Muster; ein offener, neugieriger Umgang mit Klängen ist selten. Dies bleibt ‚Revoluzzern‘, ‚Oppositionellen‘, ‚Verrückten‘ und dergleichen überlassen, sich ‚anderen‘ Klängen auszusetzen.

NICHT MUSIK, SONDERN KLANG (SOUND)

6. Manchem hilft es vielleicht, im Kopf einen Schalter dadurch umzulegen, dass man von vornherein sagt, dass es nicht um ‚Musik wie früher‘ geht, vielleicht überhaupt nicht um ‚Musik‘, sondern einfach nur um ‚Klänge‘, um Wanderungen in neuen, unbekannten Klanglandschaften, um ‚Expeditionen‘, um ‚Experimente‘. Denn so, wie früher die Menschen hoffnungsvoll aufgebrochen sind, um neue Kontinente zu entdecken, so gibt es heute durch die neue Technologie des Computers völlig neue Klangräume zu entdecken, die es bis dato nicht gab; sie waren einfach nicht zugänglich. Ob manche dieser neuen Klangräume später einmal auch als ‚Musik‘ bezeichnet werden, sei hier dahin gestellt; ist eigentlich nicht wichtig.

EXPERIMENTIEREN MIT KLÄNGEN

7. Wenn man ein bekanntes Instrument nimmt und in ‚gewohnter‘ Weise darauf spielt, wird man Klänge hören, die man – mehr oder weniger – ‚kennt‘. Es gibt keine wirklich neuen Klänge. Und wenn man eine Kombination von Instrumenten nimmt – wie z.B. in einem großen Orchester –, dann kann ein Komponist sich ausdenken, was er will, er wird eingesperrt bleiben in den Vorgaben der vorhandenen Instrumente.

8. Dazu kommt, dass es zu jedem normalen Instrument auch einen Menschen geben muss, der in der Lage ist, das Instrument in einer bestimmten Weise zu spielen. Will man Klänge real ausprobieren, müssen alle diese ‚Instrumentalisten‘ zur Verfügung stehen und sie müssen die Anweisungen verstehen, was sie spielen sollen. Die übliche Notenschrift ist dazu zu grob, und neue Notationsweisen müssten erst mühsam eintrainiert werden. Dies alles macht ein flexibles, kreatives Erforschen von neuen Klangräumen mit realen Orchestern sehr schwer bis unmöglich; für ’normale‘ Menschen quasi unerreichbar.

9. Ganz anders ist die Lage, wenn man einen modernen Computer zur Verfügung hat (z.B. einen PC mit Windows7 (oder …)), und dazu eine Software (z.B. ‚live9‘ von ableton.com). In diesem Fall kann jedermann im Prinzip jeden denkbaren Klang erzeugen bzw. man kann beliebige Klänge aufnehmen oder direkt einspielen und diese aufgenommen Klänge dann beliebig verarbeiten.

10. Immer wieder hört man das Argument, ja, diese Klänge seien niemals genau die gleichen, wie wenn ein menschlicher Instrumentalist auf einem realen Instrument spielt. Ja, wenn es um die Frage geht, ob man mittels Computer ein reales Instrument ‚imitieren‘ will, aber dies wäre nur ein sehr spezieller Fall. Tatsächlich gibt es mit ‚Imitationen‘ realer Instrumente noch gewisse Grenzen. Das ist hier aber auch gar nicht der Punkt. Es geht nicht darum, etwas 100% zu imitieren, was es schon gibt, sondern es geht primär darum, etwas zu erforschen, was es ’noch nicht‘ gibt!!!!!! Dazu bietet die neue Technologie so viele schier unendlich viele Möglichkeiten, dass ein Menschenleben nicht ausreicht, um nur einen Bruchteil von diesen neuen Klängen zu erforschen.

11. Erschwerend kommt noch hinzu, dass die Menschen, die neue Klänge erzeugen können und es vielleicht sogar wollen, in der Regel so mit den gewohnten Klangmustern verwoben sind, dass Sie es oft gar nicht schaffen, neue Klänge zu erforschen. Wie soll man etas tun, was man gar nicht kennt?

12. Für jemanden, der sich normalerweise nicht mit Klangerzeugung beschäftigt, mag diese merkwürdig klingen: Wieso soll es so schwer sein, etwas ‚Neues‘ zu tun? Aber jeder, der es real versucht, stellt alsbald fest, ‚wirklich Neues‘ ist ‚hart‘. Man hat keine wirklichen Ansatzpunkte, und wie oft endet der Ausflug ‚ins Ungewisse‘ dort, wo man immer schon war, im allseits ‚Bekannten‘.

13. [Anmerkung: Ein ähnliches Problem haben wir z.B. auch bei der allgemeinen Programmierung von Computern. Obwohl man Computer so programmieren kann, dass sie Lernen, Gefühle haben, Entscheiden, usw. gibt es auf der ganzen Welt kaum Computer (gibt es überhaupt einen?), die dies können, weil die Menschen, die programmieren, nicht wissen, wie sie dies tun sollen. Die Möglichkeit zu ‚Neuem‘ ist das eine, diese Möglichkeiten konstruktiv nutzen zu können, ist etwas ganz anderes.]

WIRKLICH NEUES FINDEN

14. Moderne Computer mit der entsprechenden Hardware (und ‚Peripherie‘) bieten viele Möglichkeiten, den Raum des Bekannten in Richtung des noch Unbekannten zu verlassen.

15. Die wichtigste Möglichkeit besteht in der algorithmischen Transformation von Bekanntem. Man spielt ein Instrument wie gewohnt oder nimmt einen Klang aus der Umgebung auf und wendet darauf unterschiedliche Algorithmen an, die diesen Ausgangsklang verändern, transformieren. Schon hier gibt es unendliche Möglichkeiten neue Klänge zu finden, mit denen man weiter arbeiten kann.

16. …

MUSIK-EXPERIMENT NR.X.2

(Letzte Änderung 15.Sept.2014, 22:00h)

Es folgt hier Musikexperiment Nr.X2 entsprechend den Regeln, die in der Einleitung von Nr.X1 formuliert worden sind.

URAUFFÜHRUNG

Dieses Experiment geschieht mit Blick auf die Aufführung am Sa, 8.November 2014 im Rahmen der öffentlichen Veranstaltung Informatik und Gesellschaft an der Frankfurt University of Applied Sciences.

KOMPOSITIONSMOTIVE

Dieses Stück, gedacht als ‚Eingangsereignis‘, soll mindestens drei Leitideen berücksichtigen: (i) Es soll zeigen, wie die Soundproduktion durch den Computer radikal verändert worden ist. Von den vielen hier einschlägigen Aspekten soll besonders jener hervorgehoben werden, dass man mit einem Computer nicht nur bekannte Sounds rein elektronisch ‚imitieren‘, sondern auch Klänge ’neu generieren‘ kann. (ii) Es soll ein ‚hybrides‘ Ereignis sein, d.h. vorgefertigte softwaregestützte Klänge sollen mit einer Live-Performance eines Schlagzeugs mit realem Schlagzeuger verknüpft werden; und (iii) zusätzlich zum Sound wird es einen Bildkanal geben, über den Bilder (einschließlich Texte) eingespielt werden können.

MUSIKTHEORETISCH

Angeregt durch die Überlegungen aus dem Blogeintrag Musik Experimente Theorie: Rolle des Akteurs folgt dieses Experiment der Methode des ‚radically unplugged‘ Komponierens, bei dem sich die wesentlichen Strukturen indirekt, ‚bottom-up‘, ‚induktiv‘ aus den Experimenten mit den Teilkomponenten ergeben. Dies bedeutet, dass der RUM-Komponist den Klängen eine gewisse ‚Vorfahrt‘ einräumt, so dass die Klänge ihre ‚inneren Eigenarten‘ stärker einbringen können, als wenn der Komponist mit ‚vorgefassten‘ Meinungen/ Mustern/ Erwartungen Klänge entsprechend zu formieren sucht.
Live-Schlagzeug: Aktuell ist noch nicht ganz klar, wie das Schlagzeug mit einem realen Schlagzeuger am besten live eingeblendet werden kann. Folgende Varianten sind denkbar: (i) Normales Schlagzeug (mit Mikrophonen und entsprechender Schallumgebung) spielt live zum Sound (mit oder ohne vorausgehender Kenntnis des Sounds); (ii) das Schlagzeug ist ein elektronisches Schlagzeug, dessen Sound durch spezielle Soundprozessoren verfremdet werden kann; durch vorausgehende Tests werden spezielle Soundeffekte ermittelt, die für die Live-Performance bereitgestellt werden; das elektronische Schlagzeug wird dann Live gespielt, aber mit den zusätzlichen Sound-Effekten; (iii) … ? … Der Live-Charakter ist wichtig!

ERZEUGUNGSPROTOKOLL

(Achtung: Dieses Protokoll ist noch nicht vollständig, da Entwicklungsmodus. Vollständige Ausführung erst nach Abschluss)

PART I

X2 Partitur Part I - II
X2 Partitur Part I – II

1. Das Experiment startet mit Operator Om1 = GrandPianoEqualBrightSolo, indem eine spontane Tastenfolge auf einem E-Piano gespielt wird. Die Tastenanschläge werden als Midi-Signale zum Program ableton live9 gesendet und in Spur 1 aufgezeichnet.

Operator Om1 imitiert ein  bestimmtes Piano
Operator Om1 imitiert ein bestimmtes Piano

2. Ab Zeitpunkt 0:38 übernimmt ein digitales Cello die Piano-Signale und spielt sie parallel ab. Dies ist Operator Om2 = CelloSectionLegato , der auf das Signal K1=Om1(K0) angewendet wird. Es entsteht K2=(Om2(Om1(K0))).

Operator Om2 imitiert ein bestimmtes Cello. Übernimmt Eingangsklang von Om1
Operator Om2 imitiert ein bestimmtes Cello. Übernimmt Eingangsklang von Om1

3. Ab Zeitpunkt 1:12 wird Operator Om3 = M4L-FlyingWaves aktiv. Er verändert das Piano-Signal nach verschiedenen Mustern, z.T. zufällig.

Operator 'Flying Waves' von M4L übernimmt Ausgangssignal von Om1 und verändert es. Zusätzlich manuelle Impulse
Operator ‚Flying Waves‘ von M4L übernimmt Ausgangssignal von Om1 und verändert es. Zusätzlich manuelle Impulse

Zusammenschau von Part I von Experiment X2 aktuell
Zusammenschau von Part I von Experiment X2 aktuell

PART II

4. Bis 4:55 stoppen die bisherigen Operatoren und ein neuer Operator Om4 startet mit einem neuen Eingangssignal K0′. Om4 = DoubleBassSectionLegato. K1b=Om4(K0′)

Operator Om4 imitiert einen Streichbass. Hat einen neuen Eingangsklang
Operator Om4 imitiert einen Streichbass. Hat einen neuen Eingangsklang

5. Ab 5:36 beginnt Operator Om5=ConcertFluteSoloLegatoVibrato auch mit einem neuen Eingangssignal K0“. K1c=Om5(K0“)

Operator Om5 imitiert eine Konzertflöte mit einem eigenen Eingangssignal
Operator Om5 imitiert eine Konzertflöte mit einem eigenen Eingangssignal

6. Ab 5:36 beginn auch Operator Om6=ClarinetSectionLegatoVibrato, übernimmt das Eingangssignal vonK0“ von der Flöte. K2c=Om6(K1c)

Operator Om6 imitiert eine Klarinette, übernimmt Eingangsklang von Om5
Operator Om6 imitiert eine Klarinette, übernimmt Eingangsklang von Om5

7. Ab 6:00 beginnt Operator Om7=EssHaitchOneOhOne von M4L angewendet auf das Signal vom Doppelbass Om4, also Om7(K1b)=K2.

Operator Om7 ist ein digitaler Operator von M4L. Übernimmt Ausgangsklang von Om4 und verfremdet ihn
Operator Om7 ist ein digitaler Operator von M4L. Übernimmt Ausgangsklang von Om4 und verfremdet ihn

8. Ab 7:16 beginnt Om8=M4L-ReversalOfFortune angewendet auf die Flöte, also Om8(K1c)=K2cc.

Operator Om8 ist ein digitaler Effekt, der das Ausgangssignal von Om5 (Flöte) verwandelt in ein neues Ausgangssignal (ähnelt Glockenklängen)
Operator Om8 ist ein digitaler Effekt, der das Ausgangssignal von Om5 (Flöte) verwandelt in ein neues Ausgangssignal (ähnelt Glockenklängen)

Zusammenschau Part II

Zusammenschau von Part II von Experiment X2 bisher
Zusammenschau von Part II von Experiment X2 bisher

Zusammenschau Part I und II

Aktuelle Zusammenschau von Part I und II von Experiment X2
Aktuelle Zusammenschau von Part I und II von Experiment X2

PART III

X2 Partitur Part III - IV
X2 Partitur Part III – IV

9. Ab 9:00 beginnt Operator Om9 =Akustik-Mikrophon mit neuem Input K04 und liefert K1d

Operator Om9=AkustischerInputMikrophon mit neuem Input K04 und neuem Output K1d
Operator Om9=AkustischerInputMikrophon mit neuem Input K04 und neuem Output K1d

10. Ab 9:00 parallel zu Om10 Operator Om10=ElectricDistortion, bearbeitet K1d zu K2d.

Neuer Operator Om10=ElectricDistortion bearebeitet den VoiceInput zu K2d
Neuer Operator Om10=ElectricDistortion bearebeitet den VoiceInput zu K2d

11. Ab 9:20 Operator Om11=GrandPiano mit neuem Input K05, erzeugt K1e.

Operator Om11=GrandPiano2 hat neuen Input K05 und erzeugt neuen OOutput K1e
Operator Om11=GrandPiano2 hat neuen Input K05 und erzeugt neuen OOutput K1e

12. Ab 9:20 parallel Om12=Arpeggiator, angewendet auf Output K1e vom Om11-Piano, erzeugt K1f

Neuer Operator Om12=Arpeggiator  nimt Output K1e vom Om11-Piano, erzeugt K1f
Neuer Operator Om12=Arpeggiator nimt Output K1e vom Om11-Piano, erzeugt K1f

PART IV

13. Ab 11:16 Operator Om13=OlympusAmbiences mit neuem Input K06, erzeugt K1g

Neuer Operrator Om13=OlympusAmbiences mit neuem Input K06 und neuem Output K1g
Neuer Operrator Om13=OlympusAmbiences mit neuem Input K06 und neuem Output K1g

14. Ab 11:31 Opetator Om14=OlympusMenSustain mit neuem Input K07, erzeugt K1h

Neuer Operator Om14=OlympusMenSustain mit neuem Input K07 und neuem Output K1h
Neuer Operator Om14=OlympusMenSustain mit neuem Input K07 und neuem Output K1h

15. Ab 11:50 Operator Om15=OlympusWomenSustain mit neuem Input K08 erzeugt K1i

Neuer Operator Om15=OlympusWomenSustain mit neuem Input K08 und neuem Ouput K1i
Neuer Operator Om15=OlympusWomenSustain mit neuem Input K08 und neuem Ouput K1i

Das ergibt den neuen Teil X2-Part-IV

X2 Partz III isoliert
X2 Partz III isoliert

Insgesamt sieht X2 Part I – II – III – IV wie folgt aus:

X2 Part I - II - III
X2 Part I – II – III

PART V

X2 Partitur Part V
X2 Partitur Part V

16. Ab 13:22 Operator Om16=Gefilterter Klang von einem einlaufenden Zug; z.T. ausgeblendet (HANAU Hbf; Gleis 7, 1.Mai 2013, 13:21h)

Operator Om16 = Recording einlaufender Zug
Operator Om16 = Recording einlaufender Zug

17. Parallel OM17=Automatische Übersetzung des analogen Signals in eine Solo-Midispur; Wiedergabe als Posaunenklang

Operator Om17 = Solo-Midi-Transform mit Posaunen und Loop-Operatoren
Operator Om17 = Solo-Midi-Transform mit Posaunen und Loop-Operatoren

18. Parallel Om18=Automatische Übersetzung des analogen Signals in eine Polyphone-Midispur; Wiedergabe als Posaunenklang

Operator Om18= Poly-Midi-Transform mit Posaunen Operator
Operator Om18= Poly-Midi-Transform mit Posaunen Operator

19. Ab 14:50 Om17 Wiederholung
20. Parallel Om19=Im Output von Om18 wurden die meisten Pausen entfernt; zeitliche Komprimierung

Operator Om19=Zeitliche Komprimierung von Output von Om18
Operator Om19=Zeitliche Komprimierung von Output von Om18

PART VI

X2 Partitur Partz VI
X2 Partitur Partz VI

21. Ab 15:28 Om20=RecordingVoegelGarten1

Operator Om20= Tascan Recording von Voegeln im Garten
Operator Om20= Tascan Recording von Voegeln im Garten

22. Parallel Om20b=FilterFürVögel+GlueProzessor

Operator Om20b= Spezieller Filter für Outout Om20 mit Glue Prozessor
Operator Om20b= Spezieller Filter für Outout Om20 mit Glue Prozessor

23. Parallel Om20c=Om20-Versetzter Winkel (Pan)
24. Parallel Om21=SoloMidiTransform-Von-Om20-Output

Operator Om21=Solo-Midi-Transform-von Output Om20
Operator Om21=Solo-Midi-Transform-von Output Om20

25. Parallel Om21b=BrassOperator auf Om21-Output

Operator Om21 = Brass-Operator auf Output Om20 mit Zusatzeffekt
Operator Om21 = Brass-Operator auf Output Om20 mit Zusatzeffekt

26. Parallel Om22=PolyMidiTransform-Von-Om20-Output

Operator Om22= PolyMidiTransform von Output Om20
Operator Om22= PolyMidiTransform von Output Om20

27. Parallel Om22b=StringOperator-auf-Om22-Output

Operator Om22b= String-Operator auf Output Om22
Operator Om22b= String-Operator auf Output Om22

28. Parallel Om23=PolyMidiTransform-Von-Om20-Output

Operator Om23= Poly-Midi-Transform von Output Om20 (Vögel)
Operator Om23= Poly-Midi-Transform von Output Om20 (Vögel)

29. Parallel Om23b=WoodwindOperator-auf-Om23-Output

Operator Om23b=Woodwind Operator auf Output Om23
Operator Om23b=Woodwind Operator auf Output Om23

Übersicht über Teil IV von X2
Übersicht über Teil IV von X2

Übersicht über Teile III - IV von X2
Übersicht über Teile III – IV von X2

PART VII

X2 Partitur Part VII - Schluss
X2 Partitur Part VII – Schluss

30. Ab 17:36 Mikrophon 1 als Om24 nimmt neue Stimme auf. Parallel Mikrophon 2 als Om25 die gleiche Stimme, nur von anderen Positionen im realen Raum.

31. Parallel wird Ausgang von Om24 algorithmisch übersetzt durch Om26 in polyphone digitale Marker. Diese werden parallel mit Om27 dann als Bläserensemble interpretiert.

Operator Om27 interpretiert digitale Marken von Om24, übersetzt von Om26, als Bläser
Operator Om27 interpretiert digitale Marken von Om24, übersetzt von Om26, als Bläser

32. Parallel wird der Ausgang von Om25 algorithmisch übersetzt durch Om28 in melodische Midi Marken. In einer Kopie von Ausgang Om28 werden die melodischen Midi-Marken mit Om29=RubberHarp zusätzlich verarbeitet.

Operator Om28 übersetzt Ausgang von Om25 in melodische Midi Marken
Operator Om28 übersetzt Ausgang von Om25 in melodische Midi Marken

Operator Om29 übernimmt Midimarken von Om28 und interpretiert sie mittels Rubber-Harp Algorithmen
Operator Om29 übernimmt Midimarken von Om28 und interpretiert sie mittels Rubber-Harp Algorithmen

33. Zusätzlich wird noch Om30=rubberharp und Om31=brassensemble eingeführt, die eigenen Keyboardinput verarbeiten.

SCHLUSS

34. Ab 19:16 stoppen die Stimmen und man hört nur noch Om30 und Om31. Beide werden begleitet von Om14=Men und Om15=women

SCHLUSS

20:28

ÜBERBLICK PART VII UND SCHLUSS

Überblick Part VIII und Schluss
Überblick Part VIII und Schluss

(Eine Hörprobe des aktuellen Sounds gibt es HIER. (aktuell gesampelt mit 96Khz und 24Bit).