Korozja
Alicja Duzel-Bilińska i Grzegorz Biliński
„Korozja” jest artystycznym wystąpieniem z elementami happeningu i ma charakter wykładu. Tematem wiodącym jest korozja, jako proces będący formą rezonansu. Swoim wystąpieniem autorzy usiłują zwrócić uwagę na trzy zagadnienia:
1….,że zjawisko rezonansu nie dotyczy tylko zagadnień akustycznych, jak to się powszechnie uważa, lecz jest zjawiskiem ogólnym, obejmującym wszelki byt.
2….,że dla każdej cząstki istnieje we wszechświecie antycząstka o przeciwnym ładunku, a to oznacza, że każda teoria ma teorię przeciwstawną,
3….,że zjawisko rezonansu jest elementem architektury wszechświata.
W wystąpieniu biorą udział dwie osoby: kobieta i mężczyzna, które stoją na podeście, na tle dużego ekranu i odczytują dwie przeciwstawne mowy na ten sam temat, wzajemnie się przegadując, a chwilami przekrzykując. Na ekranie jest wyświetlany wirtualny model korodującego fragmentu materii wytworzonej w komputerze, stanowiący jedną z formuł rzeczywistości rozszerzonej. Materia ta, w trakcie wystąpienia, zmienia się pod wpływem procesu entropii, który na ekranie objawia się bardzo powolnym, prawie niezauważalnym zarastaniem jej rdzą.
Kobieta, głosem zdecydowanym, przechodzącym czasami w manifest, wygłasza na temat korozjii odczyt, zawierający opis tego zjawiska.
Mężczyzna natomiast, jakby w kontraście do jej głosu, wchodząc jej co chwilę w słowo, tonem spokojnym, niemal naukowym, odczytuje instrukcję stosowania środka antykorozyjnego Elastomal RD.
Mężczyzna:
Witamy Państwa,
Proszę zwrócić uwagę na ekran. W trakcie naszego wykładu będą na nim zachodziły procesy.
Kobieta:
Korozja to proces niszczenia materiałów zachodzący w wyniku reakcji chemicznej lub elektrochemicznej, przebiegających na granicy zetknięcia z otaczającym je środowiskiem.
Korozja jest pewnego rodzaju rezonansem. Cząsteczki przekazują impuls jedne drugim wywołując reakcję chemiczną.
Mężczyzna:
Elastomal RD – farba antykorozyjna. Instrukcja stosowania.
Poniższe informacje dotyczą aplikacji w +/-20 st. C. Dla innych temeratur proszę odnieść się do karty informacji technicznej.
- Przygotowanie powierzchni
Kobieta:
Terminem „korozja” określa się głównie niszczenie metali, ale może on być stosowany również w przypadku niszczenia innych materiałów, np.materiałów budowlanych czy tworzyw sztucznych.
Znane są różne formy korozji; za podstawę ich klasyfikacji przyjmuje się najczęściej 3 czynniki:
1. rodzaj środowiska
i tu rozróżnia się korozję „mokrą”
Mężczyzna:
Przygotowanie powierzchni. Podłoże musi być suche, wolne od luźnych elementów, kurzu i odtłuszczone. Zalecamy dokładnie wyczyścić powierzchnię.
- oczyścić mechanicznie (np. szczotką) powierzchnię ze wszelkiej luźnej korozji;
- oczyścić mechanicznie powierzchnię ze wszelkich lużnych powłok malarskich;
- zmyć ciepłą wodą z detergentem (np. płynem do mycia naczyń) celem pozbycia się tłuszczu;
- bardzo dokładnie i obficie spłukać wodą – aby pozbyć się resztek detergentu, rozpuszczalników oraz kurzu;
- pozwolić powierzchni wyschnąć;
Kobieta:
Rozróżnia się korozję „mokrą”, zachodzącą w cieczach lub w obecności wilgoci i korozję „suchą”, występującą na ogół w gazach, w wysokiej temperaturze;
2. Drugim czynnikiem klasyfikacjii korozjii jest mechanizm procesu
i tu rozróżnia się korozję elektrochemiczną, będącą wynikiem reakcji elektrochemicznej i korozję chemiczną, czyli niszczenie materiałów w następstwie reakcji chemicznych, występującą m.in. w suchych gazach (np. Korozja aluminium w obecności fluorowców), w cieczach nie będących elektrolitami (np. korozja aluminium w tetrachlorku węgla)
Mężczyzna:
Rdzy można pozbyć się poprzez bardzo dokładnie zmycie podłoża myjką ciśnieniową pod ciśnieniem min. 200 bar.
Jest to kluczowy proces dla przyczepności powłoki do podłoża oraz długotrwałej ochrony antykorozyjnej.
Kobieta:
3. I wreszcie trzecim czynnikiem jest wygląd skorodowanego metalu
Po wyglądzie skorodowanego metalu możemy rozpoznać korozję równomierną i korozję lokalną.
W elektrolitach ( a są nimi praktycznie wszystkie roztwory wodne) korozja zachodzi w wyniku reakcji elektrochemicznej, którym towarzyszy przepływ ładunków elektrycznych przez granicę faz metal-elektrolit. Przepływ ładunków elektrycznych jest rezultatem działania mikro- lub makro-ogniw galwanicznych
Mężczyzna:
2.Warunki aplikacji
W warunkach letnich ( temp. 20 st.C + wiatr) powłoka wysycha bardzo szybko – nawet w 1 godzinę. W warunkach jesiennych (temp. 8st.C + wysoka wilgotność)wysychanie może wydłużyć się do 24 godzin +.
Dokonywać aplikacji przy minimum 8 st.C
Kobieta:
Ogniwa galwaniczne tworzą się wskutek niejednorodności powierzchni metalu (np.niejednorodność składu chemicznego, defekty strukturalne) bądź niejednorodności występujących w elektrolicie (jak różnice w składzie elektrolitu, różne stężenia tlenu).
Mężczyzna:
- Nie nakładać jeśli występują lub mogą się pojawić opady deszczu lub w przypadku bardzo wysokiej wilgotności;
- Nie nakładać gdy w przeciągu 3-7 dni po aplikacji temperatura może spaść poniżej 0 st.C.;
- Aplikować przy temperaturze 3 stopni powyżej punktu rosy.
Kobieta:
Podczas korozji elektrochemicznej przebiegają jednocześnie 2 procesy elektrodowe:
proces anodowy, który polega na utlenieaniu metalu M do jonów Mn+ i ich przejściu do roztworu lub wytworzeniu trudno rozpuszczalnych produktów utlenienia (gł. tlenków, które są ostatecznymi produktami korozji)
proces katodowy polegający na pobieraniu uwolnionych elektronów przez depolaryzator, najczęściej przez tlen rozpuszczony w elektrolicie
Mężczyzna
- Nie zalecamy aplikacji wcześnie rano oraz wieczorem. Przy wieczornych aplikacjach może zdarzyć się, że powłoka spłynie
Kobieta:
Miejsca zachodzenia tych reakcji są nazwane odpowiednio lokalnymi anodami i katodami – tworzą one ogniwa korozyjne. Oba procesy przebiegają z jednakową szybkością, gdyż musi być zachowana elektroobojętność metalu.
Szybkość korozji elektrochemicznej, którą można wyrazić wartością wytworzonego prądu, zależy od potencjału E metalu
Mężczyzna:
- Starać się unikać malowania w pełnym słońcu. Maksymalna temperatura podłoża 55 st.C.
3.Nakładanie farby antykorozyjnej Elastometal
- Mieszanie i rozcieńczanie
-Produkt należy dobrze wymieszać przed użyciem;
-Farba jest wodorozcieńczalna. Nie rozcieńczać rozpuszczalnikami.
-Farba jest gotowa do użycia. W przypadku wysokich temperatur produkt można rozcieńczyć maks. do 3% wodą. Rozcieńczenie mocniejsze niż 3% osłabia właściwości antykorozyjne powłoki.
Kobieta:
W obszarze aktywnym prąd anodowy rośnie ze wzrostem potencjału wg równania Tafela, a przy wyższych potencjałach spada do małych wartości w wyniku pasywacji powierzchni metalu, spowodowanej wytworzeniem warstewki tlenkowej.
Mężczyzna:
- Zalecane grubości powłoki ect.
- Minimum zalecanym w przypadku aplikacji Elastometalu na skorodowaną powierzchnię jest 500gr/m2;
- Dla najlepszej ochrony antykorozyjnej należy nałożyć powłokę o grubości min. 350 mikronów tj. 800gr/m2;
Kobieta:
Warunki termodynamiczne występowania korozji, pasywacji i pełnej odporności obrazuje się na specjalnych wykresach, zw. wykresami lub diagramami Pourbaix przedstawiającymi, w jakich zakresach potencjałów i pH, substancje są względnie stabilne i mogą występować w układzie metal-woda.
Mężczyzna:
- W przypadku użycia Elastometalu jako powłoki uszczelniającej, zalecamy użycie siatki wzmacniającej i aplikację min. 1kg/m2;
- Powłokę o grubości 350 mikronów uzyskujemy z reguły przy trzykrotnym malowaniu pędzlem lub dwukrotnej aplikacji napędem hydrodynamicznym.
Kobieta:
Najbardziej powszechna jest korozja równomierna, jednak większe szkody mogą być spowodowane różnymi rodzajami korozji lokalnej. Są to : korozja galwaniczna, zachodząca w miejscu kontaktu różnych metali, korozja erozyjna, przebiegająca podczas mechanicznego ścierania, korozja szczelinowa, powstająca w wąskich przestrzeniach, w których roztwór(elektrolit) znajduje się w stanie zastoju, korozja wżerowa, zachodząca przeważnie w obecności chlorków na spasowanej powierzchni, korozja międzykrystaliczna, przebiegająca wzdłuż granic ziaren metalu, korozja naprężeniowa (korozyjne pękanie), występująca przy jednoczesnym działaniu mało agresywnego środowiska i naprężeń rozciągających, powodująca powstanie pęknięć między- lub śródkrystalicznych; z tej ostatniej wyodrębnia się korozję zmęczeniową, zachodzącą w obecności naprężeń zmiennych. Do procesów korozyjnych zalicza się także selektywne wytrawianie jednego składnika stopu (np. cynku ze stopów Cn-Zn), eksfoliację – korozję w warstwach pod powierzchnią metalu, gł.w stopach aluminium
Mężczyzna:
- Dla najlepszej ochrony antykorozyjnej w przypadku warstwy podkładowej zalecane jest zastosowanie ciemnych kolorów, np. czerwonego tlenkowego lub brązowego. Gruba warstwa nawierzchniowa z reguły w pełni pokrywa kolor warstwy podkładowej;
- Użycie dwóch różnych kolorów dla podkładu i nawierzchni pomaga zapewnić uzyskanie odpowiedniej łącznej grubości powłoki zabezpieczającej.
Kobieta:
Odrębnym rodzajem uszkodzeń jest korozja wodorowa, spowodowana wnikającym do metalu wodorem, co prowadzi do pogorszenia właściwości mechanicznej (tzw. kruchość wodorowa).
Korozji nie można wyeliminować , ale można ją znacznie ograniczyć.
Mężczyzna:
- Aplikacja – podkład (1 warstwa)
- Nakładać przy pomocy wałka, pędzla lub natrysku bezpowietrznego (dysa: 013-023);
- Z uwagi na dużą gęstość farby antykorozyjnej Elastometal, w przypadku aplikacji pędzlem lub wałkiem uzyskana powłoka może posiadać lekkie nierówności
Kobieta:
Do najważniejszych sposobów ochrony metali przed korozją należy nakładanie powłok ochronnych: organicznych ( farby i lakiery), metalowych, nieorganicznych (np.emalie) , konwersyjnych ( np. fosforanowe); platerowanie ( np. platerowanie blach ze stali węglowej stalą nierdzewną lub stopami aluminium); stosowanie inhibitorów, które hamują reakcje elektrochemiczne, lub wytwarzają filmy ochronne, np.tlenkowe
Mężczyzna:
Aplikacja – nawierzchnia (2 warstwy)
– Zalecane jest odczekanie 24 godzin pomiędzy aplikacją kolejnych powłok.
Wysychanie farby antykorozyjnej Elastometal zależy od temperatury, wilgotności i wiatru. W warunkach szybkiego schnięcia jest możliwe nałożenie dwóch powłok w jeden dzień – po upływie min. 3 godz.;
Kobieta:
Ważnym sposobem jest ochrona elektrochemiczna, katodowa – przez polaryzację metalu do potencjałów mniejszych niż potencjał korozyjny E kor, lub anodowa – przez polaryzację do obszaru pasywnego; osiąga się je przez połączenie chronionego elementu z zewnętrznym źródłem prądu, a w celu ochrony katodowej, również przez połączenie z metalem mniej szlachetnym, który staje się anodą w utworzonym makroogniwie i sam ulega korozji (ochrona protektorowa).
Korozję można ograniczyć także przez: obniżenie agresywności środowiska, np. zmniejszenie stężenia agresywnych skłądników, lub depolaryzatorów katodowych (tlen, jony wodorowe), wybór materiału o lepszej odporności w danym środowisku, właściwe zaprojektowanie instalacji. Oprócz stosowania środków ochrony, ważnym działaniem przedłużającym czas bezpiecznej eksploatacji urządzeń są regularne pomiary korozji (tzw monitorowanie) i inspekcje.
Korozja wygrywa. Entropia jest nie do zatrzymania. Można ją jedynie opóźnić.
Mężczyzna:
Dodatkowe informacje znajdą Państwo w karcie informacji technicznej.
Polecamy Państwu środek antykorozyjny Elastometal – RD firmy Noxan.
Opis korozjii – za Wielką Encyklopedią PWN
Instrukcja stosowania środka antykorozyjnego Elastomal RD – wg opisu producenta
Diachronia mistycznych automatonów: krótkie spojrzenie na historię syntezatorów mowy
Barbara Bogunia
W prezentowanym referacie ukazane są główne etapy rozwoju sztucznej produkcji mowy traktowanej jako istotna część historii automatyzacji oraz ewolucji samodziałających urządzeń wykorzystywanych do celów artystycznych. Główny nacisk zostanie położony na pre-komputerowe urządzenia konstruowane od drugiej połowy XVIII wieku – czasu zwanego „złotym okresem automatonów” – naśladujące naturalne zjawisko rezonansu w ludzkim przewodzie wokalnym podczas artykulacji mowy takie jak rezonatory Christiana Kratzensteina , akustyczno-mechaniczne maszyny Wolfganga von Kempelena czy tajemnicza Euphonia Josepha Fabera (1846). Będące wynikiem dokładnych analiz językowych i starannego montażu były one udanymi i fascynującymi próbami mechanicznej rekonstrukcji głosu ludzkiego (także kobiecego!). Za sprawą wypowiadanych lub nawet śpiewanych przez nie dźwięków stanowią one antycypację nowoczesnego oprogramowania do syntezy mowy, od vocodera do wielu obecnych programów i aplikacji, takich jak np. NeoSpeech. Alternatywne urządzenia umożliwiające komunikację mają swoje korzenie w europejskich mitach i alchemicznych praktykach średniowiecza, które wraz z postępem technologicznym i zastosowaniem energii elektrycznej utorowały drogę XXI-wiecznej techgnosis i filozofii posthumanizmu.
Wielokrotne próżnie i cisze rezonujące nigdzie
Marek Chołoniewski
Próżnia akustyczna powstaje przez nakładanie warstwy ciszy i wysokich zmiennych częstostliwości na granicy słyszalności ucha ludzkiego. Istnieją przestrzenie gdzie rozchodzenia się fali dźwiękowej odbywa się w sposób znacznie różniący się od naturalnej sonosfery człowieka (m.in. głębiny oceaniczne, komora bezechowa). Penetracja tych obszarów staje się koniecznością i naturalną potrzebą nie tylko naukowców, lecz także współczesnego artysty, projektującego nie tylko narzędzia, ale także warunki, w których realizuje swoje działania artystyczne. Przesunięcie drgania materii w częstotliwościach pod i ponadakustycznych w rejony dostępne dla naszych zmysłów tworzy nowe formy percepcji otoczenia. Przestrzeń miejska posiada ogromny potencjał w tym zakresie. Rezonans pola elektromagnetycznego można doświadczyć słuchowo za pomocą specjalnie konstruowanych urządzeń (Kubisch, Noise Laptop Ensemble). Rozproszenie, a następnie pełna absorpcja fali dźwiękowej tworzy ciszę, która rezonuje nigdzie, która w stanie zaniku tworzy zjawisko próżni akustycznej, bezruchu, stłumienia i zatrzymania …
Quasi una tanpura
Krzysztof Gawlas
Rezonanse, burdony, nuty pedałowe, bywają często podstawą harmoniczną utworów w wielu gatunkach muzyki. Dają słuchaczowi swego rodzaju poczucie bezpieczeństwa i stanowią ramy brzmieniowe form muzycznych. W zachodniej muzyce artystycznej pojedyncze brzmieniowości poprzez swoją statyczną naturę nie są jednak w pełni wystarczającym materiałem dla kompozytorów. Na przykładach z własnych utworów przedstawię możliwości osiągnięcia wariatywności harmonicznej przy zastosowaniu stałego wzorca brzmieniowego, dzięki zorientowanym częstotliwościowo technikom przekształceń.
Elektronika w twórczości operowej młodych kompozytorów polskich. Studium trzech przypadków: Fedra Dobromiły Jaskot, Ophelia Prasquala i Solaris Karola Nepelskiego.
Maria Majewska, Akademia Muzyczna w Poznaniu
Dzięki licznym programom stypendialnym umożliwiającym studentom uczelni muzycznych staże w zagranicznych ośrodkach badawczych oraz prężnemu rozwojowi specjalistycznych pracowni muzyki elektronicznej w wielu miastach w Polsce, młodzi kompozytorzy coraz częściej sięgają po media elektroniczne. Rozwój nowych technologii znacznie wzbogacił paletę środków muzycznych, czego doskonałym przykładem jest współczesna twórczość operowa. Nowatorskie wykorzystanie elektroniki w operze związane jest nie tylko z przyjętą przez artystę koncepcją estetyczną, czy brzmieniową, ale również wynika z chęci wpisywania w dzieło nowych znaczeń i treści. Wpływa także na sposób odbioru i odczytu utworu. Efekt końcowy najczęściej jest niepowtarzalny i zależy za każdym razem od intencji i pomysłowości twórcy. W operze Fedra Jaskot elektronika służy dookreśleniu charakteru i uwypukleniu osobowości tytułowej bohaterki. W Ophelii Prasquala pełni funkcję kompozycyjną, tworzy skrajne Uwerturę i Fermaturę, jak również interludia pomiędzy kolejnymi scenami. W Solaris Nepelskiego technologia elektronicznego przetwarzania głosu generuje „śpiew”. Ze względu na niejednoznaczność, a niekiedy całkowity brak zapisu warstwy elektronicznej w partyturach podstawą do analiz tych utworów były ich nagrania audiowizualne oraz komentarze i wypowiedzi samych twórców.
Maria Majewska —Ukończyła studia na Akademii Muzycznej im. I. J. Paderewskiego w Poznaniu (dyplom z teorii muzyki, specjalizacja: Zarządzanie instytucjami kultury). Studiowała także na kierunku muzykologia na Uniwersytecie im. Adama Mickiewicza w Poznaniu (specjalizacja operologiczna). Od 2009 roku jest zatrudniona na stanowisku asystenta w Zakładzie Teorii Muzyki w Akademii Muzycznej w Poznaniu, gdzie prowadzi działalność dydaktyczną i naukową. Jest poznańskim koordynatorem projektu artystyczno- naukowego Laboratorium Myśli Muzycznej. W kręgu jej zainteresowań znajdują się badania nad operą (szczególnie polską operą współczesną) oraz antropologia muzyczna. Jako krytyk muzyczny współpracuje z pismami „Dwutygodnik”, „Ruch Muzyczny” oraz portalem „Meakultura”.
Muzyka i technologia – wyścig bez końca?
Dariusz Mazurowski
Wstęp
Od wieków sztuka, a w szczególności muzyka była blisko związana z technologią. Poziom zaawansowania instrumentów muzycznych był odzwierciedleniem stanu technologii w danych czasach – jako przykłady można podać choćby fortepian, czy organy piszczałkowe. Wejście w epokę przemysłową nie mogło pozostać bez wpływu na artystów – z jednej strony chcieli oni korzystać z najnowszych wynalazków, z drugiej otaczającą ich rzeczywistość uczynić tematem swoich prac. Te dwa wątki stały się niezwykle silne w XX wieku, czego wyrazem było powstanie nurtu futuryzmu, który w swej klasycznej postaci być może nie przyniósł arcydzieł muzycznych, ale okazał się ważny, bo niejako zapowiadał dalsze wydarzenia. Co dla nas jest dziś najistotniejsze, wiek XX miał także stać się stuleciem elektroniki.
Technologia – o krok przed muzyką
Na przestrzeni ostatnich stu lat rzeczą charakterystyczną dla wielu muzycznych wynalazków było to, że ich autorami nie byli sami muzycy, ale inżynierowie – tak było z pierwszym udokumentowanym i w pełni funkcjonalnym instrumentem elektronicznym – audion piano, skonstruowanym w 1915 przez Lee De Foresta. Pomijamy tu oczywiście jeszcze starsze aparaty elektromechaniczne, jak choćby telharmonium.
Fascynujące jest także to, że niejeden z tych wynalazków powstał przez przypadek, podczas prac nad zupełnie innymi rozwiązaniami. Dobrym przykładem jest Theremin, pierwszy instrument elektroniczny, który odniósł prawdziwy sukces i zapisał się w historii sztuki. Jego twórca, Leon Theremin (Lew Termen) pracował m. in. nad pomiarami gazowych dielektryków i w celu osiągnięcia pożądanej precyzji skonstruował oscylator. Następnie poszukiwał innych zastosowań – najpierw był to detektor ruchu, a następnie (w październiku 1920 roku) nowatorski instrument muzyczny, generujący dźwięk dzięki zjawisku heterodynowania (dudnienia).
Warto jednak wiedzieć, że Leon Theremin interesował się muzyką i w dzieciństwie grał na skrzypcach i wiolonczeli, posiadał zatem pewne przygotowanie w tym kierunku. W swoich późniejszych pracach penetrował różne dziedziny, ale największą sławę przyniosły mu wynalazki muzyczne. Jego dalsze losy są doskonale znane – będąc przede wszystkim konstruktorem, z powodzeniem rozpoczął karierę muzyczną, której apogeum przypadało na okres pobytu w USA (przerwany tajemniczym zniknięciem w 1938 roku i wymuszonym powrotem do Związku Radzieckiego). Leon Theremin jest dziś uważany za pierwszą prawdziwą gwiazdę prehistorycznej muzyki elektroakustycznej, choć jednocześnie powszechnie uważa się go za sowieckiego szpiega…
Warto zwrócić uwagę na to, jak współcześni przyjęli omawiany instrument – z zainteresowaniem i uwagą, co dotyczy zarówno środowiska muzycznego, jak i słuchaczy. Theremin pojawił się w dobrym momencie i został przyjęty na ogół bardzo pozytywnie, choć przede wszystkim dlatego, że był czymś absolutnie nowym i poniekąd egzotycznym. Nie tylko był elektroniczny, ale w dodatku grało się na nim bez dotykania czegokolwiek. Jak na ówczesne standardy odniósł spory sukces, przez pewien czas będąc nawet produktem komercyjnym (zainteresowanych nie odstraszała bardzo wysoka cena, 175 USD, bez lamp i głośnika), wytwarzanym przez RCA.
Theremin oferował raczej skromne możliwości, zwłaszcza brzmieniowe, co istotnie ograniczało jego zastosowanie. Mimo to wielu kompozytorów podjęło się napisania utworów na ten instrument, w przeważającej części występujący z towarzyszeniem zespołu, czy orkiestry. Okazało się jednak, że niewiele z nich zasługuje na miano arcydzieł (z nielicznymi wyjątkami, jak Ecuatorial Edgarda Varèse) i nie stanowiły przełomu w muzyce.
Sukces i popularność Thereminu utorowały drogę kolejnym konstrukcjom, z których najbardziej udane były fale Martenota i Trautonium. Pierwsza z nich zdobyła nawet Grand Prix na Wystawie Światowej w Paryżu (1937). I jeszcze przed wojną została wykorzystana w wielu kompozycjach, m. in. Oliviera Messiaena, Arthura Honeggera, czy Dariusa Milhauda. Także Trautonium zaistniało w dziełach Paula Hindemitha, czy Haralda Genzmera. Jednak wiele innych urządzeń nie odegrało w dziejach muzyki praktycznie żadnej roli, choć nie brakowało wśród nich bardzo jak na owe czasy nowoczesnych i ciekawie rozwiązanych. Na szczególną wzmiankę zasługują prace Jörga Magera : Elektrophon, Kurbelsphäraphon, czy też Partiturophon. Co więcej – z pomocą władz Darmstadt konstruktor stworzył w 1929 roku własne laboratorium, Studiengesellschaft für Elektro Akustische Musik, które możemy dziś uważać za pierwsze tego typu studio.
Podobne prace prowadzono na początku lat 30-tych w Instytucie Heinricha Hertza (Heinrich-Hertz-Institut für Schwingungsforschung), gdzie nawet powstał specjalny zespół muzyki elektroakustycznej, z udziałem Oskara Sali i Bruno Helbergera (konstruktorem Hellertionu). Dla wspomnianego instytutu pracowało zresztą kilku zasłużonych dla rozwoju muzyki inżynierów, jak choćby Harald Bode i Oskar Vierling. Niemcy w tym okresie stały się jednym z centrów nowej muzyki, także elektroakustycznej. Niestety – po 1933 roku, z powodów politycznych, sytuacja sztuki awangardowej uległa wyraźnemu pogorszeniu.
Warto zauważyć, że terminy „muzyka elektroakustyczna”, czy „syntetyczna” pojawiły się znacznie wcześniej niż można sądzić – już w styczniu 1930 roku lokalna gazeta z Pittsburgha opublikowała artykuł o krótkim koncercie, jaki miał miejsce w laboratoriach Westinghouse Electric and Manufacturing Company. Muzyk Carnegie Hall, Charles Heinroth, zagrał na prototypowych organach elektronicznych, konstrukcji R. C. Hitchcocka. Aczkolwiek sam repertuar był raczej konwencjonalny, ciekawy był sposób, w jaki dziennikarze opisywali sam dźwięk : „zamieniający pisk oscylujących lamp w słodką muzykę”. Określoną jako syntetyczną. Podkreślam – podobnie jak w przypadku Thereminu, ciekawszy dla publiczności był sam dźwięk, nowa technologia, niż sama muzyka.
Kilka miesięcy później prawykonanie 7 Triostücke na Trautonium, autorstwa Paula Hindemitha (20 czerwca 1930 roku, w sali Berlińskiego Konserwatorium) odbywało się pod hasłem „muzyka elektroakustyczna” (elektro-akustische musik).
Zatem już w latach 20-tych i 30-tych istniały instrumenty elektroniczne, stosowna terminologia, a kompozytorzy pisali utwory wykorzystujące nowe wynalazki. Czy zatem już wówczas powstał nowy gatunek ? Raczej nie. Zdecydowana większość dzieł okresu międzywojennego, pisanych wyłącznie na instrumenty elektroniczne (Hindemith, Messiaen), czy też z udziałem klasycznych instrumentów, albo orkiestry – była raczej dość konwencjonalna, nie odbiegająca od obowiązujących kanonów. Narzędzia elektroniczne po prostu zastępowały instrumenty – np. partie Thereminu upodabniano do skrzypiec, Trautonium niekiedy przypominało instrumenty dęte itd. Nie tylko ówczesnej publiczności trudno było zaakceptować zupełnie nowe formy, ale także sami kompozytorzy i muzycy nie potrafili się wyzwolić od wielowiekowych przyzwyczajeń i tradycyjnego podejścia. Pisali na instrumenty elektroniczne w taki sam sposób jak na akustyczne. Jedynie samo brzmienie było nieco inne, nowe (choć i tu doszukiwano się związków z czymś znanym), ale nie muzyka. Oczywiście faktyczny potencjał tych wczesnych konstrukcji nie był zbyt imponujący, a wiele z nich powstało by grać raczej konwencjonalne partie, co dotyczy nawet tak zaawansowanych i fascynujących urządzeń jak Hammond Novachord.
Nowa technologia stawiała w trudnym położeniu także odbiorców i krytyków, nie potrafiących we właściwy sposób opisać nowych zjawisk. Słysząc po raz pierwszy elektroniczne dźwięki poszukiwali skojarzeń z tradycyjnymi, instrumentalnymi, co zresztą łatwo dostrzec w licznych tekstach, które opublikowano w tym czasie. Na przykład Thereminu zwykle opisywano jako brzmiący w niższych rejestrach podobnie do wiolonczeli, środkowych do skrzypiec, a wysokich jak głos żeński.
Dlaczego, pomimo – jak się przynajmniej wydawało – istniejących już wcześniej sprzyjających okoliczności, muzyka elektroakustyczna zaistniała jako odrębny gatunek dopiero po wojnie ? Publiczność była już w stanie zaakceptować pewne nowości, także w sferze estetyki – jednak wciąż istniała wyraźna granica. Przekroczono ją dopiero w drugiej połowie lat 40-tych i dokonał tego Pierre Schaeffer, skądinąd także inżynier, który stał się kompozytorem. Muzyka okresu międzywojennego wciąż była wykonywana w czasie rzeczywistym, na instrumentach muzycznych – akustycznych, czy elektronicznych. Dla większości kompozytorów, nie mówiąc o publiczności, trudne było do zaakceptowania to, że muzykę można montować w studiu, za pomocą aparatury. Że może się ona obyć bez muzyków sensu stricte, wykonania itp. Przełamanie tej bariery było prawdopodobnie największym osiągnięciem Schaeffera.
Bez wątpienia możemy nazwać dwudziestolecie międzywojenne erą wczesnych instrumentów elektronicznych (a wymieniliśmy zaledwie kilka z nich). Jednak wtedy nie dane im było odegrać kluczowej roli w kształtowaniu nowej estetyki. Poniekąd zatem technologia nieco wyprzedziła sztukę, nie do końca potrafiącą wykorzystać jej możliwości. Jedynie kilku kompozytorów było w stanie przewidzieć przyszłość, jak Varèse (parokrotnie próbujący założyć stosowne studio), czy Carlos Chávez, autor Toward a New Music : Music and Electricity. Ta niezmiernie ciekawa książka ukazała się w 1937 roku i zawierała opisy zupełnie nowych mediów : elektrycznych instrumentów, fotografii dźwiękowej, fotografii elektrycznej (oryginalna terminologia autora). Mimo dobrego przyjęcia pracy, Chávez sam nigdy nie podjął praktycznych działań w tych kierunkach. Dla odmiany inna postać – która zdobyła sławę po wojnie – John Cage, już w późnych latach 30-tych rozpoczął eksperymenty, których efektem był m. in. utwór Imaginary Landscape No. 1.
Muzyka – znacznie wyprzedzająca swój czas
Nie ulega wątpliwości, że muzyka konkretna została wymyślona przez Pierre Schaeffera (i dalej rozwinięta we współpracy z Pierrem Henry) i jej premiera miała miejsce w 1948 roku, zaś kilka lat później w studiach Westdeutscher Rundfunk w Kolonii narodziła się muzyka elektroniczna. Ale możemy wskazać pojedyncze przykłady podobnych dzieł, które są jeszcze starsze, a przy tym tak bardzo wyprzedziły one swój czas, że nikt nie odważył się nazwać ich wówczas muzyką. Pierwszym z nich jest Wochenende (znany obecnie pod angielskim tytułem Weekend), autorstwa Walthera Ruttmanna, który premierę miał 30 maja 1930 roku w audycji Berliner Funkstunde. Początkowo określony przez twórcę jako „film bez obrazu”, dziś może być śmiało nazwany pierwszym utworem nowego gatunku, nazywanego „kino dla uszu”. Ten abstrakcyjny kolaż został zmontowany z różnych nagrań dokumentalnych i efektów dźwiękowych – jak gwizd lokomotywy, hałasy komunikacyjne, kroki itp. Te dźwiękowe próbki zostały nawet poddane pewnej obróbce, by uzyskać specyficzny efekt – np. odwrócone lub zwolnione. Ruttmann intuicyjnie sięgnął po te same środki co Schaeffer 18 lat później, choć – co zrozumiałe – jego narzędzia był proste i ograniczone, taki też okazał się rezultat – raczej trudny do zakwalifikowania jako arcydzieło.
Jak udało się osiągnąć taki efekt ? Odpowiednia technologia muzyczna nie istniała w 1930 roku, poza tym Ruttmann był filmowcem (choć posiadał pewne przygotowanie muzyczne) i musiał zaadaptować właśnie sprzęt filmowy – w szczególności zaś system Tri-ergon, opatentowany w 1919 roku przez trzech niemieckich inżynierów Josefa Engla, Hansa Vogta i Josepha Massolle. Oczywiście do zapisu wykorzystał optyczną ścieżkę dźwiękową taśmy filmowej – ciekawostką niech będzie specjalny mikrofon (Katodophon), całkowicie pozbawiony części ruchomych i będący elementem systemu Tri-ergon.
Rok wcześniej Ruttmann napisał swój manifest artystyczny, w którym zawarł słowa : „wszystko co słyszalne staje się materią”, co dziś brzmi jak credo muzyki konkretnej, formalnie niemal dwie dekady młodszej. Niestety niewiele wiemy o reakcjach publiczności na dzieło – Ruttmann zaprezentował swój kolaż na festiwalu filmowym w Brukseli, po czym kontynuował realizację normalnych filmów. Po wojnie Wochenende zaginął i został odnaleziony dopiero w 1978 roku.
Pozostańmy jednak w kręgu kina abstrakcyjnego, które w okresie międzywojennym stworzyło korzystne warunki także dla eksperymentów muzycznych. Co ciekawe, podejmowali je raczej filmowcy, niż kompozytorzy – choć trzeba przyznać, że przynajmniej część z nich miała jednak pewne przygotowanie w tym kierunku, jak wspomniany już Ruttmann, czy John Whitney. Dla lepszego zrozumienia tego fenomenu, powinniśmy zdać sobie sprawę, że wówczas to ścieżka optyczna filmu była najbardziej elastycznym medium do zapisu dźwięku. Urządzenia nagrywające na stalowy drut nie były zbytnio rozpowszechnione i wykorzystywano je jako dyktafony, względnie wyposażenie rozgłośni radiowych. Magnetofony po raz pierwszy zaprezentowano w 1935 roku (AEG) i przez długi czas były zastrzeżone do zastosowań wojskowych. Rozpowszechniły się dopiero pod koniec lat 40-tych. Tak więc jedynym konkurentem ścieżki optycznej filmu był nagrywający gramofon, zdecydowanie mniej uniwersalny. Taśmę filmową można ciąć, montować, odwracać jej kierunek, zmieniać prędkość odtwarzania itd. Te techniki były już od dawna stosowane przez filmowców, szczególnie z kręgu awangardy. I wkrótce wpadli oni na iście rewolucyjny pomysł, że to samo można zrobić nie tylko z obrazem, ale także dźwiękiem. Po raz pierwszy artyści zaczęli traktować dźwięk jako obraz, pracując z jego graficzną prezentacją – co dziś jest bardzo popularną techniką, wykorzystywaną we wszystkich programach typu Digital Audio Workstation.
W tamtym okresie ujawniły się dwa kierunki – pierwszy z nich wykorzystywał wstępnie nagrany materiał akustyczny do dalszego montażu. Prawdopodobnie najstarszym przykładem jest słuchowisko Hallo ! Hier Welle Erdball ! Fritza Waltera Bishoffa, zaprezentowane w lutym 1928 przez rozgłośnię Schesischen Funkstunde. Najbardziej znanym oczywiście Wochenende Ruttmanna.
Inny kierunek, jeszcze bardziej rewolucyjny, zakładał wykorzystanie tonów syntetyzowanych bezpośrednio na ścieżce optycznej. Idea była prosta – jeśli nagranie dźwięku jest w istocie grafiką, to można na taśmie po prostu narysować nowe i zupełnie nieznane struktury, by uzyskać nowe brzmienia. W latach 30-tych takie eksperymenty stały się stosunkowo popularne w Niemczech i Związku Radzieckim. Rudolf Pfenninger po raz pierwszy zaprezentował publicznie swój pomysł (Tönende Handschrift) wiosną 1931 roku. Technikę syntezy dźwięku oparł o ręcznie kreślone szablony określonych dźwięków, następnie naświetlanych na taśmie filmowej. Rok później zrealizował trzy filmy animowane – Barcarole, Pitsch und Patsch oraz Serenade – wszystkie z syntetyczną ścieżką dźwiękową. Warto odnotować reakcje publiczności i krytyków – niektórzy byli zachwyceni poziomem technicznym realizacji, inni jednak uznali dźwięk za zbyt chłodny i mechaniczny. Zwróćmy uwagę na te słowa, bowiem wczesna muzyka elektroniczna często będzie w ten sposób krytykowana, zwykle zresztą niesłusznie.
Oskar Fischinger, kolejna ważna postać kina, rozwinął cały system syntezy optycznej – Klangornamente. Jego podejście było jeszcze bardziej metodyczne niż Pfenningera. Jakkolwiek zrealizował szereg przykładów dźwiękowych, nigdy nie stworzył kompletnego utworu muzycznego – mimo to jego prace zasługują na szczególną wzmiankę. Na łamach Deutsche Allgemeine Zeitung, 8 lipca 1932 roku opublikował artykuł, w którym nakreślił jakże trafną wizję muzyki przyszłości, przewidując m. in. zapis wielośladowy : „Ścieżka dźwiękowa współczesnych filmów ma szerokość zaledwie 3 mm, ale artysta przyszłości będzie oczywiście wymagał pełnej szerokości taśmy, tylko na swoje kompozycje muzyczne. Będzie to kluczowe dla kompleksowej i szczególnej metody kompozycji, z abstrakcyjnymi efektami – wykorzystanie kilkunastu 3 mm ścieżek odtwarzanych równolegle z innymi. Każda ścieżka będzie reprodukować inny, ściśle zdefiniowany dźwięk i planując ich rozkład, kompozytor będzie mógł zaprojektować i zorganizować struktury falowe.”
W tym samym czasie liczni wynalazcy i twórcy ze Związku Radzieckiego, jak Arsenij Michajłowicz Awraamow, Jewgienij Aleksandrowicz Szołopo i inni, budowali urządzenia do optycznej syntezy dźwięku. Większość z nich wykorzystywała ręcznie kreślone, względnie drukowane szablony. Co więcej, skomponowano szereg ścieżek dźwiękowych do filmów, a także zrealizowano kilka transkrypcji klasycznego repertuaru (Chopin, List) – niektóre zachowały się do naszych czasów i są powszechnie znane. Jednak te realizacje nie przyczyniły się do zdefiniowania nowego gatunku, bowiem – pomijając nowe brzmienia – były dość konwencjonalne, w kwestii struktury, harmonii itd.
To samo można powiedzieć o dokonaniach najbardziej chyba znanego artysty, który konsekwentnie stosował optyczną syntezę aż do 1971 roku – kanadyjskiego filmowca szkockiego pochodzenia, Normana McLarena. Rozpoczął on takie eksperymenty w końcu lat 30-tych i rozwinął kilka różnych metod – tworzył muzykę rysując dźwięk bezpośrednio na taśmie, wydrapując zaczernioną ścieżkę optyczną, albo fotografując gotowe szablony z własnej, bardzo zresztą obszernej kolekcji. O ile jednak jego filmy były często abstrakcyjne (wiele wczesnych realizował bez kamery, malując bezpośrednio na taśmie), muzyka okazała się dość konserwatywna. Nawiasem mówiąc, o czym rzadko się wspomina, McLaren zrealizował także kilka autonomicznych utworów muzycznych. Co więcej – w ścieżkach dźwiękowych zdarzało mu się łączyć warstwę instrumentalną z tonami syntetycznymi – najbardziej udanym przykładem jest bodaj Blinkity Blank z 1955 roku, z utworem kameralnym Maurice Blackburna. Ciekawe, że McLaren używał standardowy sprzęt filmowy, przede wszystkim projektor montażowy Moviola, nigdy zresztą nie sięgnął po nowocześniejsze środki.
Jednak obok dość konserwatywnej muzyki syntetycznej, pojawił się jeden wyjątek, zapowiadający późniejszą estetykę. Dwaj wybitni amerykańscy animatorzy, bracia John i James Whitney zbudowali we wczesnych latach 40-tych serię maszyn bazujących na wahadle. Filmowali ruchy tych urządzeń na taśmie filmowej (dźwiękowej ścieżce optycznej), a następnie poddali obróbce (modyfikując prędkość odtwarzania, jasność, kontrast obrazu) i nałożyli kilka warstw na siebie. W ten sposób zrealizowali ścieżkę dźwiękową do swojego sławnego filmu Five Film Exercises (lata 1943 – 44). Warto zauważyć pewne pokrewieństwo stylistyczne i brzmieniowe (pomimo zupełnie innej technologii) z wczesnymi utworami elektronicznymi z Kolonii, których premiera miała miejsce przecież niemal dekadę później.
Po wojnie rozwój muzyki elektroakustycznej podążał innymi torami i klasyczną syntezę optyczną uważano za niezbyt wygodny i przestarzały sposób – używany przez nieliczne grono twórców, jak Daphne Oram, czy grono kompozytorów ze Związku Radzieckiego, korzystających z urządzenia o nazwie ANS (konstrukcji Jewgienija Murzina). Jednak idea graficznej prezentacji dźwięku jest obecnie powszechnie wykorzystywana, głównie dzięki zaawansowanemu oprogramowaniu – znacznie łatwiej pracuje się ze strukturami, które widać i słychać. Także optyczna synteza otrzymała drugie życie w postaci różnych aplikacji (samodzielnych, wtyczek) – potrafiących zamienić dowolny obraz w dźwięk i na odwrót. Większość z nich wykorzystuje różne odcienie szarości do modyfikacji amplitudy poszczególnych pasm szumu (im więcej tych pasm, tym lepsza rozdzielczość) w procesie syntezy addytywnej. Wizualizowany dźwięk można także obrabiać za pomocą narzędzi graficznych, jak każdą grafikę.
Z powodu braku odpowiedniej technologii, artyści okresu międzywojennego byli zmuszeni wykorzystywać inne narzędzia, w omówionych wypadkach filmowe. Wiele lat później – w epoce zaawansowanej technologii muzycznej – niektóre z tych technik powróciły w nowej postaci.
Muzyka i technologia – pełna symbioza
Kiedy Pierre Schaeffer rozpoczął swoje eksperymenty w Studio d’Essai (później Club
d’Essai), miał mnóstwo nowych, rewolucyjnych pomysłów w dziedzinie muzyki, czy sztuki radiowej. Jego idee były nowe, ale nie technologia. Nie dysponował magnetofonem i musiał korzystać z nagrywających gramofonów – niezbyt elastycznego medium, w dodatku oferującego stosunkowo słabą jakość. Technika ta znana była na długo przed Schaefferem i powszechnie stosowana w radiu (do efektów dźwiękowych, dokumentacji, bibliotek audio). W okresie międzywojennym na rynku były nawet modele konsumenckie i uzyskały one pewną popularność. Można jednak zapytać – dlaczego Schaeffer sięgnął po poniekąd przestarzała już technologię i dość niewygodne procedury ? Jako doświadczony inżynier radiowy zapewne znał wiele innych, ale najprawdopodobniej nie miał wyjścia i musiał użyć to, co akurat było dostępne. Warto przy tym zauważyć, ze gramofon oferował jedną, ale bardzo istotną funkcję – prawdopodobnie odkrytą przez przypadek – pozwalał na zamknięcie dźwięku w pętlę, co stało się bardzo popularnym środkiem wyrazu, chętnie stosowanym także dziś. Z czasem realizowanym za pomocą pętli taśmy magnetycznej, a obecnie cyfrowych próbek audio. Oczywiście pętle gramofonowe, winylowe wciąż są chętnie stosowane – nie tylko przez didżejów, ale także jako materiał audio w całkiem poważnych kompozycjach.
Jednak gramofon znacznie wcześniej zaistniał w utworach muzycznych, zarówno jako urządzenie odtwarzające (Pini di Roma, autorstwa Ottorino Respighi, 1924), jak i instrument (Stefan Wolpe, John Cage). We wczesnych latach 20-tych Darius Milhaud, a nieco później także László Moholy-Nagy, rozpoczęli eksperymenty z nagraniami wokalnymi i instrumentalnymi, przede wszystkim zmieniając prędkość odtwarzania. W 1930 roku, podczas Musikfest Neue Musik w Staatliche Hochschule für Musik w Berlinie, Paul Hindemith zaprezentował trzy studia gramofonowe – Grammophonplatten-eigene Stücke – zaś Ernst Toch swój utwór, Fuge aus der
Geographie. W tym samym czasie Edgard Varèse oraz Percy Grainger (niezależnie od siebie) eksperymentowali z gramofonami. Po wojnie Pierre Schaeffer, Werner Meyer-Eppler, Herbert Eimert i inni zastosowali więc techniki znane już wcześniej, ale w całkowicie nowym kontekście i ze znakomitymi efektami.
Śmiało można wysnuć wniosek, że Schaeffer montując swoje pierwsze etiudy konkretne znalazł się we właściwym miejscu i o właściwym czasie, ale jego muzyka znacznie wyprzedziła samą technologię. W 1948 roku (premiera muzyki konkretnej) należało opracować i zbudować stosowne narzędzia, co zresztą stało się wkrótce później. Nowa muzyka nie była bowiem wykonywana w czasie rzeczywistym, ale montowana w specjalnym studiu, przy pomocy środków elektroakustycznych. Zmusiła ona także publiczność i samych artystów do zrewidowania poglądów na to, czym jest muzyka, co oznacza bycie kompozytorem, muzykiem, czy też czym jest gra na instrumencie.
Kilka lat później grono niemieckich inżynierów i kompozytorów zaprezentowało swoją muzykę elektroniczną, początkowo bazującą wyłącznie na dźwiękach syntetycznych. Z czasem oba nurty połączyły się, konstytuując to, co dziś znamy jako muzykę elektroakustyczną. I znów pionierzy byli zmuszeni do zastosowania aparatury o często innym (niż muzyczny) rodowodzie : sprzętu laboratoryjnego, telekomunikacyjnego itd. Niektóre z tych urządzeń całkowicie zatraciły swoje pierwotne przeznaczenie, stając się narzędziami stricte muzycznymi (np. wokoder). Muzyka znów była o krok przed technologią.
W tym miejscu wypada zapytać dlaczego tak się stało, skoro już w okresie międzywojennym powstało szereg interesujących i całkiem zaawansowanych instrumentów elektronicznych, prototypów, ale także modeli produkcyjnych. Niektóre osiągnęły sukces i zaistniały w poważnych dziełach, jak wspomniane wcześniej : Theremin, fale Martenota i Trautonium. O ile możliwości brzmieniowe pierwszego z nich były zbyt ograniczone, to najbardziej z nich zaawansowany, ostatni z wymienionych instrumentów, niestety funkcjonował w dość wąskim kręgu twórców – dość powiedzieć, że przez lata grał na nim tylko jeden wirtuoz – Oskar Sala. Tym niemniej niektóre z rozwiązań Trautonium implementowano później w złożonych syntezatorach modularnych (np. generatory subharmonicznych). Wiele innych projektów miało jeszcze mniej szczęścia, zaginęły podczas wojny (wraz z nimi nagrania) i dziś znane są z lakonicznych opisów i kilku fotografii.
Powojenna muzyka elektroakustyczna okazała się czymś zupełnie nowym, zarówno w aspekcie sonorystycznym, jak i formalnym, strukturalnym – co doprowadziło do opracowania zupełnie nowych narzędzi. W większości wypadków idee znacznie wyprzedzały rozwiązania technologiczne. Komponowanie takich utworów wymagało dostępu do wyspecjalizowanych studiów, początkowo bardzo nielicznych (prywatne były naprawdę rzadkością). Współcześnie większość, jeśli nie prawie wszyscy kompozytorzy tworzą we własnych studiach domowych, dzięki boomowi na tzw. homerecording, rozpoczętemu w latach 90-tych XX wieku.
Trzy dekady wcześniej dwie przełomowe konstrukcje Dona Buchli i Boba Mooga rozpoczęły erę syntezatorów, nadal będących najbardziej uniwersalnymi narzędziami elektronicznych muzyków. Wkrótce potem te wynalazki doprowadziły do powstania nowej gałęzi przemysłu, charakteryzującą się dużą dynamiką rozwoju.
Wraz z postępem w innych dziedzinach, muzyka elektroakustyczna adaptowała nowe narzędzia – w wielu wypadkach opracowane z myślą o innych zastosowaniach. Najbardziej jaskrawym przykładem jest komputer. Innym – zastosowanie zaawansowanych systemów kontrolnych – opartych np. o podczerwień, albo fale mózgowe. Warto przy tej okazji wspomnieć pionierskie eksperymenty Pierre’a Henry (znane jako Cortical Art). We wczesnych latach 70-tych wykorzystywał on własne fale mózgowe i specjalny system autorstwa Rogera Lafosse do sterowania podczas koncertów różnymi parametrami syntezatorów. Jedno z takich przedstawień przekroczyło zresztą ramy muzyki, gdy Henry wystąpił w Marsylii, z okazji Międzynarodowego Kongresu Encefalografii, który organizowała miejscowa Klinika Neurofizjologii (wrzesień 1973).
Wnioski
Współczesna muzyka elektroakustyczna jest interdyscyplinarną dziedziną sztuki i nauki, bezpośrednią związaną z innymi : filmem (zwłaszcza abstrakcyjną animacją), instalacjami audio i wideo, przedstawieniami multimedialnymi, twórczością radiową itp. Dzięki pracom badawczym, które prowadzono w studiach muzyki elektroakustycznej na całym świecie, rozwinęła się współczesna akustyka – z narzędziami do zaawansowanej analizy. To otworzyło drzwi dla wielu innych zastosowań, wykraczających daleko poza muzykę i sztukę w ogóle. Obecnie właściwie wszystkie produkcje muzyczne korzystają z narzędzi wypracowanych pierwotnie na potrzeby muzyki elektroakustycznej. Nie bez znaczenia jest aspekt naukowy tych prac, dzięki nim wiemy o wiele więcej niż kiedyś na temat natury dźwięku i wszystkich związanych z nim zjawisk.
Większość z nas nie zdaje sobie sprawy z tego jak daleko sięga wpływ wspomnianych poszukiwań elektroakustycznych. Wiele innych dziedzin korzysta dziś z narzędzi, które dzięki nim powstały, by wymienić choć kilka z nich :
Medycyna – energia akustyczna wykorzystywana jest do diagnozowania i leczenia szeregu schorzeń, jak nowotwory, zawały, czy choroba Parkinsona. Fale dźwiękowe można skoncentrować głęboko w ludzkim ciele, np. w celu usunięcia zakrzepów krwi, monitorowania przewlekłych schorzeń wątroby, albo do dystrybucji leku do specyficznych miejsc. Elektroakustyka jest także związana z innymi dziedzinami, jak psychologia i neurologia, ułatwiając komunikację osobom z zaburzeniami mowy i słuchu.
Geologia – zastosowanie fal akustycznych w geologii morza, badanie odbić w profilowaniu sejsmicznym itp.
Kryminalistyka i medycyna sądowa (przede wszystkim fonoskopia) – zastosowanie narzędzi elektroakustycznych, obecnie przede wszystkim oprogramowania, w badaniu dowodów, jak analiza głosu, czy rozpoznanie otoczenia. Warto podkreślić, że wykorzystuje się tu często podobne, albo wręcz te same narzędzia, które wypracowano na potrzeby studiów muzyki elektroakustycznej.
Synteza głosu i jej różne zastosowania, komercyjne, terapeutyczne (medyczne) i inne.
Zaawansowane systemy monitorujące i alarmowe.
Zastosowania militarne – np. elektroakustyczne systemy detekcji i naprowadzania na cel, działania wywiadowcze itd.
Muzyka elektroakustyczna ma ogromny potencjał edukacyjny i pozwala na skuteczne niwelowanie barier w przypadku osób z różnymi formami niepełnosprawności. I wciąż się rozwija, choć czasem odnosimy wrażenie, że wszystko już jest możliwe. Muzyka elektroakustyczna znów sięgnąć po najnowsze osiągnięcia z innych dziedzin, w szczególności zaawansowaną grafikę i wideo. Osobiście wskazałbym na kilka potencjalnych kierunków rozwoju :
Zastosowanie grafiki 3D w edycji dźwięku i modulacji w czasie rzeczywistym.
Holografia – zastosowanie tej technologii do prezentacji trójwymiarowej określonych struktur dźwiękowych i ich dynamicznej modulacji (za pomocą narzędzi optycznych, poprzez interferencję, dyfrakcję, ugięcie fali itd.) w procesie przetwarzania sygnału audio. Ponadto holografia pozwala na projekcję wirtualnych sterowników i kontrolerów, które zastępują trudny do zbudowania, kosztowny sprzęt – stosując narzędzia optyczne będzie można na nich grać, jak na instrumentach elektronicznych nowej ery.
Wykorzystanie nowych, zaawansowanych systemów kontroli zdarzeń dźwiękowych (zdalnych, opartych np. na analizie fal mózgowych), zwłaszcza podczas koncertów.
Biofeedback – oparte na tej koncepcji narzędzia jako sterowniki multimedialne, wykorzystujące także zdarzenia pseudo-losowe, np. obiór reakcji emocjonalnej publiczności, konwertowanej na ciąg sygnałów kontrolnych dla urządzeń audio.
Zaawansowane modelowanie matematyczne – zwłaszcza w procesie budowy wirtualnych instrumentów, których fizyczna realizacja byłaby trudna lub niemożliwa – np. hybrydy akustycznych z elektronicznymi, otoczeniem itd.
Bibliografia
Collins Maynard, Norman McLaren, Canadian Film Institute, Ottawa 1976
Fischinger Oskar, Klangornamente, artykuł opublikowany w Deutsche Allgemeine Zeitung, 8 lipca 1932
Glinsky Albert, Theremin : ether music and espionage, University of Illinois Press, Chicago 2000
Goergen Jean Paul, Walter Ruttmann. Eine Dokumentation, Freunde der Deutsche Kinemathek, Berlin 1989
Iturbide Manuel Rocha, The First Retrospective of Mexican Electroacoustic Music, materiały dydaktyczne National School of Music, UNAM
Kotoński Włodzimierz, Muzyka Elektroniczna, Polskie Wydawnictwo Muzyczne, Kraków 1989
Mazurowski Dariusz, Prapoczątki muzyki elektronicznej, praca opublikowana jako cykl artykułów w miesięczniku Muzyka21, 2010 – 2011
Mazurowski Dariusz, Samouczek Thereminatora, artykuł opublikowany w miesięczniku Estrada i Studio, maj 1999
Mazurowski Dariusz, Walther Ruttmann i jego Weekend – zapomniany rozdział nowej muzyki, artykuł opublikowany w miesięczniku Estrada i Studio, wrzesień 2004
McLaren Norman, The Masters Edition (7 DVD, kompilacja plus książeczka), Home Vision Entertainment, 2006
Sala Oskar, Elektronische Impressionen (CD booklet), Erdenklang, Eslohe 1998
Sala Oskar, My Fascinating Instrument (CD booklet), Erdenklang, Hamburg 1990
Sala Oskar, Subharmonische elektrische Klangsynthesen (z pracy zbiorowej Klangstruktur der Musik, redakcja : Fritz Winckel), Verlag Radio-Fono-Kinotechnik, Berlin 1955
Sala Oskar, Subharmonische Mixturen (CD booklet), Erdenklang, Eslohe 1997
Pozostałe :
materiały konferencyjne Acoustics ’08 w Paryżu (konferencja odbyła się między 30 czerwca a 4 lipca 2008 roku w Palais des Congrès),
materiały archiwalne Centrum Termena w Moskwie,
liczne artykuły prasowe (w przypadku niektórych materiałów historycznych niemożliwe było dokładne ustalenie pochodzenia i daty publikacji),
materiały dostępne w wersji elektronicznej w zasobach internetu, notatki i materiały niepublikowane oraz informacje zebrane z audycji radiowych stacji WDR 3 (m. in. programów Studio Akustische Kunst oraz Studio Elektronische Musik).
Synthesis et machina. Determinanty stylistyczne w utworach na instrument i taśmę Andrzeja Dobrowolskiego
Piotr Wojciechowski
Andrzej Dobrowolski to postać niesłusznie wymazana z kart historii muzyki polskiej XX wieku. Jako kompozytor jest autorem niespełna 50 utworów o dość sporym rozrzucie stylistycznym. Pod względem obsady na uwagę zasługują 4 z nich: dzieła skomponowane na instrument solo z towarzyszeniem partii taśmy. Długość ich trwania oraz ciężar gatunkowy są odwrotnie proporcjonalne w stosunku do stosowanych rozwiązań formalnych, warsztatowych, a przede wszystkim do nowych problemów techniczno-kompozytorskich. Zaprezentowane przeze mnie: Muzyka na taśmę i obój solo (1965) oraz Muzyka na taśmę i fortepian (1971) to utwory dość niewielkich rozmiarów, ale stanowiące interesujący przejaw wykorzystania potrójnej syntezy w twórczości Dobrowolskiego: syntezy zastosowanych środków (technologii i tradycyjnego instrumentarium), syntezy stylu (elektroakustyki z elementami dodekafonii), a także syntezy brzmienia (szumu oraz dźwięków ściśle określonej wysokości).
Rezonans audialny zastosowanej w wymienionych utworach syntezy brzmienia „konkretnego” z tradycyjnym daje interesujące rezultaty słuchowo-percepcyjne oraz wskazuje na duże walory estetyczno-artystyczne. W obrazie słuchowym daje się wyodrębnić przejrzyste jednostki i postaci (Gestalten) o ściśle określonych cechach wrażeniowych, pomimo wykorzystania sonoryzmu oraz techniki dwunastotonowej. Referat ma na celu ich opis z punktu widzenia parametrów organizacji brzmienia, materiału wysokościowego oraz ich lokalizacji czasowo-przestrzennej w utworze. Dostarcza jednocześnie odpowiedzi na pytania o zespół cech charakterystycznych, leżących u podstaw języka muzycznego Andrzeja Dobrowolskiego.